Sistem Deteksi Gerakan Dasar Bela Diri Taekwondo Menggunakan Arsitektur Yowo Dengan Rgb
Abstract
Abstrak— Taekwondo merupakan salah satu olahraga cabang seni bela diri yang populer di Indonesia. Bela diri Taekwondo ini terdapat berbagai teknik gerakan dan jurus yang bisa dipelajari dengan cara dilatih oleh sabeum di dojang terkait yang selanjutnya diteruskan latihan mandiri. Akan tetapi, terdapat kendala untuk orang awam yang mempelajari gerakan ini karena tidak tahu nama teknik gerakan dan jurus dalam bela diri Taekwondo ketika mereka melihat orang yang berlatih atau mengikuti lomba Taekwondo yang menyebabkan mengalami kesulitan berlatih dengan sabeum. Arsitektur YOWO merupakan salah satu metode dalam deep learning yang digunakan untuk lokalisasi jenis gerakan manusia. YOWO menggunakan penggabungan 3D-CNN dengan 2DCNN. RGB merupakan ekstraksi fitur yang bertujuan untuk membagi warna menjadi tiga (3) channel, yaitu Red, Green, dan Blue. Arsitektur YOWO cocok digunakan untuk mendeteksi gerakan berupa input video dan frame. Hasil yang didapat setelah melakukan pengujian average precision gerakan bela diri Taekwondo yaitu momtong jireugi sebesar 97.92% dengan nilai akurasi 99.70%, precision 99.18%, recall 93.90%, dan f1- score terbaik adalah 96.31%, dengan parameter batch size: 16, learning rate: 0.0001, num frames: 8, 3D-CNN dimension: 2, 2DCNN dimension: 1, epochs: 10, num workers: 5, dan rasio dataset 60%:40%.
Kata kunci— bela diri taekwondo, sistem deteksi gerakan dasar bela diri, arsitektur YOWO, RGB
References
REFERENSI
Penjasorkes. <16 Tahap Tingkatan Sabuk Taekwondo
di Indonesia=. Internet:
https://www.penjasorkes.com/2019/03/tahaptingkatan-sabuk-taekwondo-di.html# [Dec. 24, 2021]
Xu, Liang., Lan, Cuiling., Zeng, Wenjun., dan Lu,
Cewu. (2021).
Interacted Object Localization and Human Action
Recognition=. arXiv preprint arXiv:2110.14994.
Köpüklü, Okan., Wei, Xiangyu., dan Rigoll, Gerhard.
(2019).
Architecture for Real-Time Spatiotemporal Action
Localization=. arXiv preprint arXiv:1911.06644.
Mo, Shentong., Tan, Xiaoqing., Xia, Jingfei., dan Ren,
Pinxu. (2020).
Action Recognition in Videos=. arXiv preprint
arXiv:2012.08097.
J. Redmon dan A. Farhadi. (2017).
faster, stronger”, in: Proceedings of the IEEE
conference on computer vision and pattern
recognition, pp. 7263–7271.
K. Hara, H. Kataoka, dan Y. Satoh. (2018).
spatiotemporal 3d cnns retrace the history of 2d cnns
and imagenet?=, in: Proceedings of the IEEE
conference on Computer Vision and Pattern
Recognition, pp. 6546–6555
R. Girshick. (2015).
the IEEE international conference on computer
vision=, pp. 1440–1448.
T.-Y. Lin, P. Goyal, R. Girshick, K. He, P. Doll´ar.
(2017).
Proceedings of the IEEE international conference on
computer vision, pp. 2980–2988.
R. Yacouby dan D. Axman. 2020.
Extension of Precision, Recall, and F1 Score for More
Thorough Evaluation of Classification Models=. In
Proceedings of the First Workshop on Evaluation and
Comparison of NLP Systems, pages 79–91, Online.
Association for Computational Linguistics.
Y. Shivy. (2020).
might confuse you!=. Internet:
https://towardsdatascience.com/map-mean-averageprecision-might-confuse-you-5956f1bfa9e2 [Feb. 20,
P. Rafael. (2021).
Internet: https://github.com/rafaelpadilla/ObjectDetection-Metrics#metrics [Feb. 20, 2023]
H. Jonathan. (2018).
for Object Detection=. Internet: https://jonathanhui.medium.com/map-mean-average-precision-forobject-detection-45c121a31173 [Feb. 20, 2023]