Sistem Deteksi Gerakan Dasar Bela Diri Taekwondo Menggunakan Arsitektur Yowo Dengan Rgb

Authors

  • Muchlis Aryomukti Telkom University
  • Muhammad Nasrun Telkom University
  • Meta Kallista Telkom University

Abstract

Abstrak— Taekwondo merupakan salah satu olahraga cabang seni bela diri yang populer di Indonesia. Bela diri Taekwondo ini terdapat berbagai teknik gerakan dan jurus yang bisa dipelajari dengan cara dilatih oleh sabeum di dojang terkait yang selanjutnya diteruskan latihan mandiri. Akan tetapi, terdapat kendala untuk orang awam yang mempelajari gerakan ini karena tidak tahu nama teknik gerakan dan jurus dalam bela diri Taekwondo ketika mereka melihat orang yang berlatih atau mengikuti lomba Taekwondo yang menyebabkan mengalami kesulitan berlatih dengan sabeum. Arsitektur YOWO merupakan salah satu metode dalam deep learning yang digunakan untuk lokalisasi jenis gerakan manusia. YOWO menggunakan penggabungan 3D-CNN dengan 2DCNN. RGB merupakan ekstraksi fitur yang bertujuan untuk membagi warna menjadi tiga (3) channel, yaitu Red, Green, dan Blue. Arsitektur YOWO cocok digunakan untuk mendeteksi gerakan berupa input video dan frame. Hasil yang didapat setelah melakukan pengujian average precision gerakan bela diri Taekwondo yaitu momtong jireugi sebesar 97.92% dengan nilai akurasi 99.70%, precision 99.18%, recall 93.90%, dan f1- score terbaik adalah 96.31%, dengan parameter batch size: 16, learning rate: 0.0001, num frames: 8, 3D-CNN dimension: 2, 2DCNN dimension: 1, epochs: 10, num workers: 5, dan rasio dataset 60%:40%.

Kata kunci— bela diri taekwondo, sistem deteksi gerakan dasar bela diri, arsitektur YOWO, RGB

References

REFERENSI

Penjasorkes. <16 Tahap Tingkatan Sabuk Taekwondo

di Indonesia=. Internet:

https://www.penjasorkes.com/2019/03/tahaptingkatan-sabuk-taekwondo-di.html# [Dec. 24, 2021]

Xu, Liang., Lan, Cuiling., Zeng, Wenjun., dan Lu,

Cewu. (2021).

Interacted Object Localization and Human Action

Recognition=. arXiv preprint arXiv:2110.14994.

Köpüklü, Okan., Wei, Xiangyu., dan Rigoll, Gerhard.

(2019).

Architecture for Real-Time Spatiotemporal Action

Localization=. arXiv preprint arXiv:1911.06644.

Mo, Shentong., Tan, Xiaoqing., Xia, Jingfei., dan Ren,

Pinxu. (2020).

Action Recognition in Videos=. arXiv preprint

arXiv:2012.08097.

J. Redmon dan A. Farhadi. (2017).

faster, stronger”, in: Proceedings of the IEEE

conference on computer vision and pattern

recognition, pp. 7263–7271.

K. Hara, H. Kataoka, dan Y. Satoh. (2018).

spatiotemporal 3d cnns retrace the history of 2d cnns

and imagenet?=, in: Proceedings of the IEEE

conference on Computer Vision and Pattern

Recognition, pp. 6546–6555

R. Girshick. (2015).

the IEEE international conference on computer

vision=, pp. 1440–1448.

T.-Y. Lin, P. Goyal, R. Girshick, K. He, P. Doll´ar.

(2017).

Proceedings of the IEEE international conference on

computer vision, pp. 2980–2988.

R. Yacouby dan D. Axman. 2020.

Extension of Precision, Recall, and F1 Score for More

Thorough Evaluation of Classification Models=. In

Proceedings of the First Workshop on Evaluation and

Comparison of NLP Systems, pages 79–91, Online.

Association for Computational Linguistics.

Y. Shivy. (2020).

might confuse you!=. Internet:

https://towardsdatascience.com/map-mean-averageprecision-might-confuse-you-5956f1bfa9e2 [Feb. 20,

P. Rafael. (2021).

Internet: https://github.com/rafaelpadilla/ObjectDetection-Metrics#metrics [Feb. 20, 2023]

H. Jonathan. (2018).

for Object Detection=. Internet: https://jonathanhui.medium.com/map-mean-average-precision-forobject-detection-45c121a31173 [Feb. 20, 2023]

Downloads

Published

2023-11-01

Issue

Section

Program Studi S1 Teknik Komputer