Utilizing hand landmarks and MediaPipe for deep neural network-based recognition of signal for help

Authors

  • Narongrit Piromnok Faculty of Science and Technology, Suan Dusit University, Bangkok

Keywords:

Hand gesture recognition, Neural Networks, Media Pipes

Abstract

The unsafe condition is a problem that has greatly affected the quality of life of people in society, especially those people with hearing loss which accounts for the second largest number of all disabled people. The unsafe conditions may take place physically and mentally, as well as problems of family violence that may occur at home, school, or public places, thereby vastly affected people of all groups and all ages. Thus, the issue is attributed to the real-time “signal for help” hand gesture recognition development with the aid of the MediaPipe to track the location. The victim can ask for help in an emergency case without words or shouting out. The objectives of the study include: 1) to detect the “signal for help” hand gestures and provide notifications, and 2) to examine the performance of the “signal for help” hand gesture recognition. The MediaPipe framework is used and practiced with 30,000 images dataset and tested by the obtained video data to detect six “signal for help” hand gestures, each gesture of 100 images, a total of 600 images. The palm and finger coordinates are configured into a Python programming language. When “signal for help” hand gestures are detected, a notification is provided to the administrator. The test results found that the accuracy of hand gestures 1-6 of the dataset ranged between 95-99%, and the accuracy was approximately 97%.

References

กรมส่งเสริมและพัฒนาคุณภาพชีวิตคนพิการ. (2565). รายงานข้อมูลสถานการณ์ด้านคนพิการในประเทศไทย. ค้นเมื่อ 16 กันยายน 2566. https://dep.go.th/images/uploads/files/Data_situa-mar66.xlsx.

ภัทรณัฎฐ์ ศรีบุญเรือง, พันธกรณ์ ทะนันชัย, คเชนทร์เทพ แขกระโทก, วุฒิชัย วิจิตรกุลสวัสดิ์ และปราโมทย์ อนันต์วราพงษ์.(2565). โปรแกรมแปลภาษามือเป็นข้อความและเสียงพูดโดยการใช้วิธีการระบุพิกัดตำแหน่งด้วย MediaPipe. วารสารวิชาการเทคโนโลยีอุตสาหกรรม มหาวิทยาลัยราชภัฏสวนสุนันทา. 10(2): 66-76.

ณัฏยา เปลี่ยนวงษ์ และธนภัทร ฆังคะจิตร. (2565). ระบบแปลคำศัพท์ภาษามือไทยโดยการเรียนรู้เชิงลึกบนข้อมูลบางส่วน. วารสารบัณฑิตวิทยาลัย. 2: 119-132.

พิศณุ คูมีชัย. (2564). ระบบรู้จำท่าทางมือทางทหารด้วยการประมวลผลภาพดิจิทัล. วารสารวิทยาศาสตร์ เทคโนโลยี และนวัตกรรม. 2(5): 28-36.

ราษฎร์ บุญญา. (2551). ภาษามือ: ภาษาของคนหูหนวก. วารสารวิทยาลัยราชสุดาเพื่อการวิจัยและพัฒนาคนพิการ. 1: 77-94.

Google Inc. (2023a). MediaPipe Framework. Accessed 12 Aug. 2023. https://developers.google.com/mediapipe/framework.

Google Inc. (2023b). Hand landmarks detection guide. Accessed 10 Sep. 2023. https://developers.google.com/mediapipe/solutions/vision/hand_landmarker.

Indriani M.H. and Ali S.A. (2021). Applying hand gesture recognition for user guide application using MediaPipe. Proceedings of the 2nd International Seminar of Science and Applied Technology (ISSAT 2021). 207: 101–108.

OpenCV. (2023). About OpenCV. Accessed 12 Aug. 2023. https://opencv.org.

ScienceDirect. (2019). Confusion matrix. Accessed 16 Sep. 2023.

https://www.sciencedirect.com/topics/engineering/confusion-matrix

Sundar B. and Bagyammal T. (2022). American sign language recognition for alphabets using MediaPipe

and LSTM. 4th International Conference on Innovative Data Communication Technology and Application, Procedia Computer Science. 215: 642–651.

The Canadian Women’s Foundation. (2020). Signal for help responder. Accessed 16 Sep. 2023. https://canadianwomen.org/signal-for-help.

Valentin B. and Fan Z. (2019). On-device, Real-time hand tracking with MediaPipe. Accessed 16 Sep. 2023. https://ai.googleblog.com/2019/08/on-device-realtime-hand-tracking-with.html.

Published

2024-04-26

How to Cite

Piromnok, N. (2024). Utilizing hand landmarks and MediaPipe for deep neural network-based recognition of signal for help. Agriculture & Technology RMUTI Journal, 5(1), 1–14. retrieved from https://li01.tci-thaijo.org/index.php/atj/article/view/260071