Extended Kalman filter design for compass navigation tool on visual impaired person

Authors

  • Ridwan Solihin Politeknik Negeri Bandung
  • Sudrajat Sudrajat Politeknik Negeri Bandung
  • TB Utomo Politeknik Negeri Bandung
  • Febi Ariefka Seftian Putra Politeknik Negeri Bandung
  • Tata Supriyadi Politeknik Negeri Bandung

DOI:

https://doi.org/10.35313/jitel.v4.i2.2024.115-124

Keywords:

kompas bicara, isyarat suara, navigasi, Kalman, tunanetra

Abstract

Orang normal, robot, dan kendaraan cerdas mengandalkan kombinasi indera visual dan memori ingatan sebagai peta untuk navigasi dalam melakukan mobilitas mandiri. Berbeda dengan tunanetra yang mengandalkan kombinasi indera lain yang masih berfungsi serta tongkat standar maupun elektronik dalam melaksanakan aktifitas mobilitas mandiri. Tongkat masih memiliki kekurangan, diantaranya hanya dapat memberikan informasi isyarat sentuhan, suara, dan getar terhadap jarak objek di lingkungan sekitar. Penelitian ini mengembangkan rancangan dan implementasi produk terapan berupa kompas bicara untuk informasi navigasi tunanetra dengan isyarat suara delapan titik arah mata angin. Produk terapan dibuat mudah dipasang pada sabuk pinggang pengguna dan mudah digunakan. Sistem elektronik arah jam berupa sinyal data 360 derajat yang berasal dari sensor kompas dijadikan masukan sebagai pengganti indera visual untuk mikrokontroler unit (MCU). Sinyal data dari kompas terlebih dahulu dilakukan filter menggunakan Kalman untuk menghilangkan noise dari gangguan lingkungan dan gelombang elektromagnetik. Eksperimen dengan dua skenario berbeda menunjukan sistem dapat berfungsi sempurna dengan menjadi dukungan efektif selama mobilitas mandiri tunanetra. Selain itu, alat ini layak digunakan untuk melatih tunanetra dengan mengkombinasikan terhadap alat bantu perjalanan tongkat standar dengan akurasi lebih besar 0,95% lebih baik dengan filter.

References

JL and NEP Chundury, B. Patnaik, Y. Reyazuddin, C. Tang, “Towards Understanding Sensory Substitution for Accessible Visualization: An Interview Study,” IEEE Trans. Vis. Comput. Graph. , vol. 28, no. 1, pp. 1084–1094, 2022, doi: 10.1109/TVCG.2021.3114829.

I. Yuwono, M. Mirnawati, DE Kusumastuti, and N. Rahmah, "Effectiveness of Developing Mobility Aids for Blind Persons in Wetland Environments," J. ORTOPEDAGOGIA , vol. 7, no. 2, p. 130, 2021, doi: 10.17977/um031v7i22021p130-134.

A. Yudhiastuti and N. Azizah, "Special Mobility Orientation Program Learning," LEARNER J. Education, Teacher Training and Learning Sciences , vol. 3, no. 1, pp. 1–8, 2019.

RY Rahmawati and A. Sunandar, "Improving Orientation and Mobility Skills through the Use of Canes for Blind Persons," J. ORTHOPEDAGOGIA , vol. 4, no. 2, pp. 100–103, 2018, doi: 10.17977/um031v4i12018p100.

P. Leakkaw, S. Panichpapiboon, and S. Member, “Real-Time Vehicle Maneuvering Detection With Digital Compass,” IEEE Access , vol. 9, pp. 102549–102558, 2021, doi: 10.1109/ACCESS.2021.3097752.

L. Zhang, K. Jia, J. Liu, G. Wang, and W. Huang, “Design of Blind Guiding Robot Based on Speed Adaptation and Visual Recognition,” IEEE Access , vol. 11, no. June, pp. 75971–75978, 2023, doi: 10.1109/ACCESS.2023.3296066.

A. Wibisana, B. Sena, and B. Dewantara, "Development of an Omni Directional based Mobile Robot Navigation System using Optimized-Fuzzy Social Force Model," vol. 10, no. 4, pp. 961–975, 2022.

S. Tian, M. Zheng, W. Zou, X. Li, and L. Zhang, “Dynamic Crosswalk Scene Understanding for the Visually Impaired,” IEEE Trans. Neural Syst. Rehab. Eng. , vol. 29, pp. 1478–1486, 2021, doi: 10.1109/TNSRE.2021.3096379.

AR DARLIS, R. SUSANA, and TR SHOLIHAH, "Visible Light-based Outdoor Navigation Systems for Visually Impaired Persons," ELKOMIKA J. Tek. Electr Energy. Tech. Telecomun. Tech. Electron. , vol. 12, no. 1, p. 247, 2024, doi: 10.26760/elkomika.v12i1.247.

K. Jivrajani et al. , “AIoT-Based Smart Stick for Visually Impaired Persons,” IEEE Trans. Instrum. Meas. , vol. 72, pp. 1–11, 2023, doi: 10.1109/TIM.2022.3227988.

S. Bhatlawande, R. Borse, A. Solanke, and S. Shilaskar, “A Smart Clothing Approach for Augmenting Mobility of Visually Impaired Persons,” IEEE Access , vol. 12, no. December 2023, pp. 24659–24671, 2024, doi: 10.1109/ACCESS.2024.3364915.

B. Setiadi, T. Supriyadi, H. Nugroho, and R. Solihin, "Navigation and Object Detection for Blind Persons Based on Neural Network Budi Setiadi *, a Tata Supriyadi, a Hertog Nugroho, a Ridwan Solihin," vol . 1, no. 1, pp. 56–65, 2020.

B. Setiadi, R. Solihin, T. Supriyadi, and T. Tohir, "Distance Estimation in Coordinate Systems Based on the Haversine Method using the Kalman Filter," vol. 11, no. 1, pp. 207–216, 2023.

M. MUSAYYANAH, CD AFFANDI, and K. LEBDANINGRUM, "Application of the Kalman Filter for Distance and Position Estimation in RSSI-based Outdoor Localization with LoRa Communication," ELKOMIKA J. Tek. Electr Energy. Tech. Telecomun. Tech. Electron. , vol. 11, no. 4, p. 849, 2023, doi: 10.26760/elkomika.v11i4.849.

MR Fernandes, GM Magalhaes, YRC Zuniga, and JBR Do Val, “GNSS/MEMS-INS Integration for Drone Navigation Using EKF on Lie Groups,” IEEE Trans. Aerosp. Electrons. Syst. , vol. 59, no. 6, pp. 7395–7408, 2023, doi: 10.1109/TAES.2023.3290575.

L. Zacchini, V. Calabro, M. Candeloro, F. Fanelli, A. Ridolfi, and F. Dukan, “Novel Noncontinuous Carouseling Approaches for MEMS-Based North Seeking Using Kalman Filter: Theory, Simulations, and Preliminary Experimental Evaluation,” IEEE/ASME Trans. Mechatronics , vol. 25, no. 5, pp. 2437–2448, 2020, doi: 10.1109/TMECH.2020.2975960.

Downloads

Published

2024-08-28