Lihat ke Halaman Asli

MBKM Univ Mandiri

Universitas Mandiri

Aplikasi Vision-IMU fusion Navigation pada UAV dengan Lingkungan yang Tidak Terjangkau oleh GPS

Diperbarui: 29 Agustus 2024   15:57

Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.

adobe_firefly

Penelitian mengenai navigasi otonom pada aplikasi unmanned aerial vehicles (UAV) di lingkungan tanpa GPS telah menjadi topik yang sangat penting dalam beberapa tahun terakhir. Navigasi vision-IMU fusion telah muncul sebagai solusi yang efektif untuk mengatasi keterbatasan ini. Teknologi ini menggabungkan data dari kamera (vision) dengan data dari inertial measurement unit (IMU), sehingga memungkinkan UAV untuk bernavigasi dengan lebih akurat dan stabil.

Vision-IMU fusion merupakan teknologi yang menggabungkan data visual dari kamera dengan data inersia dari IMU, yang meliputi percepatan dan rotasi. Kamera memberikan informasi visual tentang lingkungan, seperti fitur-fitur permukaan dan objek yang ada, sedangkan IMU menyediakan data inersia yang penting untuk menentukan posisi dan orientasi UAV. Secara terpisah, masing-masing sensor memiliki kelemahan. Pencahayaan yang buruk dapat mempengaruhi kinerja kamera, sementara IMU sering kali mengalami drift seiring berjalannya waktu. Drift mengacu pada kesalahan akumulatif yang terjadi ketika menggunakan IMU saja untuk memperkirakan posisi atau orientasi. Namun, vision-IMU fusion mampu menghasilkan navigasi yang lebih akurat dan stabil dengan menggabungkan kedua jenis data ini, karena kelemahan masing-masing sensor dapat saling menutupi.

Proses penggabungan data dari kedua sensor ini biasanya dilakukan menggunakan metode nonlinear dengan algoritma extended Kalman filter (EKF). Algoritma ini memungkinkan UAV untuk mengoreksi kesalahan sensor secara real-time, yang sangat penting dalam kondisi lingkungan yang kompleks. Sebagai contoh, meskipun IMU dapat memberikan data dengan frekuensi tinggi, akurasi data tersebut bisa berkurang karena drift. Namun, data visual dari kamera dapat membantu mengoreksi drift ini, sehingga navigasi UAV menjadi lebih presisi.

Navigasi vision-IMU fusion sangat bermanfaat untuk aplikasi UAV di lingkungan tanpa GPS. UAV dapat menggunakan sistem ini untuk membangun peta lingkungan secara real-time, serta menentukan posisinya dalam peta tersebut, dengan mempertimbangkan sistem di dalam bangunan, di bawah tanah, atau di daerah perkotaan yang padat. Teknologi ini juga memungkinkan UAV untuk melakukan navigasi otonom, menghindari rintangan, dan mencapai tujuan dengan presisi yang lebih tinggi. Dengan demikian, vision-IMU fusion tidak hanya meningkatkan kemampuan UAV untuk beroperasi di lingkungan yang menantang, tetapi juga membuka peluang baru untuk penggunaan UAV dalam berbagai aplikasi, seperti pemetaan dalam ruangan, inspeksi infrastruktur, dan misi pencarian serta penyelamatan.

Berbagai studi telah menunjukkan keberhasilan vision-IMU fusion dalam meningkatkan akurasi navigasi UAV di lingkungan tanpa GPS. Leutenegger et al. (2015) memperkenalkan VINS-Mono, yaitu sistem vision-IMU fusion khusus untuk UAV. Hasil penelitian ini menunjukkan bahwa VINS-Mono mampu menghasilkan estimasi posisi yang akurat, bahkan dalam kondisi lingkungan yang tidak mendukung GPS. Selain itu, Qin et al. (2018) juga berkontribusi untuk mengembangkan VINS-Fusion, yaitu sistem yang mendukung konfigurasi sensor yang lebih beragam, termasuk stereo vision dan multiple IMU. Sistem ini terbukti memberikan performa unggul dalam navigasi UAV di lingkungan perkotaan yang padat dan kompleks.

Penelitian dalam bidang navigasi vision-IMU fusion  telah membuktikan sebagai solusi yang sangat efektif untuk navigasi otonom UAV di lingkungan tanpa GPS. Dengan menggabungkan keunggulan dari sensor visual dan inersia, teknologi ini memungkinkan UAV untuk beroperasi dengan presisi dan stabilitas yang lebih tinggi, bahkan di lingkungan yang penuh tantangan. Oleh karena itu, vision-IMU fusion menjadi teknologi kunci yang memungkinkan UAV untuk mengambil peran yang lebih besar dalam berbagai aplikasi industri dan sipil.

Referensi:

  • Leutenegger, S., Lynen, S., Bosse, M., Siegwart, R., & Furgale, P. (2015). Keyframe-based visual-inertial odometry using nonlinear optimization. The International Journal of Robotics Research, 34(3), 314-334. https://doi.org/10.1177/0278364914554813
  • Qin, T., Li, P., & Shen, S. (2018). VINS-Mono: A robust and versatile monocular visual-inertial state estimator. IEEE Transactions on Robotics, 34(4), 1004-1020. https://doi.org/10.1109/TRO.2018.2853729

Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H




BERI NILAI

Bagaimana reaksi Anda tentang artikel ini?

BERI KOMENTAR

Kirim

Konten Terkait


Video Pilihan

Terpopuler

Nilai Tertinggi

Feature Article

Terbaru

Headline