Penelitian mengenai vision-based navigation dalam aplikasi Unmanned Aerial Vehicle (UAV) autonomous navigation di lingkungan yang tidak mendukung GPS (GPS-denied environments) telah menjadi topik yang sangat menarik dalam komunitas robotika dan teknologi kendaraan otonom. Seiring dengan meningkatnya penggunaan UAV dalam berbagai aplikasi, seperti pemantauan lingkungan, inspeksi infrastruktur, dan operasi pencarian dan penyelamatan, tantangan terkait ketiadaan sinyal GPS menjadi semakin nyata. Oleh karena itu, teknologi vision-based navigation muncul sebagai rekomendasi solusi untuk mengatasi keterbatasan ini.
Vision-based navigation pada UAV mengandalkan penggunaan sensor visual, seperti kamera RGB atau depth camera, untuk memahami lingkungan sekitarnya. Informasi visual yang diperoleh kemudian diolah menggunakan berbagai teknik, termasuk image processing dan machine learning algorithm, khususnya deep learning. Salah satu teknik yang paling sering digunakan adalah Visual Simultaneous Localization and Mapping (vSLAM), yang memungkinkan UAV untuk membangun peta lingkungan sekaligus menentukan posisinya sendiri dalam peta tersebut. vSLAM memiliki keuntungan dalam memberikan kemampuan navigasi yang otonom, bahkan di lingkungan yang rumit dan tidak terstruktur.
Meskipun demikian, ada beberapa tantangan signifikan yang harus dihadapi dalam penerapan vision-based navigation di lingkungan tanpa GPS. Salah satunya adalah masalah pencahayaan yang berubah-ubah, yang dapat mempengaruhi akurasi data visual yang diperoleh. Kondisi ini menuntut algoritma navigasi untuk mampu beradaptasi dengan cepat terhadap perubahan lingkungan. Selain itu, lingkungan yang dinamis, seperti area dengan banyak objek bergerak atau medan yang tidak teratur, menambah kompleksitas proses navigasi. Untuk mengatasi masalah ini, berbagai penelitian telah mengeksplorasi penggunaan convolutional neural network (CNNs) dan teknik sensor fusion yang menggabungkan data visual dengan data dari sensor lain seperti lidar dan Inertial Measurement Unit (IMU) untuk meningkatkan keandalan dan akurasi sistem navigasi UAV.
Loquercio et al. (2018) memperkenalkan DroNet, sebuah sistem navigasi berbasis deep learning yang dirancang untuk UAV supaya dapat beroperasi secara otonom di lingkungan perkotaan yang kompleks tanpa bantuan GPS. DroNet dilatih menggunakan data dari kendaraan darat dan UAV, memungkinkan sistem untuk belajar menghindari rintangan dan menavigasi secara aman. Sistem ini menunjukkan kemampuan UAV untuk bergerak dengan aman dan efisien di lingkungan yang kompleks dan padat, menekankan potensi besar teknologi deep learning dalam navigasi otonom.
Selain itu, Bry et al. (2015) menunjukkan bahwa vSLAM dapat diadaptasi untuk navigasi UAV di dalam ruangan. Sistem yang mereka kembangkan menggunakan kamera monokular untuk membuat peta 3D dari lingkungan sekitar dan secara bersamaan menentukan posisi UAV di dalam peta tersebut. Penelitian ini menggarisbawahi potensi vSLAM untuk digunakan dalam navigasi UAV di area yang kompleks, seperti gudang, pabrik, atau bangunan besar lainnya, di mana sinyal GPS tidak tersedia.
Penelitian dalam bidang vision-based navigation untuk UAV di lingkungan tanpa GPS terus berkembang. Kemajuan dalam teknologi deep learning dan image processing telah membuka peluang baru untuk meningkatkan kinerja dan keandalan sistem navigasi otonom ini. Dengan demikian, UAV dapat digunakan dalam berbagai aplikasi kritis yang sebelumnya sulit atau tidak mungkin dilakukan tanpa bantuan GPS.
Referensi:
Bry, A., Bachrach, A., & Roy, N. (2015). State estimation for aggressive flight in GPS-denied environments using onboard sensing. Proceedings of the IEEE International Conference on Robotics and Automation (ICRA).
Loquercio, A., Maqueda, A. I., Del-Blanco, C. R., & Scaramuzza, D. (2018). DroNet: Learning to fly by driving. IEEE Robotics and Automation Letters, 3(2), 1088-1095.