Mohon tunggu...
MBKM Univ Mandiri
MBKM Univ Mandiri Mohon Tunggu... Mahasiswa - Universitas Mandiri

Program Studi Fisika, Fakultas Sains, Universitas Mandiri

Selanjutnya

Tutup

Inovasi

Aplikasi vision-based navigation pada UAV dengan lingkungan yang tidak mendukung GPS

29 Agustus 2024   01:57 Diperbarui: 29 Agustus 2024   02:18 102
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.

Penelitian mengenai vision-based navigation dalam aplikasi Unmanned Aerial Vehicle (UAV) autonomous navigation di lingkungan yang tidak mendukung GPS (GPS-denied environments) telah menjadi topik yang sangat menarik dalam komunitas robotika dan teknologi kendaraan otonom. Seiring dengan meningkatnya penggunaan UAV dalam berbagai aplikasi, seperti pemantauan lingkungan, inspeksi infrastruktur, dan operasi pencarian dan penyelamatan, tantangan terkait ketiadaan sinyal GPS menjadi semakin nyata. Oleh karena itu, teknologi vision-based navigation muncul sebagai rekomendasi solusi untuk mengatasi keterbatasan ini.

Vision-based navigation pada UAV mengandalkan penggunaan sensor visual, seperti kamera RGB atau depth camera, untuk memahami lingkungan sekitarnya. Informasi visual yang diperoleh kemudian diolah menggunakan berbagai teknik, termasuk image processing dan machine learning algorithm, khususnya deep learning. Salah satu teknik yang paling sering digunakan adalah Visual Simultaneous Localization and Mapping (vSLAM), yang memungkinkan UAV untuk membangun peta lingkungan sekaligus menentukan posisinya sendiri dalam peta tersebut. vSLAM memiliki keuntungan dalam memberikan kemampuan navigasi yang otonom, bahkan di lingkungan yang rumit dan tidak terstruktur.


Meskipun demikian, ada beberapa tantangan signifikan yang harus dihadapi dalam penerapan vision-based navigation di lingkungan tanpa GPS. Salah satunya adalah masalah pencahayaan yang berubah-ubah, yang dapat mempengaruhi akurasi data visual yang diperoleh. Kondisi ini menuntut algoritma navigasi untuk mampu beradaptasi dengan cepat terhadap perubahan lingkungan. Selain itu, lingkungan yang dinamis, seperti area dengan banyak objek bergerak atau medan yang tidak teratur, menambah kompleksitas proses navigasi. Untuk mengatasi masalah ini, berbagai penelitian telah mengeksplorasi penggunaan convolutional neural network (CNNs) dan teknik sensor fusion yang menggabungkan data visual dengan data dari sensor lain seperti lidar dan Inertial Measurement Unit (IMU) untuk meningkatkan keandalan dan akurasi sistem navigasi UAV.

Loquercio et al. (2018) memperkenalkan DroNet, sebuah sistem navigasi berbasis deep learning yang dirancang untuk UAV supaya dapat beroperasi secara otonom di lingkungan perkotaan yang kompleks tanpa bantuan GPS. DroNet dilatih menggunakan data dari kendaraan darat dan UAV, memungkinkan sistem untuk belajar menghindari rintangan dan menavigasi secara aman. Sistem ini menunjukkan kemampuan UAV untuk bergerak dengan aman dan efisien di lingkungan yang kompleks dan padat, menekankan potensi besar teknologi deep learning dalam navigasi otonom.


Selain itu, Bry et al. (2015) menunjukkan bahwa vSLAM dapat diadaptasi untuk navigasi UAV di dalam ruangan. Sistem yang mereka kembangkan menggunakan kamera monokular untuk membuat peta 3D dari lingkungan sekitar dan secara bersamaan menentukan posisi UAV di dalam peta tersebut. Penelitian ini menggarisbawahi potensi vSLAM untuk digunakan dalam navigasi UAV di area yang kompleks, seperti gudang, pabrik, atau bangunan besar lainnya, di mana sinyal GPS tidak tersedia.

Penelitian dalam bidang vision-based navigation untuk UAV di lingkungan tanpa GPS terus berkembang. Kemajuan dalam teknologi deep learning dan image processing telah membuka peluang baru untuk meningkatkan kinerja dan keandalan sistem navigasi otonom ini. Dengan demikian, UAV dapat digunakan dalam berbagai aplikasi kritis yang sebelumnya sulit atau tidak mungkin dilakukan tanpa bantuan GPS.

Referensi:

  • Bry, A., Bachrach, A., & Roy, N. (2015). State estimation for aggressive flight in GPS-denied environments using onboard sensing. Proceedings of the IEEE International Conference on Robotics and Automation (ICRA).

  • Loquercio, A., Maqueda, A. I., Del-Blanco, C. R., & Scaramuzza, D. (2018). DroNet: Learning to fly by driving. IEEE Robotics and Automation Letters, 3(2), 1088-1095.

HALAMAN :
  1. 1
  2. 2
Mohon tunggu...

Lihat Konten Inovasi Selengkapnya
Lihat Inovasi Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun