Mohon tunggu...
Handi Aditya
Handi Aditya Mohon Tunggu... Penulis - Pekerja teks komersil. Suka menulis, walau aslinya mengetik.

Tertarik pada sains, psikologi dan sepak bola. Sesekali menulis puisi.

Selanjutnya

Tutup

Gadget Pilihan

Tak Cuma Nagita Slavina, Kita Semua Berpotensi Jadi Korban "Deepfake"

12 Januari 2022   01:33 Diperbarui: 12 Januari 2022   09:19 2035
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Bagikan ide kreativitasmu dalam bentuk konten di Kompasiana | Sumber gambar: Freepik

Terlalu sering mengekspos citra diri baik berupa foto, maupun video selfie ke media sosial, saat ini sudah kian membahayakan. Musibah teranyar menimpa Nagita Slavina, video hasil rekaan program deepfake berdurasi 61 detik yang mencitrakan dirinya beredar luas di media sosial.

Deepfake, atau lebih tepatnya Deep-learning fake, ialah sebuah teknologi berbasis kecerdasan artifisial, yang memungkinkan kita untuk mencitrakan wajah seseorang, kemudian mencupliknya dan menempatkannya pada objek lain.

Singkatnya, lewat teknologi deepfake, kita bisa mencuplik wajah kita atau wajah orang lain, kemudian menempatkannya ke tubuh orang yang berbeda.

Tak berhenti di situ, teknologi ini juga mampu memetakan setiap gerak ekspresi wajah hingga suara, sehingga kita bisa menciptakan sebuah sintesa baru antara citra diri, gerak dan suara, menjadi sebuah video yang rapih dan mulus.

Teknologi ini sebetulnya amat sangat berguna jika diterapkan dalam kepentingan industri hiburan, maupun keperluan edukasi. Sayangnya, seperti musibah yang menimpa Nagita Slavina kemarin, teknologi ini justru dipakai untuk membuat video palsu yang merugikan objek di dalamnya.

Di luar negeri, teknologi deepfake bahkan sudah dipakai dalam praktek penipuan asuransi. Pelaku penipuan dalam modusnya menggunakan deepfake untuk memanipulasi dirinya seolah-olah telah mengalami kecelakaan.

Ahli teknologi media Touradj Ebrahimi mengatakan, bahwa teknologi deepfake saat ini sudah sedemikian canggih. Kita hanya membutuhkan 3-5 menit untuk menghasilkan video melalui program ini dengan kualitas yang sangat baik. Hal ini tentu saja membuat kekhawatiran dirinya akan penyalahgunaan di masa depan.

Ebrahimi dan timnya bahkan tengah mengembangkan sebuah program detektor deepfake, yang fungsinya mendeteksi "produk kepalsuan" deepfake di masa depan.

Namun persoalannya adalah; teknologi pendeteksi deepfake ini kalah cepat perkembangannya dengan program deepfake itu sendiri. Hal ini tentu saja berpotensi membuat banyak masalah baru jika terlambat diantisipasi.

Video palsu kerap digunakan untuk menopang informasi palsu, yang bertujuan membuat kekacauan persepsi di masyarakat. Sebagaimana terjadi terhadap Nagita Slavina, teknologi ini sangat mungkin digunakan oleh orang-orang tak bertanggung jawab untuk menjatuhkan nama baik seseorang, apapun motivasinya.

Ancaman bahaya ini juga tak hanya berlaku pada tokoh-tokoh publik, melainkan bisa juga terjadi pada orang-orang awam seperti kita. Sebab deepfake bisa otomatis bekerja hanya dengan mengambil sedikit saja sampel foto atau video wajah kita, yang mungkin saat ini sudah sangat menumpuk jumlahnya di media sosial.

Pakar media asal Jerman, Andre Wolf mengatakan, di banyak layanan pengecekan fakta (fact check), deepfake belum jadi bagian pekerjaan sehari-hari. Maka akan sangat sulit membendung video-video palsu yang bertambah canggih dari hari ke hari.

Berkaca dari musibah Nagita Slavina, di mana dirinya dicitrakan pada sebuah video dalam keadaan tak berbusana, mulai hari ini, agaknya kita perlu untuk membatasi diri berbagi informasi yang memuat citra diri kita ke media sosial.

Jika tak penting-penting amat, simpan saja momen-momen foto ataupun video kita di kartu memori, hardisk, ataupun di penyimpanan awan. Setidaknya akses keamanannya jauh lebih terkontrol oleh diri kita sendiri.

Atau jika sudah telanjur menyimpan di media sosial, batasi saja siapa teman yang bisa mengaksesnya. Setidaknya, kita telah mengurangi data-data citra diri kita disalah gunakan. Bukankah lebih baik mencegah, daripada mengklarifikasi?

Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H

HALAMAN :
  1. 1
  2. 2
Mohon tunggu...

Lihat Konten Gadget Selengkapnya
Lihat Gadget Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun