Ancaman Terhadap Privasi dan Keamanan Individu
Teknologi deepfake tidak hanya digunakan untuk memanipulasi persepsi publik, tetapi juga mengancam privasi dan keamanan individu. Orang biasa, termasuk selebritas, pejabat pemerintah, atau bahkan orang awam, dapat menjadi target dari video deepfake yang dapat merusak reputasi mereka. Deepfake telah digunakan untuk membuat konten yang tidak benar yang melibatkan orang dalam situasi yang memalukan atau bahkan melanggar hukum, seperti video pornografi yang tidak benar atau konten yang merusak karakter seseorang tanpa sepengetahuan atau persetujuan mereka (Forbes, 2020).
Selain itu, deepfake memungkinkan kejahatan siber seperti pemerasan dan penipuan. Bayangkan situasi di mana seseorang membuat deepfake video yang menunjukkan seorang pejabat pemerintah atau bisnis melakukan sesuatu yang tidak pantas atau melanggar undang-undang, kemudian menggunakan video tersebut untuk memeras korban. Kejahatan seperti ini tidak hanya merugikan orang yang menjadi target, tetapi juga dapat menyebabkan kerugian finansial dan reputasi yang signifikan.
Perlu Kebijakan dan Teknologi Deteksi yang Lebih Kuat
Untuk mengatasi penyebaran deepfake, pemerintah dan perusahaan teknologi harus mengembangkan kebijakan dan alat deteksi yang lebih kuat. Saat ini, ada beberapa alat yang dapat mendeteksi video deepfake, tetapi mereka perlu diperkuat.
Deepfake Detection adalah teknik yang dapat mendeteksi dan memastikan keaslian video berdasarkan gesture dan persona seseorang dalam Computer Vision. Secara lebih spesifik, teknik dan model yang digunakan untuk mendeteksi video ini melibatkan analisis gesture, microexpressions, dan persona seseorang. Istilah dan teknologi yang terkait berikut :
- Dengan menggunakan Convolutional Neural Networks (CNN), deteksi deepfake: CNN adalah jaringan saraf yang digunakan dalam analisis visual untuk menemukan anomali dalam video deepfake. Teknologi ini mendeteksi kejanggalan seperti ketidaksesuaian gerakan bibir dan suara atau bayangan atau pencahayaan melalui pengamatan pola gerak, tekstur wajah, dan transisi antara frame video.
- Analisa Biometrik Perilaku adalah pendekatan yang digunakan untuk mempelajari gesture (gerak tubuh), posture (postur), dan gait (gaya berjalan). Teknologi ini mengidentifikasi sifat seseorang melalui gerakan dan reaksi mereka. Sangat sering, perbedaan kecil dalam gerakan atau perilaku non-verbal dapat menunjukkan bahwa video tersebut adalah rekayasa daripada yang sebenarnya.
- Facial Dynamics Analysis: Teknologi ini berfokus pada analisis micro-expressions, yang merupakan ekspresi wajah halus yang sering terjadi secara tidak sadar dan sangat sulit untuk direkayasa oleh deepfake. Sistem ini menganalisis bagaimana otot-otot wajah bergerak selama berbicara atau ekspresi emosional, mencari ketidakkonsistenan yang tidak mungkin terjadi secara alami.
- Deteksi inconsistensi waktu adalah teknik untuk menemukan perubahan dalam gerakan dari frame ke frame dalam video. Teknologi ini mengevaluasi apakah gerakan seperti kedipan mata, gerakan kepala, atau ekspresi wajah seseorang terjadi secara alami atau jika ada penundaan atau kejanggalan yang menunjukkan bahwa video tersebut telah dimanipulasi.
- Head Pose Estimation and Eye Blinking Patterns: Pola kedipan mata menganalisis kedipan mata yang mungkin terlihat tidak alami atau terlalu jarang dalam video deepfake. Head Pose Estimation mengukur gerakan dan orientasi kepala dalam ruang 3D.
- Deteksi Generative Adversarial Networks (GANs): GANs membuat banyak video deepfake yang berkualitas tinggi. Namun, metode pengenalan GAN melihat karakteristik unik yang dihasilkan oleh GAN, seperti suara atau artefak visual yang sering muncul di tepi wajah atau transisi halus antara gerakan wajah.
- Teknik Penggabungan Multimodal: Teknologi ini menggabungkan data dari berbagai sumber, seperti teks, video, dan suara, untuk mengevaluasi apakah ada ketidaksesuaian antara komponen. Misalnya, untuk mengidentifikasi deepfake, dapat diperiksa bagaimana gerakan bibir dan suara selaras, serta bagaimana ekspresi wajah selaras dengan emosi yang disampaikan melalui suara.
Untuk menghindari bahaya deepfake video, banyak pihak harus bekerja sama, seperti pemerintah, perusahaan teknologi, masyarakat, dan penegak hukum. Meskipun kemajuan ini hanya merupakan bagian dari solusi yang lebih besar, teknologi Computer Vision telah memberi harapan besar untuk mendeteksi dan memitigasi efek negatif dari deepfake video. Untuk memastikan bahwa teknologi deepfake tidak disalahgunakan dan efek negatifnya diminimalkan, berikut adalah beberapa tindakan yang dapat diambil oleh setiap pihak.