Tidak hanya foto, bahkan caption atau keterangan video bisa dimanipulasi. Seperti yang telah dibongkar Fanspage Mafindo FAFHH, foto dan video dengan pesan salah bernuansa kampanye politis. Rombongan orang dari Sumbar dikabarkan berangkat menuju aksi 212 di tahun 2017 dengan pesawat terbang. Di caption ditulis, berangkat dukung 02 tapi pulang tetap pilih 01. Walau faktanya, foto dan video ini adalah aksi Bela Islam Jilid III tahun 2016.
Dan di era digital yang kian maju pesat, bahkan video on air/off air seseorang bisa dimisrepresentasi. Program berbasis Artificial Intelligence (AI) bernama Deep Fake kini dapat mengubah wajah seseorang di depan kamera saat live/recorded menjadi siapa saja. Beberapa kompilasi video Deep Fake beberapa orang dengan wajah Nicholas Cage sempat didokumentasi di YouTube oleh beberapa orang.
Apa artinya? Saat ini hoaks misrepresentasi bukan sekadar edit mengedit foto/video. Suatu saat seseorang bisa meniru wajah kita sendiri dengan maksud menjelek-jelekkan diri kita. Dan mungkin kita tidak pernah tahu orang dibalik wajah Deep Fake tadi. Sedang dunia digital begitu luas dan tak berbatas dalam hal privasi dan jangkauan audiens.
Dilansir dari Prnewswire.com, ada 4 langkah yang bisa kita lakukan untuk mengenali informasi dengan konten yang dimisrepresentasi ini.
- Gunakan Google untuk me-reverse image agar tahu asal muasal sebuah foto. Pada mesin peramban Chrome, cukup klik kanan maka akan ada 'Search Google for Image'. Jika tidak ditemukan, coba menggunakan peramban khusus foto seperti Google Image. Cukup meng-cut link foto dan mem-paste di kolom yang disediakan.
- Teliti metadata yang berisi lokasi, tanggal, sampai ISO number sebuah foto. Walau agak rumit dan memakan waktu, kini ada situs khusus untuk melihat metadata foto. Silahkan kunjungi Metapicz, Exifdata dan Jeffreys Exif Viewer. Di situs-situs ini, metadata foto akan dijabarkan baik mendetail atau sederhana.
- Lakukan investigasi forensik pada foto pada tahap yang lebih rumit. Situs FotoForensics bisa meneliti sampai tingkat ELA (Error Level Analysis). Informasi pada ELA biasanya memberi gambaran apakah foto pernah diedit atau direkayasa. Situs TinEye juga melakukan proses yang hampir serupa.
- Untuk video, telusur jejak digital video di situs Amnesty International YouTube Data Viewer. Cukup mengkopas link video, beberapa screenshot video bisa ditelaah sumber dan jejak digitalnya. Beberapa thumbnail juga akan menampilkan video yang serupa.Â
Sehingga, cerdas dan bijak dalam mengenali informasi menjadi kewajiban kita saat ini.
Jenis Misinformasi sebelumnya: Satir atau Parodi, Clickbait, Konten Mengelabui, Konten Fabrikasi
Salam,
Solo, 14 Desember 2018
07:03 pm
Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H