***
Fisher mengajukan argumen utama bahwa pelabelan konten sintetis diperlukan untuk melindungi integritas epistemik masyarakat.Â
Menurutnya, konten yang dihasilkan oleh AI sering kali lebih rentan terhadap ketidakakuratan dibandingkan konten yang dibuat manusia.Â
Hal ini terjadi karena model AI, seperti Large Language Models (LLMs), menghasilkan konten berdasarkan pola probabilistik dari data yang ada, bukan realitas yang konkret.
Sebagai contoh, teknologi deepfake yang dapat memanipulasi video untuk menampilkan hal-hal yang tidak pernah terjadi, atau chatbot yang menghasilkan narasi yang sangat persuasif tetapi tidak akurat.
Fisher juga mencatat bahwa pada tahun 2023, lebih dari 50% konten yang diunggah di platform media sosial seperti TikTok dan Instagram memiliki unsur AI.Â
Pada saat yang sama, perusahaan besar seperti Google dan Meta telah mulai mengembangkan teknologi watermark untuk menandai konten AI.Â
Namun, meskipun ada perkembangan ini, Fisher menyebutkan bahwa belum ada argumen filosofis mendalam yang mendasari kebijakan pelabelan tersebut.Â
Misalnya, sekitar 70% dari pengguna media sosial dalam survei tahun 2024 menunjukkan bahwa mereka tidak dapat membedakan konten sintetis dari konten manusia.Â
Hal ini menunjukkan bahwa masyarakat masih kurang siap dalam mengidentifikasi dan memahami dampak dari konten AI.
Lebih lanjut, Fisher menekankan pentingnya menjaga ekspresi individu dalam konten manusia.Â