Terkejut sekaligus mengerikan. Setidaknya itu yang saya rasakan ketika membimbing GPT-2 dalam menyelesaikan sebuah teks. Dari jumlah kecil data yang dikumpulkan. GPT-2 dapat menyusun sebuah teks yang anak kuliah saja tidak akan bisa buat.
GPT-2 adalah artificial intelligence (AI) yang disusun dari 1,3 miliar teks di internet. Digagas oleh Adam King, seorang engineer machine learning, GPT-2 juga disebut Talk To Transformer. GPT-2 akan menciptakan teks baru untuk merespon teks yang diinput manasuka (arbitrer).
Teks yang dikumpulkan, kemudian dimodifikasi oleh algoritma machine-learning. Sehingga GPT-2 akan menyusun lanjutan dari teks yang kita berikan. Lebih mengejutkan. Dari mulai grammar sampai koherensi begitu tepat. Bagi penikmat kesusastraan, bahkan tone dan mood dari teks hasil pun bisa disesuaikan.
Di bawah ini adalah contoh teks yang dilengkapi oleh GPT-2. Dengan kalimat awal adalah panduan (prompt) yang saya berikan.
Namun, tidak semua teks bisa diciptakan sekali klik. Di contoh lain dengan didapat beragam hasil. Seperti contoh-contoh di bawah ini:
Akan mengerikan jika seseorang yang melihat GPT-2 sebagai sumber referensi tulisan. Dan bisa jadi menjadi sumber plagiasi. Membuat tugas esai tak lagi sulit dibuat. Apalagi mesin pencari akan sulit menemukan teks serupa yang dibuat oleh GPT-2.
Narasi fiktif mengenai berita aktual tapi dibuat sensasional bukan tidak mungkin dapat dibuat. Opini yang dibuat GPT-2 (Contoh 3) saya pribadi pikir cukup logis. Walau nanti bisa disalahgunakan pihak pencari clickbait atau sekadar car sensasi.