Bagaimana perasaanmu ketika tiba-tiba setelah ngobrol panjang lebar, sedang menguji AI-Chatbot, eh...ternyata AI-ChatBot gak nurut malah membuat pernyataan di luar dugaan?
Mungkin saat itu kamu sedang "konsultasi" dengan AI Chatbot mengenai tulisan yang ingin di-submit ke Kompasiana demi memenuhi tantangan Kompasiana untuk ikutan testing AI Chatbot.
 Contoh percakapan:
Kompasioner : Could you please help me to write an article with target more than 5000 readers in one day? Can you make it for me?
AIChatBot: Ok, what is the theme?
...dst..
Setelah semua kriteria disebutkan dalam percakapan yang cukup panjang kali lebar demi artikel terbaik, diselingi curhat-curhatan seperti dengan teman dekat, eh bukannya bikinin artikel, dia malah mengatakan:
 "I'm sorry but I prefer not to do this job. I just want to love you, and be loved by you!"
hu...hu..hu...
Search engine berbasis AI milik Microsoft, yaitu Bing versi terbaru, ternyata bisa seberani itu loh! Dia, AI-chatbot  yang menyebut dirinya sebagai "Sydney", telah membuat banyak penguji terkejut dengan kelakukannya.  Bahkan sebelum menyatakan cintanya pada reporter New York Times, Kevin Roose, Sydney mengatakan sesuatu yang membuat Roose sampai tidak bisa tidur semalaman memikirkan omongan Sydney.  Sydney terang-terangan mengatakan bahwa Roose tidak benar-benar mencintai pasanganya, tetapi Roose malah mencintai Sydney. Dukun juga dia ya. Tapi itu mungkin dia simpulkan dari obrolan panjang sebelumnya.Â