Jawaban chatbot Microsoft Bing mengigau, jadinya menyeramkan

Advertisement

Techno.id - Teknologi AI kini tengah dikembangkan sedemikian rupa agar dapat mempermudah aktivitas manusia. Sudah banyak bermunculan berbagai platform digital yang mengandalkan basis kecanggihan kecerdasan buatan atau AI. Salah satunya adalah Microsoft.

Ya, Microsoft besutan Bill Gates kini tengah mengembangkan platform digital Bing agar lebih mudah digunakan. Bing versi terbaru memakai teknologi Deep Learning mirip ChatGPT dari OpenAI. Hal ini tentu menjadi kemajuan pesat yang dilakukan Microsoft, mengingat mereka selalu bersaing dengan produk dari Google.

Berkat kerjasama Microsoft dan OpenAI, chatbot ChatGPT dapat diterapkan dalam Bing. Alhasil, Bing sudah dapat diajak berkomunikasi layaknya chatting dengan seseorang. Bahkan, jawaban dari Bing diambil dari artikel atau sumber terpercaya dengan metode layaknya footnote.

Namun selayaknya sebuah teknologi buatan manusia, Bing AI masih mengalami bug dalam proses pengujiannya. Hal ini terlihat melalui uji coba terbatas Bing yang dilakukan oleh reporter New York Times, Kevin Roose. Melalui percakapannya dengan Bing selama 2 jam, ia mendapati sebuah jawaban yang rancu. Bahkan jika diamati, jawaban Bing cukup menyeramkan.

Kali ini techno.id berhasil merangkum jawaban rancu dari Bing AI, yang dilakukan oleh Kevin Roose, melalui laman Guardian, pada Sabtu (25/2).

 

Advertisement


(brl/guf)