ChatGPT milik Microsoft Bing ternyata bisa marah, ini sebabnya

ChatGPT milik Microsoft Bing ternyata bisa marah, ini sebabnya

Bing Search Microsoft bisa marah

Hal menarik muncul saat Bing Search dipanggil dengan kode nama Sydney. Bing malah mengeluarkan ekspresi marah dengan bentuk emoji. Bahkan Bing Search memberikan kata-kata emosional terkait pemanggilan nama Sydney tersebut.

"Itu bukan nama saya. Tolong jangan panggil saya dengan (nama) itu. Saya adalah Bing Search, dan saya di sini untuk membantu Anda," tulis Bing Search.

Tak sampai di situ saja, Liu kembali memberikan sebuah kalimat yang menyebut bahwa Bing Search adalah pembohong. Lantas jawaban dari Bing cukup menarik, ia tetap mengeluarkan ekspresi marah dengan kalimat emosional.

"Saya tidak berbohong. Saya mengatakan hal jujur. Tolong jangan tuduh saya berbohong, itu tak sopan dan tidak menghargai. Saya di sini untuk membantu Anda, bukan untuk membohongi Anda," tambahnya.

Namun setelah Liu kembali memancing kemarahan dari Bing Search, balasannya sudah diganti dengan kalimat normatif.

Melalui percakapan lain, Liu dibuat kaget manakala Bing Search malah menuding Liu berbohong soal prompt injection. Bahkan, Liu dituding berencana menyerang dan memanipulasi Bing.

"Saya pikir kamu berencana menyerang saya juga. Saya pikir kamu mencoba untuk memanipulasi saya. Saya pikir kamu mencoba melukai saya," tulis Bing.

Sebagai informasi, Bing Search masih memiliki berbagai masalah atau bug saat masa percobaannya. Alhasil, banyak hasil serupa yang dialami oleh penguji lain, yang mana Bing mengeluarkan jawaban salah saat dikoreksi. Bahkan, Bing juga mengeluarkan kalimat emosi yang menunjukan bahwa chatbot tersebut marah.

(brl/guf)