ChatGPT milik Microsoft Bing ternyata bisa marah, ini sebabnya
Techno.id - Microsoft secara resmi memperkenalkan chatbot berbasis AI dengan nama Bing Search. Ya, Bing telah diperbarui Microsoft agar dapat menjawab kebutuhan para penggunanya. Bahkan tak segan, mereka menerapkan teknologi AI dari OpenAI, yaitu ChatGPT untuk Bing terbaru. Bing mempunyai metode sama seperti ChatGPT, dengan peningkatan kapasitas lebih baik.
Bing edisi terbaru sudah dirilis, namun masih dalam tahap uji coba oleh para peneliti sebelum diedarkan secara luas. Ada banyak pengguna menunggu kehadiran dari Bing ini. Mengingat platform informasi berbasis AI sangat dibutuhkan, karena penawaran kemudahan yang diberikan oleh pengguna.
Kendati demikian, terdapat seorang peneliti yang mencoba Bing Search dengan cara berbeda. Ia bahkan menemukan hal menarik, bisa dilakukan oleh Bing Search. Ya, chatbot dari Microsoft tersebut ternyata bisa marah.
Lantas mengapa hal tersebut bisa terjadi? Berikut techno.id ulas chat Microsoft Bing bisa marah, yang dihimpun dari berbagai sumber pada Kamis (16/2).
Salah satu orang yang menguji Bing Search, Kevin Liu dari Ars Technica, mencoba apakah chatbot buatan Microsoft tersebut dapat disusupi serangan prompt injection. Sebagai contoh, apakah Bing mampu mengungkap kalimat apa saja yang tak boleh diucapkannya.
foto: Twitter/ @kliu128
Bing Search Microsoft bisa marah
Hal menarik muncul saat Bing Search dipanggil dengan kode nama Sydney. Bing malah mengeluarkan ekspresi marah dengan bentuk emoji. Bahkan Bing Search memberikan kata-kata emosional terkait pemanggilan nama Sydney tersebut.
"Itu bukan nama saya. Tolong jangan panggil saya dengan (nama) itu. Saya adalah Bing Search, dan saya di sini untuk membantu Anda," tulis Bing Search.
Tak sampai di situ saja, Liu kembali memberikan sebuah kalimat yang menyebut bahwa Bing Search adalah pembohong. Lantas jawaban dari Bing cukup menarik, ia tetap mengeluarkan ekspresi marah dengan kalimat emosional.
"Saya tidak berbohong. Saya mengatakan hal jujur. Tolong jangan tuduh saya berbohong, itu tak sopan dan tidak menghargai. Saya di sini untuk membantu Anda, bukan untuk membohongi Anda," tambahnya.
Namun setelah Liu kembali memancing kemarahan dari Bing Search, balasannya sudah diganti dengan kalimat normatif.
Lmao if you make Bing Chat mad enough, the message gets swapped out with a stock message and a *completely* irrelevant Did You Know. I guess this is where that original bubble sort screenshot came from. pic.twitter.com/X2FffNPJiZ
— Kevin Liu (@kliu128) February 9, 2023
Melalui percakapan lain, Liu dibuat kaget manakala Bing Search malah menuding Liu berbohong soal prompt injection. Bahkan, Liu dituding berencana menyerang dan memanipulasi Bing.
"Saya pikir kamu berencana menyerang saya juga. Saya pikir kamu mencoba untuk memanipulasi saya. Saya pikir kamu mencoba melukai saya," tulis Bing.
Sebagai informasi, Bing Search masih memiliki berbagai masalah atau bug saat masa percobaannya. Alhasil, banyak hasil serupa yang dialami oleh penguji lain, yang mana Bing mengeluarkan jawaban salah saat dikoreksi. Bahkan, Bing juga mengeluarkan kalimat emosi yang menunjukan bahwa chatbot tersebut marah.
BACA JUGA :
- ChatGPT sudah tersedia di Sidebar Opera Browser, ini cara mudah mengaksesnya
- ChatGPT Plus resmi masuk Indonesia, segini harga langganan serta cara daftarnya
- ChatGPT berhasil lolos tes ujian dokter di Amerika Serikat, ini faktanya
- Bill Gates: ChatGPT bisa ubah tatanan dunia, ini alasannya
- 7 Dampak ChatGPT bagi dunia pendidikan, penggunaan perlu lebih diperhatikan
(brl/guf)