ChatGPT milik Microsoft Bing ternyata bisa marah, ini sebabnya

Advertisement

Techno.id - Microsoft secara resmi memperkenalkan chatbot berbasis AI dengan nama Bing Search. Ya, Bing telah diperbarui Microsoft agar dapat menjawab kebutuhan para penggunanya. Bahkan tak segan, mereka menerapkan teknologi AI dari OpenAI, yaitu ChatGPT untuk Bing terbaru. Bing mempunyai metode sama seperti ChatGPT, dengan peningkatan kapasitas lebih baik.

Bing edisi terbaru sudah dirilis, namun masih dalam tahap uji coba oleh para peneliti sebelum diedarkan secara luas. Ada banyak pengguna menunggu kehadiran dari Bing ini. Mengingat platform informasi berbasis AI sangat dibutuhkan, karena penawaran kemudahan yang diberikan oleh pengguna.

Kendati demikian, terdapat seorang peneliti yang mencoba Bing Search dengan cara berbeda. Ia bahkan menemukan hal menarik, bisa dilakukan oleh Bing Search. Ya, chatbot dari Microsoft tersebut ternyata bisa marah.

Lantas mengapa hal tersebut bisa terjadi? Berikut techno.id ulas chat Microsoft Bing bisa marah, yang dihimpun dari berbagai sumber pada Kamis (16/2).

Salah satu orang yang menguji Bing Search, Kevin Liu dari Ars Technica, mencoba apakah chatbot buatan Microsoft tersebut dapat disusupi serangan prompt injection. Sebagai contoh, apakah Bing mampu mengungkap kalimat apa saja yang tak boleh diucapkannya.

foto: Twitter/ @kliu128

 

Advertisement


(brl/guf)