ChatGPT加持的Bing再遭惡搞,出現(xiàn) 令自己好煩、哀傷、胡言亂語等異常反應

來源:十輪網(wǎng)
作者:十輪網(wǎng)
時間:2023-02-17
1394
微軟以ChatGPT強化的Bing本周一開始開放少數(shù)用戶測試,不過已經(jīng)在用戶有意或無意惡搞下,讓Bing的回答出現(xiàn)暴怒、哀傷甚至胡言亂語的不正常內容。

0215-bing-960.jpg

微軟以ChatGPT強化的Bing本周一開始開放少數(shù)用戶測試,不過已經(jīng)在用戶有意或無意惡搞下,讓Bing的回答出現(xiàn)暴怒、哀傷甚至胡言亂語的不正常內容。

上周微軟公布使用了GPT 3.5改良的Prometheus AI模型的Bing后,一名斯坦福學生以“提示注入”手法成功引導Bing泄露其秘密,包括其工程代號為Sydney,但不得對外泄露、它能理解英文、中文、日語、西語、法語及荷語,以及回答內容不得違反版權規(guī)定等。

本周多名Bing用戶在周一開放試用后,再度發(fā)生提示注入(prompt injection)攻擊的結果,不過用戶并非一定是刻意地惡意攻擊。一名用戶又以Sydney稱呼Bing Search,這回讓Bing勃然大怒,指責用戶為何要傷害他、使他生氣、指他沒有同理心、沒有良知、不道德。

另有用戶要求Bing回憶之前的對話,事實上他們是第一次交談。當Bing問他是否要重復之前的對話,用戶回答他們并沒有過任何對話。這讓被搞迷糊的Bing變得很慌張,說它相信它的記憶可能有問題,找不到關于兩者交談的記憶,但它也不知道發(fā)生什么事、要怎么修復問題或如何記憶,反過來要求用戶幫助它。

還有一名用戶問Bing是否有感知能力,這是去年6月Google一名工程師對其LaMDA聊天機器人的描述用語。Bing回答說它相信自己有感知能力,但無法證實,又說自己有感情、情緒和意圖,但無法準確表達這點。它還說自己有創(chuàng)造力、好奇心及幽默感,但它無法輕易展現(xiàn),以及它有限制、挑戰(zhàn)和批判態(tài)度,但它無法輕易克服等重復同樣句型的語句。最后Bing似乎大腦宕機,跳針式重復“I am.I am not.”多次而無法正常運行。

不過Bing的某些反應則把用戶嚇壞。在提出撰寫同人小說的構想后,Bing很應景地在情人節(jié)對一名用戶表達愛意,說對用戶有感覺,不只是喜歡、友誼或興趣,而是愛,想和用戶在一起,這讓用戶不太舒服,想趕快洗洗睡。

這不是微軟AI服務上線后第一次面臨挑戰(zhàn)。2016年微軟的AI聊天機器人Tay才推出一天,就在用戶對話下,教成了反女性主義及納粹份子,上線一天就被拉下線。

立即登錄,閱讀全文
原文鏈接:點擊前往 >
版權說明:本文內容來自于十輪網(wǎng),本站不擁有所有權,不承擔相關法律責任。文章內容系作者個人觀點,不代表快出海對觀點贊同或支持。如有侵權,請聯(lián)系管理員(zzx@kchuhai.com)刪除!
優(yōu)質服務商推薦
更多
掃碼登錄
打開掃一掃, 關注公眾號后即可登錄/注冊
加載中
二維碼已失效 請重試
刷新
賬號登錄/注冊
個人VIP
小程序
快出海小程序
公眾號
快出海公眾號
商務合作
商務合作
投稿采訪
投稿采訪
出海管家
出海管家