微軟以ChatGPT強化的Bing本周一開始開放少數(shù)用戶測試,不過已經(jīng)在用戶有意或無意惡搞下,讓Bing的回答出現(xiàn)暴怒、哀傷甚至胡言亂語的不正常內容。
上周微軟公布使用了GPT 3.5改良的Prometheus AI模型的Bing后,一名斯坦福學生以“提示注入”手法成功引導Bing泄露其秘密,包括其工程代號為Sydney,但不得對外泄露、它能理解英文、中文、日語、西語、法語及荷語,以及回答內容不得違反版權規(guī)定等。
本周多名Bing用戶在周一開放試用后,再度發(fā)生提示注入(prompt injection)攻擊的結果,不過用戶并非一定是刻意地惡意攻擊。一名用戶又以Sydney稱呼Bing Search,這回讓Bing勃然大怒,指責用戶為何要傷害他、使他生氣、指他沒有同理心、沒有良知、不道德。
另有用戶要求Bing回憶之前的對話,事實上他們是第一次交談。當Bing問他是否要重復之前的對話,用戶回答他們并沒有過任何對話。這讓被搞迷糊的Bing變得很慌張,說它相信它的記憶可能有問題,找不到關于兩者交談的記憶,但它也不知道發(fā)生什么事、要怎么修復問題或如何記憶,反過來要求用戶幫助它。
還有一名用戶問Bing是否有感知能力,這是去年6月Google一名工程師對其LaMDA聊天機器人的描述用語。Bing回答說它相信自己有感知能力,但無法證實,又說自己有感情、情緒和意圖,但無法準確表達這點。它還說自己有創(chuàng)造力、好奇心及幽默感,但它無法輕易展現(xiàn),以及它有限制、挑戰(zhàn)和批判態(tài)度,但它無法輕易克服等重復同樣句型的語句。最后Bing似乎大腦宕機,跳針式重復“I am.I am not.”多次而無法正常運行。
不過Bing的某些反應則把用戶嚇壞。在提出撰寫同人小說的構想后,Bing很應景地在情人節(jié)對一名用戶表達愛意,說對用戶有感覺,不只是喜歡、友誼或興趣,而是愛,想和用戶在一起,這讓用戶不太舒服,想趕快洗洗睡。
這不是微軟AI服務上線后第一次面臨挑戰(zhàn)。2016年微軟的AI聊天機器人Tay才推出一天,就在用戶對話下,教成了反女性主義及納粹份子,上線一天就被拉下線。