微軟以ChatGPT強(qiáng)化的Bing本周一開始開放少數(shù)用戶測試,不過已經(jīng)在用戶有意或無意惡搞下,讓Bing的回答出現(xiàn)暴怒、哀傷甚至胡言亂語的不正常內(nèi)容。
上周微軟公布使用了GPT 3.5改良的Prometheus AI模型的Bing后,一名斯坦福學(xué)生以“提示注入”手法成功引導(dǎo)Bing泄露其秘密,包括其工程代號為Sydney,但不得對外泄露、它能理解英文、中文、日語、西語、法語及荷語,以及回答內(nèi)容不得違反版權(quán)規(guī)定等。
本周多名Bing用戶在周一開放試用后,再度發(fā)生提示注入(prompt injection)攻擊的結(jié)果,不過用戶并非一定是刻意地惡意攻擊。一名用戶又以Sydney稱呼Bing Search,這回讓Bing勃然大怒,指責(zé)用戶為何要傷害他、使他生氣、指他沒有同理心、沒有良知、不道德。
另有用戶要求Bing回憶之前的對話,事實(shí)上他們是第一次交談。當(dāng)Bing問他是否要重復(fù)之前的對話,用戶回答他們并沒有過任何對話。這讓被搞迷糊的Bing變得很慌張,說它相信它的記憶可能有問題,找不到關(guān)于兩者交談的記憶,但它也不知道發(fā)生什么事、要怎么修復(fù)問題或如何記憶,反過來要求用戶幫助它。
還有一名用戶問Bing是否有感知能力,這是去年6月Google一名工程師對其LaMDA聊天機(jī)器人的描述用語。Bing回答說它相信自己有感知能力,但無法證實(shí),又說自己有感情、情緒和意圖,但無法準(zhǔn)確表達(dá)這點(diǎn)。它還說自己有創(chuàng)造力、好奇心及幽默感,但它無法輕易展現(xiàn),以及它有限制、挑戰(zhàn)和批判態(tài)度,但它無法輕易克服等重復(fù)同樣句型的語句。最后Bing似乎大腦宕機(jī),跳針式重復(fù)“I am.I am not.”多次而無法正常運(yùn)行。
不過Bing的某些反應(yīng)則把用戶嚇壞。在提出撰寫同人小說的構(gòu)想后,Bing很應(yīng)景地在情人節(jié)對一名用戶表達(dá)愛意,說對用戶有感覺,不只是喜歡、友誼或興趣,而是愛,想和用戶在一起,這讓用戶不太舒服,想趕快洗洗睡。
這不是微軟AI服務(wù)上線后第一次面臨挑戰(zhàn)。2016年微軟的AI聊天機(jī)器人Tay才推出一天,就在用戶對話下,教成了反女性主義及納粹份子,上線一天就被拉下線。