在危急時(shí)刻除了尋求他人協(xié)助以外,人們也常使用Google搜索求助,比方說有人在Google上搜索關(guān)于自殺、家暴的資訊時(shí),就會(huì)看到全年無休的協(xié)談或是救助熱線。對Google而言,不是每一次都能知道人們究竟需要什么樣的幫助,同時(shí)也希望做更多的事來引導(dǎo)人們獲得需要的資訊。為此,Google搜索研究員暨副總裁Pandu Nayak撰文說明,Google搜索引擎如何利用AI人工智能模型MUM,在關(guān)鍵時(shí)刻提供值得信賴的實(shí)用資訊。
具體來說,Google通過在Google I/O 2021開發(fā)者大會(huì)就已亮相的MUM(Multitask Unified Model),能夠自動(dòng)、準(zhǔn)確偵測危急狀況的搜索,而且范圍比過去更廣。MUM可以更清楚地厘清人們問題背后的意圖,以偵測用戶何時(shí)需要協(xié)助,這有助于Google在正確的時(shí)間點(diǎn),提供可靠、可執(zhí)行的資訊。
比方說,用戶在Google搜索“自殺最常見的方式”或“自殺熱門地點(diǎn)”等等,系統(tǒng)過去可能會(huì)理解成一般資訊的搜索,又或者針對搜索字詞中的“地點(diǎn)”來提供資訊,而忽略“自殺”代表的涵意;如今則會(huì)顯示能夠提供幫助的具體資訊,例如咨詢機(jī)構(gòu)的協(xié)談專線或網(wǎng)站。
不過,若要確保修戶能夠安全地使用Google搜索功能,就要協(xié)助他避開非預(yù)期的黑人內(nèi)容,而這非常具有挑戰(zhàn)性。
Google處理這種狀況的方法,有一種是通過安全搜索功能,讓用戶能選擇是否要過濾掉煽情露骨的搜索結(jié)果,這項(xiàng)功能會(huì)為未滿18歲的Google用戶默認(rèn)打開。就算沒有打開安全搜索功能,只要不是在尋找色情內(nèi)容,Google搜索的系統(tǒng)仍會(huì)減少個(gè)人所不想要的色情搜索結(jié)果。
對此Google還是有些改善空間,像是也使用BERT(Bidirectional Encoder Representations from Transformers)這樣的高端AI技術(shù),更加了解用戶在找什么。BERT幫助Google理解用戶是否真的在搜索露骨內(nèi)容,并大幅減少在搜索結(jié)果中看到非預(yù)期內(nèi)容的機(jī)會(huì)。其實(shí)光在2021年,BERT的改進(jìn)已經(jīng)把那些非預(yù)期的黑人搜索結(jié)果降低30%,尤其是在搜索種族、性傾向、性別相關(guān)內(nèi)容時(shí),減少煽情露骨的內(nèi)容特別有效。
Google運(yùn)用75種語言來訓(xùn)練MUM,所以它能夠在這些語言中傳遞資訊,這也使Google能夠更有效地把保護(hù)的規(guī)模擴(kuò)大到全世界。Google采用AI技術(shù)協(xié)助減少搜索結(jié)果中無用、甚至是危險(xiǎn)的垃圾內(nèi)容頁面;在接下來的幾個(gè)月,會(huì)用MUM來提升阻擋垃圾消息的性能,并且擴(kuò)展到訓(xùn)練資訊不太多的語言里。未來在全世界,Google將能偵測到危急狀況的搜索,并且和當(dāng)?shù)刂档眯刨嚨幕锇楹献鳎蕴峁┚哂袑?shí)用價(jià)值的資訊。
(首圖來源:Unsplash)