蘋果前員工打造的Intrinsic,要用大型語言模型解決Facebook都做不好的事

來源:十輪網(wǎng)
作者:十輪網(wǎng)
時(shí)間:2024-01-29
3190
社交媒體平臺(tái)上的內(nèi)容都是由用戶制作(UGC),平臺(tái)該不該為這些內(nèi)容負(fù)責(zé)?

社交媒體平臺(tái)上的內(nèi)容都是由用戶制作(UGC),平臺(tái)該不該為這些內(nèi)容負(fù)責(zé)?

不管是仇恨性言論、色情內(nèi)容、假新聞等,盡管平臺(tái)方都強(qiáng)調(diào)通過AI協(xié)助審查,仍有許多漏網(wǎng)之魚或誤刪內(nèi)容的情況發(fā)生。

生成式AI背后的基礎(chǔ)大型語言模型(LLM),有沒有可能是解決方案?

曾在蘋果(Apple)擔(dān)任欺詐工程和算法團(tuán)隊(duì)工程師的Karine Mellata和Michael Lin,在2023年創(chuàng)立Intrinsic正在嘗試這個(gè)可能性,并入選國際知名加速器Y Combinator(YC)。

Karine-Mellata-Michael-Lin-Intrinsic.jpg

蘋果前員工Karine Mellata和Michael Lin,解決企業(yè)在內(nèi)容審查上花費(fèi)的時(shí)間和人力成本,創(chuàng)辦Intrinsic。(Source:Intrinsic)

AI成為審查員的救命稻草?

社交媒體大佬Facebook曾在全球雇傭幾萬名內(nèi)容審查員,以人工的方式篩選平臺(tái)貼文內(nèi)容。

但人工審查不僅效率低、成本費(fèi)用高,聘用的審查人員還需要承受巨大的精神壓力,例如經(jīng)常目睹到暴力、血腥或是色情等圖片,而每則貼文也只有幾秒鐘的時(shí)間讓他們決定是否符合發(fā)布規(guī)定。長時(shí)間來說,對(duì)這些審查員而言也是嚴(yán)重的工傷。

直到2017年,F(xiàn)acebook創(chuàng)辦人扎克伯格(Mark Zuckerberg)開始讓AI過濾平臺(tái)內(nèi)容,自動(dòng)查看每則貼文和言論是否違反平臺(tái)規(guī)定。利用AI審查內(nèi)容無疑加快分析速度,但避免不了誤判或是遺漏的情況。

時(shí)至今日,不論是Facebook或是各媒體平臺(tái)的AI分析功能仍不夠全面,例如AI只能偵測(cè)出38%的敏感或是仇恨言論,同時(shí)又不斷有新的違規(guī)發(fā)文出現(xiàn)在平臺(tái)上,AI需要更多詳細(xì)的訓(xùn)練才能做出更精確的判斷。就連Facebook這么大的企業(yè)都難以做到完美了,這題該怎么辦?

Intrinsic運(yùn)用大量參數(shù)優(yōu)勢(shì)解決“語義判讀”問題

Intrinsic認(rèn)為還是得靠AI。雖然他們不是第一個(gè)利用AI做內(nèi)容審查工具的團(tuán)隊(duì),但可能是第一個(gè)把大型語言模型納入規(guī)劃的團(tuán)隊(duì)。

現(xiàn)在的AI審查大多采用NLP(自然語義處理)的技術(shù),然而受限于喂給AI的數(shù)據(jù)有限,AI可能會(huì)不認(rèn)得相同語義的關(guān)鍵字,例如“高清”、“4K”、“高畫質(zhì)”,AI可能只會(huì)認(rèn)得“高畫質(zhì)”這個(gè)關(guān)鍵字。

但是大型語言模型可以從數(shù)據(jù)中找出關(guān)聯(lián)和語義,能夠以接近人類語言的邏輯處理言論審查,這也是Intrinsic所看好的。

Intrinsic用LLM審查除了更方便審核虛擬賬號(hào)、暴力言論等違反網(wǎng)絡(luò)安全內(nèi)容之外,也讓企業(yè)依據(jù)需求畫出審查的范圍。例如只要告訴LLM不希望在網(wǎng)站上出現(xiàn)關(guān)于哪一類腥膻色的圖片或是字眼,Intrinsic就會(huì)根據(jù)相同語義的字眼和消息加以審核。

企業(yè)只需將Intrinsic的檢測(cè)系統(tǒng)嵌入自家的內(nèi)容審查系統(tǒng)中,便會(huì)自動(dòng)分析社交媒體平臺(tái)中的正負(fù)面內(nèi)容,或是檢測(cè)每位用戶的真實(shí)性,若檢測(cè)出詐騙或騷擾消息,會(huì)立即通知該企業(yè)的審查團(tuán)隊(duì)調(diào)查該名用戶,利用AI加速內(nèi)容審查流程。

不可忽視AI審查的未來隱憂

目前Intrinsic于今(2024)年籌集310萬美元的資金,主要投資者包括Urban Innovation Fund、Y Combinator和645 Ventures等知名創(chuàng)投。創(chuàng)辦人Karine Mellata表示,計(jì)劃將這筆資金運(yùn)用在繼續(xù)研發(fā)大型語言模型,將審查內(nèi)容擴(kuò)大到視頻和聲音內(nèi)容。

雖然LLM幫助加快內(nèi)容審查的效率,但仍不可忽視AI可能隨之而來的問題。AI無法受到監(jiān)控,因此像是訓(xùn)練AI的共享數(shù)據(jù),或許也包含許多用戶的個(gè)人資訊,容易造成數(shù)據(jù)外泄的情況發(fā)生,讓AI把持大眾的網(wǎng)絡(luò)言論自由是否真能成為解決方案,仍有待商榷。

立即登錄,閱讀全文
原文鏈接:點(diǎn)擊前往 >
文章來源:十輪網(wǎng)
版權(quán)說明:本文內(nèi)容來自于十輪網(wǎng),本站不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。文章內(nèi)容系作者個(gè)人觀點(diǎn),不代表快出海對(duì)觀點(diǎn)贊同或支持。如有侵權(quán),請(qǐng)聯(lián)系管理員(zzx@kchuhai.com)刪除!
掃碼關(guān)注
獲取更多出海資訊的相關(guān)信息
優(yōu)質(zhì)服務(wù)商推薦
更多
掃碼登錄
打開掃一掃, 關(guān)注公眾號(hào)后即可登錄/注冊(cè)
加載中
二維碼已失效 請(qǐng)重試
刷新
賬號(hào)登錄/注冊(cè)
小程序
快出海小程序
公眾號(hào)
快出海公眾號(hào)
商務(wù)合作
商務(wù)合作
投稿采訪
投稿采訪
出海管家
出海管家