新浪科技訊北京時間3月29日上午消息,據(jù)報道,F(xiàn)acebook首席執(zhí)行官扎克伯格在上周提出了一個新想法,即大科技公司通過發(fā)布報告和數(shù)據(jù),對刪帖行為及其效果進行說明,從而實現(xiàn)對網(wǎng)絡(luò)平臺內(nèi)容的自我監(jiān)控。然而,外部專家對此卻并不看好,他們稱Facebook其實在這方面已經(jīng)建立了一套制度,但問題在于這套制度不怎么管用。
上周四,扎克伯格對國會表示:“透明度將有助于讓這些大科技公司對刪帖的準確性和有效性負責?!彼a充說,如果這樣一個透明度系統(tǒng)成為行業(yè)規(guī)范,F(xiàn)acebook就不必做出太大的改變。他還稱,“作為一個典范,F(xiàn)acebook每個季度都在透明度方面以身作則?!?/p>
扎克伯格已經(jīng)多次發(fā)出類似倡議,唿吁社交媒體公司對用戶發(fā)布的內(nèi)容承擔更多責任。隨著網(wǎng)絡(luò)平臺上有害帖子(比如仇恨言論、暴力威脅等)的日益增加,大科技公司因此備受抨擊。美國國會議員就《通信規(guī)范法案》230條款的改革進行討論,該條款使互聯(lián)網(wǎng)平臺公司無需對用戶生成的內(nèi)容擔責。
新一輪對大科技公司的制裁唿吁正日益高漲,這些公司的社交媒體平臺參與散布各種虛假信息,對今年1月的國會騷亂起到了推波助瀾的作用,并且,在這些平臺上還充斥著關(guān)于新冠疫情的各種不實消息。然而,上周四的聽證會并沒有讓國會就此達成一個立法方案,從而給Facebook提供了施加影響力的機會。
在230條款的改革方面,阿倫特·??怂孤蓭熓聞?wù)所合伙人珍妮·李(Jenny Lee)是大科技公司的利益代表方。她表示:“大科技公司至少給相關(guān)的討論留下了空間?!?/p>
然而,F(xiàn)acebook的自我審查報告并不像它所聲稱的那么透明。例如,該公司在2月份報告稱,超過97%的被判定為仇恨言論的內(nèi)容在遭到舉報之前就被其軟件檢測到;在去年第四季度,它對平臺上49%的欺凌和騷擾內(nèi)容采取了行動,之后這些內(nèi)容才被用戶標記,而在第三季度這一比例僅為26%。但是,這里面的問題在于,在計算出這些數(shù)字的等式中,分母是Facebook的人工智能記錄下來的內(nèi)容,而不是有害內(nèi)容的總量。此外,這些有害帖子在刪除前有多少人瀏覽過,以及它們的刪除時間,F(xiàn)acebook沒有發(fā)布相關(guān)信息。
一位專家表示,F(xiàn)acebook的這份報告令人震驚和沮喪,這家社交媒體公司并未披露那些有害內(nèi)容的刪除時間,是在幾分鐘內(nèi)還是幾天內(nèi)刪除的?——他們并未加以說明。
這份報告的重點是人工智能,這意味著Facebook不會披露被人為標記為違規(guī)的內(nèi)容,以及這些人為標記的內(nèi)容被審查和刪除的比例。
有專家表示,F(xiàn)acebook高度依賴于機器學習的內(nèi)容審核系統(tǒng),在實際使用中存在嚴重缺陷。“這些自動化審核系統(tǒng)存在著日益增加的誤檢風險,需要刪除的內(nèi)容有可能得不到刪除,而那些不需刪除的內(nèi)容卻可能被錯誤刪除?!?/p>
今年早些時候,F(xiàn)acebook的外部監(jiān)督委員會就已指出了Facebook人工智能的缺陷。該監(jiān)督委員會是Facebook為客觀評估其最具爭議的內(nèi)容審查而成立的一個獨立小組。委員會要求,如果用戶的內(nèi)容被人工智能刪除,應該通知該用戶,并允許用戶的上訴被人工查看。
Facebook曾表示,給用戶提供這種選擇在操作上比較困難。Facebook擁有30多億用戶,僅有約15000名內(nèi)容審查人員,其中一些人由于新冠疫情在家工作,出于法律原因他們不能在家查看一些敏感內(nèi)容。
人力資源的短缺,以及人工智能的缺陷,給Facebook的內(nèi)容審核帶來了特別的挑戰(zhàn)。
Facebook的這份內(nèi)容透明度報告沒有關(guān)于被刪除的帖子的語言或地理位置的數(shù)據(jù)。它也沒有提及任何關(guān)于虛假信息的事情——而這是立法者們關(guān)注的另一個關(guān)鍵領(lǐng)域。
專家評論說:“這份透明報告幾乎沒有透明度。”