2022年底,OpenAI研發(fā)的ChatGPT一經(jīng)發(fā)布,迅速引發(fā)了全球?qū)τ谏墒饺斯ぶ悄芗夹g(shù)(下文簡稱“生成式AI技術(shù)”)的廣泛關(guān)注。
生成式AI技術(shù)的廣泛應(yīng)用給很多行業(yè)帶來了新的市場增長引爆點(diǎn),但同時(shí),也帶來了偽造賬戶、傳播虛假信息、數(shù)據(jù)安全等風(fēng)險(xiǎn),其中最需要關(guān)注、防范的風(fēng)險(xiǎn)之一,就是欺詐分子利用生成式AI技術(shù)進(jìn)行深度偽造從而實(shí)施的新型詐騙(下文簡稱“AI欺詐”):
·根據(jù)內(nèi)蒙古包頭市公安局5月公布的警情,福州市某科技公司法人代表郭先生10分鐘內(nèi)被騙430萬元,欺詐分子通過AI換臉和擬聲技術(shù),佯裝熟人實(shí)施詐騙。
·無獨(dú)有偶,河南省反詐騙中心又在8月29日又公布了一起利用“AI換臉”的電信網(wǎng)絡(luò)詐騙案。欺詐分子假扮被害人雷某的朋友,通過誘導(dǎo)被害人添加新QQ號,在通過AI技術(shù)偽造的視頻與被害人連線視頻電話,取得被害人的信任,最后以競標(biāo)項(xiàng)目缺少資金需要周轉(zhuǎn)為由短時(shí)間內(nèi)行騙98萬元。
·根據(jù)網(wǎng)絡(luò)公開信息的講述,詐騙分子通過AI技術(shù)偽造了一位德國公司高管的音頻片段,并利用這段偽造的音頻,聯(lián)系了該公司在英國分公司的CEO,要求其安排員工給一個匈牙利的賬戶匯款24.3萬美元,欺詐分子利用這段偽造的音頻給英國分公司負(fù)責(zé)人前后致電了3次電話均未被當(dāng)事人發(fā)覺異常,但幸運(yùn)的是,付款請求被拒絕,公司沒有造成損失。
·根據(jù)海外媒體的報(bào)道,詐騙分子通過AI技術(shù)偽造了一位美國小孩遭遇困境的聲音和場景,并利用這段偽造音頻聯(lián)系了小孩的母親,在確認(rèn)這位母親已上當(dāng)且認(rèn)為自己小孩遇險(xiǎn)后,詐騙分子開始勒索,警告這位母親不允許報(bào)警,并提出了要給付100萬美元的贖金要求。
上述四個案例,講述的正是近期日漸嚴(yán)重的新型騙局,詐騙分子利用AI技術(shù)生成虛假視頻、圖片或聲音,冒充領(lǐng)導(dǎo)、朋友、親戚等熟人身份,誘導(dǎo)受害者進(jìn)行轉(zhuǎn)賬、提現(xiàn)或在當(dāng)事人上當(dāng)之后,進(jìn)行更嚴(yán)重的勒索——這樣的欺詐行為成功率竟接近100%,給公眾財(cái)產(chǎn)安全、信息安全、甚至人身安全都帶來了嚴(yán)重威脅。
本周,在2023年國家網(wǎng)絡(luò)安全宣傳周發(fā)布的網(wǎng)絡(luò)安全手冊中,也再次強(qiáng)調(diào)了要對AI欺詐的風(fēng)險(xiǎn)提起足夠的重視。
2023年國家網(wǎng)絡(luò)安全周《網(wǎng)絡(luò)知識宣傳手冊》截圖
生成式AI全球監(jiān)管現(xiàn)狀
面對生成式AI模型的激增和可能帶來的風(fēng)險(xiǎn),在監(jiān)管層面,大部分國家都已經(jīng)在啟動探索,力爭能夠制定出既能充分利用AI技術(shù)、又要能夠控制過度使用的規(guī)則,以期能對AI技術(shù)的發(fā)展和應(yīng)用實(shí)施更科學(xué)的監(jiān)管,防范風(fēng)險(xiǎn),確保公眾利益和安全。
2023年8月15日,中國《生成式人工智能服務(wù)管理暫行辦法》(下文簡稱“中國生成式AI服務(wù)管理辦法”)正式施行,明確了生成式AI服務(wù)提供者應(yīng)當(dāng)依法開展的活動、遵守的規(guī)定,以及具體的服務(wù)規(guī)范,落實(shí)了監(jiān)督檢查和法律責(zé)任。
以色列、日本等國也對生成式AI技術(shù)應(yīng)用的迅速普及做出了回應(yīng),為受版權(quán)保護(hù)的數(shù)據(jù)是否能夠用于生成式AI模型的訓(xùn)練明確了路徑。
在中東地區(qū),阿聯(lián)酋成立了人工智能實(shí)踐工作組,率先圍繞AI戰(zhàn)略的實(shí)施發(fā)布了立法草案。
不過,整體而言,全球已在人工智能領(lǐng)域立法的國家數(shù)量還是相對較少,大多數(shù)國家尚未公布專門針對人工智能技術(shù)發(fā)展的規(guī)制性文件。
但盡管如此,各國監(jiān)管部門積極探索有效監(jiān)管AI技術(shù)的趨勢有目共睹。因此,ADVANCE.AI整理了出海企業(yè)普遍關(guān)注的東南亞、拉丁美洲和歐美地區(qū)代表國家正在實(shí)踐或正在規(guī)劃的針對AI技術(shù)應(yīng)用的管理舉措,也同時(shí)摘取了頭部數(shù)字服務(wù)平臺對生成式AI技術(shù)應(yīng)用發(fā)布的企業(yè)自治管理辦法,讓我們在了解AI欺詐風(fēng)險(xiǎn)的同時(shí),提前一覽AI技術(shù)的監(jiān)管合規(guī)趨勢:
01
東南亞
據(jù)路透社2023年6月的報(bào)道,東南亞國家正在起草人工智能治理與倫理指南,旨在為這項(xiàng)蓬勃發(fā)展的技術(shù)設(shè)置“防護(hù)欄”。目前起草工作正在進(jìn)行中,預(yù)計(jì)可能在2023年年底完成,指南由東盟成員國批準(zhǔn)后或于2024年年初的東盟數(shù)字部長會議上對外公布。
以新加坡為例
新加坡暫沒有針對AI技術(shù)進(jìn)行專項(xiàng)監(jiān)管立法,目前以現(xiàn)有的民刑事監(jiān)管框架進(jìn)行監(jiān)管,行業(yè)主管部門也會發(fā)布指導(dǎo)意見供企業(yè)參考。
AI Verify(AI驗(yàn)證)是新加坡發(fā)布的人工智能治理測試框架和軟件工具包,最初由新加坡監(jiān)管機(jī)構(gòu)信息通信媒體發(fā)展局(常見簡稱IMDA)與行業(yè)參與者協(xié)商后開發(fā)。AI Verify面向開源社區(qū)開放,旨在通過標(biāo)準(zhǔn)化測試,幫助組織根據(jù)國際公認(rèn)的人工智能治理原則驗(yàn)證其人工智能系統(tǒng)的性能。
而對于生成式AI技術(shù),新加坡專門發(fā)布有一份討論文件,分享新加坡計(jì)劃為可信和負(fù)責(zé)任地采用生成式AI技術(shù)建立生態(tài)系統(tǒng)的方法,以實(shí)現(xiàn)生成式AI的可信和充滿活力的生態(tài)系統(tǒng),這份文件的指導(dǎo)思想可能為新加坡未來設(shè)置具體的監(jiān)管條例奠定理論基礎(chǔ)。
該份文件提出了“六個維度”,為政策制定者提供了一個初步框架,以加強(qiáng)人工智能治理的基礎(chǔ),降低生成式AI技術(shù)可能出現(xiàn)的風(fēng)險(xiǎn),這六個維度是:
①以問責(zé)制為治理的基礎(chǔ)
②從數(shù)據(jù)中提取模型生命周期的關(guān)鍵組件
③模型開發(fā)和部署
④第三方保證和評估
⑤長期的安全性和一致性
⑥為公共利益而開發(fā)
02
歐盟
歐盟是制定人工智能相關(guān)規(guī)則的先行者之一,其立法思路常被其他成文法國家借鑒。
2021年5月,歐盟首次公開了《人工智能法案》(The AI Act),此為全球首個人工智能法案,旨在制定在歐盟范圍內(nèi)統(tǒng)一的人工智能治理體系。
歐盟的人工智能法案在充分考慮了AI技術(shù)的發(fā)展水平之后,確立了以風(fēng)險(xiǎn)為基準(zhǔn)的人工智能治理框架。
以風(fēng)險(xiǎn)為基準(zhǔn),首先在于風(fēng)險(xiǎn)場景的劃分,比如,當(dāng)AI技術(shù)應(yīng)用于就業(yè)、邊境管理、教育領(lǐng)域時(shí),是“高風(fēng)險(xiǎn)”案例,必須要遵守“高風(fēng)險(xiǎn)”案例的安全要求,包括要進(jìn)行風(fēng)險(xiǎn)評估、提交日志記錄確保透明度等。
歐盟的人工智能法案并未將ChatGPT等“通用”的AI技術(shù)用例視為高風(fēng)險(xiǎn),但對于“AI基礎(chǔ)模型”或經(jīng)過大量數(shù)據(jù)訓(xùn)練的強(qiáng)大AI系統(tǒng),設(shè)置了風(fēng)險(xiǎn)評估和保障透明度要求。
例如,基礎(chǔ)模型的供應(yīng)商,包括OpenAI、谷歌和微軟,將被要求聲明是否使用受版權(quán)保護(hù)的材料來訓(xùn)練AI模型。但是,沒有類似的規(guī)定要求聲明是否在訓(xùn)練期間使用了個人數(shù)據(jù)。
03
美國
基于美國體制的特點(diǎn),人工智能相關(guān)戰(zhàn)略主要依靠行政命令和指導(dǎo)性文件推動。2023年5月,美國發(fā)布了《國家人工智能研發(fā)戰(zhàn)略計(jì)劃》(The National Artificial Intelligence R&D Strategic Plan),除了對2016、2019年版《國家人工智能研發(fā)戰(zhàn)略計(jì)劃》進(jìn)行更新,還提出要評估聯(lián)邦機(jī)構(gòu)對《2022年國家人工智能倡議法案》(常見簡稱NAIIA)和《國家人工智能研發(fā)戰(zhàn)略計(jì)劃》的具體執(zhí)行情況。
據(jù)悉,美國國家電信和信息管理局亦計(jì)劃起草一份報(bào)告,研究“確保AI系統(tǒng)能夠按照聲稱的那樣工作,并且不會造成傷害”。
2023年4月,美國科技倡導(dǎo)組織“商業(yè)軟件聯(lián)盟”(常見簡稱BSA)公開發(fā)文呼吁在國家隱私立法基礎(chǔ)上制定管理AI技術(shù)使用的規(guī)則。這份聲明不僅引導(dǎo)美國國會將有關(guān)AI的監(jiān)管法規(guī)整合在“美國數(shù)據(jù)隱私和保護(hù)法案”之中,還向美國國會提出了四個明確的呼吁,包括:
美國國會應(yīng)該明確要求相關(guān)企業(yè)必須評估人工智能的設(shè)計(jì)或影響的時(shí)效。
當(dāng)人工智能被用于做出“重大決定”時(shí),這些要求是否應(yīng)該生效,美國國會需要對此給出定義。
美國國會應(yīng)該指定一個現(xiàn)有的聯(lián)邦機(jī)構(gòu)來審查公司是否遵守了規(guī)則。
美國國會應(yīng)該要求公司為高風(fēng)險(xiǎn)的人工智能制定風(fēng)險(xiǎn)管理計(jì)劃。
04
巴西
2022年3月,巴西提出新的AI技術(shù)監(jiān)管框架草案(下文簡稱"新草案”),計(jì)劃規(guī)范人工智能系統(tǒng)能夠被負(fù)責(zé)任地使用。
新草案擬議的監(jiān)管思路,也提出了和歐盟地區(qū)類似的監(jiān)管思路,比如:以基于風(fēng)險(xiǎn)的辦法監(jiān)管AI的應(yīng)用。
新草案要求要對AI技術(shù)服務(wù)相關(guān)系統(tǒng)或服務(wù)方進(jìn)行初步評估,將風(fēng)險(xiǎn)程度分為“過度風(fēng)險(xiǎn)”或“高風(fēng)險(xiǎn)”。被歸類為存在“過度風(fēng)險(xiǎn)”的AI系統(tǒng)將不被允許部署或使用,并尤其禁止公共機(jī)構(gòu)部署此類系統(tǒng)。
“高風(fēng)險(xiǎn)”AI應(yīng)用用例包括用于關(guān)鍵基礎(chǔ)設(shè)施、安全設(shè)施、教育、招聘、人力資源管理、衛(wèi)生系統(tǒng)等場景的用例。
此外,新草案強(qiáng)調(diào)了人工智能決策的透明度和可解釋性的重要性,也設(shè)置了保護(hù)兒童、青少年、老年人和殘疾人等弱勢群體的措施,強(qiáng)調(diào)了用戶不受歧視和有權(quán)糾正已查明偏見的權(quán)利,并對劃為“高風(fēng)險(xiǎn)”用例的AI系統(tǒng),提出了需要全程監(jiān)控、測試偏見預(yù)防措施、保障系統(tǒng)安全等措施。
值得注意的是,巴西針對AI技術(shù)的新草案提出了AI技術(shù)提供者的嚴(yán)格責(zé)任制度,并為此設(shè)置了AI系統(tǒng)提供商或運(yùn)營商的民事責(zé)任保護(hù)制度、重大安全事件的報(bào)告義務(wù)。
總結(jié)
各國監(jiān)管機(jī)構(gòu)對于AI技術(shù)的監(jiān)管舉措,普遍形成共識的領(lǐng)域在于:
采用基于風(fēng)險(xiǎn)的監(jiān)管方式,明確用于教育、公共設(shè)施等領(lǐng)域的AI技術(shù)屬于高風(fēng)險(xiǎn)AI應(yīng)用場景。
要求AI技術(shù)提供商承擔(dān)管理責(zé)任。
確保透明度、監(jiān)控、預(yù)防算法偏見。
生成式AI行業(yè)自治舉措
對于顛覆性的、或可能帶來廣泛影響的AI技術(shù),全球各國監(jiān)管機(jī)構(gòu)都在進(jìn)行治理話語權(quán)的競賽,而與AI應(yīng)用密切相關(guān)的數(shù)字平臺頭部企業(yè),這一次也在積極參與治理話語權(quán)的發(fā)聲,在法定合規(guī)義務(wù)邊界尚不清晰的情況下,主動戴起“鐐銬”舞蹈,積極發(fā)布行業(yè)自治舉措。
以短視頻平臺“抖音”為例
2023年5月9日,抖音發(fā)布了多項(xiàng)關(guān)于應(yīng)用生成式AI技術(shù)內(nèi)容的自治管理要求,值得關(guān)注的要求包括:
平臺生態(tài)系統(tǒng)中的創(chuàng)作者、主持人、用戶、商家、廣告商等參與者在使用生成式AI技術(shù)生成內(nèi)容時(shí),應(yīng)在抖音應(yīng)用程序上對通過AI技術(shù)生成的內(nèi)容進(jìn)行顯著標(biāo)注。這將幫助其他用戶區(qū)分虛擬和現(xiàn)實(shí),尤其是在令人困惑的場景中。
無論內(nèi)容是如何生成的,出版商都要對通過AI技術(shù)生成的內(nèi)容所產(chǎn)生的相應(yīng)后果負(fù)責(zé)。
使用虛擬人物進(jìn)行直播或創(chuàng)建以虛擬人物為角色的賬號的用戶,必須在平臺上注冊相應(yīng)的虛擬人物形象,發(fā)布虛擬人物形象的用戶也需要通過實(shí)名認(rèn)證。
禁止用戶使用生成式AI技術(shù)創(chuàng)作和發(fā)布侵權(quán)內(nèi)容,包括但不限于肖像權(quán)、知識產(chǎn)權(quán)等。一旦發(fā)現(xiàn),平臺將予以嚴(yán)厲處罰。
使用注冊的虛擬角色進(jìn)行直播時(shí),必須由真人驅(qū)動才能進(jìn)行實(shí)時(shí)交互,而不能完全由人工智能驅(qū)動。
企業(yè)牽頭構(gòu)建的治理體系,一方面,可以防范風(fēng)險(xiǎn),保障用戶權(quán)益和平臺運(yùn)營的穩(wěn)定性;另一方面,也可以向監(jiān)管部門傳遞積極的信號,告知監(jiān)管部門企業(yè)可以通過自治的方式有效控制新技術(shù)的應(yīng)用風(fēng)險(xiǎn),這將有利于行業(yè)整體的穩(wěn)定發(fā)展,是各類企業(yè)值得借鑒的方法。
在海外地區(qū),包括TikTok、OpenAI、Adobe在內(nèi)的10家大型科技企業(yè)與人工智能研究非營利組織Partnership on AI已共同簽署了一份“負(fù)責(zé)任地使用生成式AI制造內(nèi)容的指南框架”,該指南呼吁生成式AI技術(shù)的建設(shè)者、內(nèi)容分銷者、創(chuàng)作者能夠以更加透明的態(tài)度明確生成式AI應(yīng)該如何負(fù)責(zé)任地使用,并給行業(yè)參與者的應(yīng)用給出明確的建議,這些指導(dǎo)自治管理的建議包括:
·確保通過生成式AI或相關(guān)技術(shù)生成的內(nèi)容(常見簡稱“合成媒體,Synthetic Media”)是用來支持創(chuàng)作、知識共享和評論,而不是用來傷害、剝奪他人權(quán)利。
·基于同意、披露和透明度的原則去負(fù)責(zé)任地開發(fā)、創(chuàng)建和共享關(guān)鍵技術(shù)。
·當(dāng)平臺用戶與通過生成式AI技術(shù)生成的內(nèi)容進(jìn)行交互時(shí),平臺必須要向用戶告知這是來自生成式AI技術(shù)生成的內(nèi)容,包括可以展示生成水印、聲明、或披露AI模型中訓(xùn)練的數(shù)據(jù)或元數(shù)據(jù)中可追溯的元素。
·在開發(fā)代碼和數(shù)據(jù)集、訓(xùn)練模型以及應(yīng)用軟件生產(chǎn)合成媒體時(shí),應(yīng)盡最大努力在應(yīng)用有通過生成式AI技術(shù)產(chǎn)生的內(nèi)容中,間接披露相關(guān)必要元素。
·確定了要重視的、負(fù)責(zé)任地使用生成式AI內(nèi)容的場景類別(可以理解成是高風(fēng)險(xiǎn)場景),包括藝術(shù)、教育、研究等,并要求要制定風(fēng)險(xiǎn)緩釋措施,能夠在認(rèn)識到出現(xiàn)風(fēng)險(xiǎn)情況后,即時(shí)做出調(diào)整。
值得注意的是,該指南羅列了生成式AI內(nèi)容可能造成的風(fēng)險(xiǎn)場景,企業(yè)可以仔細(xì)了解這些風(fēng)險(xiǎn)場景,提前防范:
·大規(guī)模創(chuàng)建新的身份和賬戶,用虛假賬戶代表獨(dú)特的人,以“制造輿論”
·冒充個人獲取未經(jīng)授權(quán)的信息或權(quán)限
·主動撥打電話、發(fā)帖或發(fā)送信息,進(jìn)行欺騙或騷擾
·為經(jīng)濟(jì)利益進(jìn)行欺詐
·發(fā)布關(guān)于個人、團(tuán)體或組織的虛假信息
·剝削或操縱兒童
·欺凌和騷擾
·間諜活動
·操縱民主和政治進(jìn)程,包括欺騙選民投票支持或反對候選人,通過提供虛假陳述或行為損害候選人的聲譽(yù),通過欺騙影響選舉結(jié)果。
·市場操縱和破壞企業(yè)正常經(jīng)營
·制造或煽動仇恨言論、歧視、誹謗、恐怖主義或暴力行為
·誹謗和名譽(yù)破壞
·非自愿的親密性內(nèi)容
·敲詐勒索
首批承諾遵守該指南的10家公司是Adobe、BBC、加拿大廣播公司、Bumble、OpenAI、TikTok、Witness,初創(chuàng)公司Synthesia、D-ID和Respeecher。
指南同時(shí)建議,對于可能會成為生成式AI內(nèi)容傳播渠道的在線平臺(即指社交媒體、直播平臺、游戲、電商平臺等),務(wù)必要通過部署合規(guī)的技術(shù)解決方案、用戶報(bào)告制度和員工內(nèi)控措施,有效識別可能在平臺上傳播的、具有危害的生成式AI內(nèi)容(包括但不限于虛假賬戶、偽造產(chǎn)品圖片、惡意輿論等)。
并且,如果已知有相關(guān)風(fēng)險(xiǎn)內(nèi)容存在在線平臺時(shí),要通過打標(biāo)簽、降級、刪除或其他手段積極干預(yù)調(diào)整。而一套端到端的、可定制化的、搭載了活體檢測工具、身份欺詐風(fēng)險(xiǎn)評分功能、反洗錢篩查和企業(yè)信息篩查工具的一站式數(shù)字化身份驗(yàn)證解決方案,可以幫助有需求的在線平臺高效建立一套針對生成式AI內(nèi)容可能風(fēng)險(xiǎn)的有效防范機(jī)制,且不影響在線平臺的運(yùn)營效率和終端用戶體驗(yàn)。