中美或將AIGC納入監(jiān)管,連ChatGPT也覺得行

作者:桂志偉
時間:2023-04-12
1721
為了更加有序、平穩(wěn)地發(fā)展

四個多月時間,并不算太長。但對AI技術領域而言,這期間發(fā)生的變化,無不謂是日新月異。

當人們對ChatGPT(GPT3.5)的驚訝還未消淡,OpenAI緊接著發(fā)布了更聰明、強大的GPT4。有人說這一前沿技術變革帶來的影響,就像是從工業(yè)時代跨入信息時代,并朝著移動互聯(lián)網時代邁進的變化。

在這波前沿AI技術變革刺激下,國內外掀起了生成式AI研發(fā)潮。放眼全球,海外微軟、谷歌等科技巨頭,國內百度、阿里等互聯(lián)網頭部企業(yè),均加入了AI大模型競賽中。

在2023阿里云峰會上,阿里巴巴集團董事會主席兼CEO張勇宣布,阿里巴巴所有產品未來將接入“通義千問”大模型,進行全面改造。他認為,面向AI時代,所有產品都值得用大模型重新升級。

但與這場變革相伴而生的問題是,現(xiàn)階段我們是否做好準備應對前沿AI技術可能造成的影響。而為了進一步促進AI行業(yè)健康發(fā)展,近期不少國家相繼公開征求關于生成式AI服務規(guī)范意見。

4月11日,國家互聯(lián)網信息辦公室發(fā)布“關于《生成式人工智能服務管理辦法(征求意見稿)》公開征求意見的通知”。通知第二條提到,研發(fā)、利用生成式AI產品,面向中華人民共和國境內公眾提供服務的,將適用本辦法。

這意味著,國內AIGC行業(yè)正步入規(guī)范化發(fā)展階段。而就全球趨勢來看,相關監(jiān)管也是異步同趨。


生成式AI服務管理辦法21條

在網信中國發(fā)布的“國家互聯(lián)網信息辦公室關于《生成式人工智能服務管理辦法(征求意見稿)》公開征求意見的通知”中,本辦法所稱生成式人工智能,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內容的技術。

提供生成式AI產品或服務在遵守法律和社會公序方面,應該符合以下五大要求:

1、利用生成式人工智能生成的內容應當體現(xiàn)社會主義核心價值觀,不得含有顛覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統(tǒng)一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情信息,虛假信息,以及可能擾亂經濟秩序和社會秩序的內容。

2、在算法設計、訓練數據選擇、模型生成和優(yōu)化、提供服務等過程中,采取措施防止出現(xiàn)種族、民族、信仰、國別、地域、性別、年齡、職業(yè)等歧視。

3、尊重知識產權、商業(yè)道德,不得利用算法、數據、平臺等優(yōu)勢實施不公平競爭。

4、利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息。

5、尊重他人合法利益,防止傷害他人身心健康,損害肖像權、名譽權和個人隱私,侵犯知識產權。禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密。

而在《征求意見稿》第六條中明確提到,廠商在利用AI產品向公眾提供服務前,應當按照《具有輿論屬性或社會動員能力的互聯(lián)網信息服務安全評估規(guī)定》向國家網信部門申報安全評估,并按照《互聯(lián)網信息服務算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。

此外,《征求意見稿》其它條例提出,廠商在提供AI服務過程中,需要用戶提供真實身份信息、加入防沉迷措施、建立用戶投訴接收處理機制等。

某種程度上,這與國內游戲版號審批制度類似。綜合來看,本辦法若落地實施,意味著中國生成式AI產品將有著嚴格的審批、監(jiān)管制度。

從網信中國發(fā)布的信息來看,《生成式人工智能服務管理辦法》會在2023年內落地實施。這將進一步促進中國AIGC行業(yè)健康有序發(fā)展。

值得提出的是,除了中國外,一些海外國家也已加速規(guī)范化生成式AI的發(fā)展與監(jiān)管。據《華爾街日報》報道,美國商務部4月11日就ChatGPT等相關AI產品服務問責措施正式公開征求意見,包括新AI模型在發(fā)布前是否應經過認證程序。征求意見期限為60天。

美國商務部下屬國家電信和信息管理局局長艾倫·戴維森表示:“這些AI工具即使在相對初期階段,也能做到很多令人驚訝的事情。但我們需要設置一些防護,以確保它們被負責任地使用?!?/p>

此外,海外其他國家以及一些社會機構也表達了,對新模型AI造成影響的擔憂。


多國以安全為由嚴管ChatGPT

其實在OpenAI GPT4發(fā)布的第二周,一封名為“Pause Giant AI Experiments:An Open Latter”的公開信就引起了廣泛關注。

微信圖片_20230412154129.png

這封公開信指出,最近幾個月,AI大模型實驗陷入一場失控的競賽。

而“Pause Giant AI Experiments”之所以被很多人關注,在于公開信發(fā)起者們認為,現(xiàn)階段的AI公司還沒有辦法理解、預測或可靠地控制自己創(chuàng)造的大模型。人類社會對其可能造成的影響也沒有做好準備。

因此,公開信呼吁,所有的AI實驗室應該暫停訓練比GPT4更強大的AI模型,為期至少6個月。截至目前,特斯拉 CEO(OpenAI 聯(lián)合創(chuàng)始人)伊隆?馬斯克、圖靈獎得主Yoshua Bengio等科技界大拿,已經在這封公開信上簽名,總的支持者人數超過20000人。

此外,OpenAI CEO阿爾特曼在公開信發(fā)布的第二天表示,要實現(xiàn)通用人工智能繁榮的未來需要三個條件:技術上擁有對齊超級智能的能力;大多數領先的通用人工智能模型之間可以實現(xiàn)充分協(xié)調;存在有效的全球監(jiān)管框架,包括民主治理在內。

值得提出的是,除了社會機構或個人表達對GPT4等新大模型AI發(fā)展的擔憂,一些國家政府機關甚至開始禁用相關產品。

例如,當地時間3月31日,意大利個人數據保護局宣布,從即日起禁止使用聊天機器人ChatGPT,并限制開發(fā)這一平臺的OpenAI公司處理意大利用戶信息。同時個人數據保護局開始立案調查。

這是第一起政府禁止使用生成式AI的案例。而在此之后,歐洲和其他地區(qū)監(jiān)管機構也開始關注這一問題,其中包括:

愛爾蘭數據保護委員會表示,將與所有歐盟數據保護機構進行協(xié)調;法國數據隱私監(jiān)管機構CNIL表示,正在針對ChatGPT投訴展開調查;加拿大隱私專員辦公室,因接到“OpenAI未經同意收集、使用和披露個人信息”指控,也已對OpenAI展開調查。

國內一家游戲大廠技術高管曾在朋友圈如是評價ChatGPT等新AI的發(fā)展情況:“美國負責發(fā)明,中國負責落地,歐洲負責罰款,各司其職?!?/p>

但從已知消息來看,除了歐洲國家外,目前包括韓國、日本等亞洲國家,在相關方面正逐步采取嚴厲監(jiān)管措施。例如4月3日,韓國《國民日報》報道稱,包括三星、SK海力士、浦項制鐵公司在內的多家韓企正在采取限制使用ChatGPT的措施,嚴防員工泄密。

此外,近日日本政府也宣布將制定ChatGPT在教育領域的使用指南,以防止使用者思維能力下降。日本內閣官房長官松野博一表示:“在使用新技術時,必須同時關注其優(yōu)點與缺點?!?/p>

就全球趨勢來看,各國針對GPT3.5后的生成式AI服務,或均將推出相匹配的監(jiān)管措施。這也意味著生成式AI正步入規(guī)范化發(fā)展階段。


結語:

當然,不可否認的是,雖然ChatGPT等AI所具備的能力還不完美,但它們對推動社會發(fā)展的作用不可小覷。

正如我們文前提到,微軟、谷歌、百度、阿里等海外內巨頭企業(yè),加速布局AI領域。此外,根據不完全統(tǒng)計,自2020年GPT3發(fā)布以來,海外已有超過100家AI創(chuàng)企獲得投資。其中2022年后成立的公司約有40家。

當行業(yè)都在尋求AI領域的突破,這將推動科技產業(yè)加速變革。包括計算芯片、AIGC應用領域的企業(yè),均將迎來更多機會。

但正如日本機器人專家森昌弘提出的“恐怖谷假設”,亦或是喬納森·諾蘭導演的熱門科幻美劇《西部世界》所展現(xiàn)的智能NPC世界,均在揭露人類對AI的啟示:在享受AI等前沿科技發(fā)展帶來的便利時,我們應該為AI算法等賦予匹配人類社會價值觀的指導。

斯坦福神經學家大衛(wèi)·伊格爾曼曾說:“人工智能在理解道德和法律上存在先天缺陷。”而這或也是現(xiàn)階段各國推出生成式AI服務管理、監(jiān)管措施的意義所在。

而這一點也得到了ChatGPT的“肯定”。

微信圖片_20230412154207.png

立即登錄,閱讀全文
版權說明:本文內容來自于競核,本站不擁有所有權,不承擔相關法律責任。文章內容系作者個人觀點,不代表快出海對觀點贊同或支持。如有侵權,請聯(lián)系管理員(zzx@kchuhai.com)刪除!
掃碼關注
獲取更多出海資訊的相關信息
優(yōu)質服務商推薦
更多
掃碼登錄
打開掃一掃, 關注公眾號后即可登錄/注冊
加載中
二維碼已失效 請重試
刷新
賬號登錄/注冊
個人VIP
小程序
快出海小程序
公眾號
快出海公眾號
商務合作
商務合作
投稿采訪
投稿采訪
出海管家
出海管家