負責任的AI,你的安全感微軟守護

來源:微軟科技
作者:微軟科技
時間:2022-08-11
1853
毫無疑問,我們的世界已經(jīng)迅速地與數(shù)字技術交融。小到一次刷碼出行、一次訂單支付、你在云端敲下的一個字符,都在數(shù)字世界構建了一個欣欣向榮的孿生體。但面對看不見的數(shù)據(jù)“黑盒子”,我們的安全感從何而來?

毫無疑問,我們的世界已經(jīng)迅速地與數(shù)字技術交融。小到一次刷碼出行、一次訂單支付、你在云端敲下的一個字符,都在數(shù)字世界構建了一個欣欣向榮的孿生體。但面對看不見的數(shù)據(jù)“黑盒子”,我們的安全感從何而來?

數(shù)據(jù)安全是數(shù)字技術的基石,但它的完善不是一蹴而就的,領先的云服務商等關鍵角色有責任將其作為價值觀去時時進益。其中,人工智能(AI)等熱門技術近年來在日常生活中的廣泛應用開始引發(fā)大眾對于隱私的擔憂。因此,我們向大家介紹微軟負責任的AI標準,這是一個指導構建AI系統(tǒng)的框架,來讓我們以身作則,在開發(fā)更好、更可信的技術和產(chǎn)品中守住價值觀底線。

一直以來,微軟采用六項基本原則來更廣泛地指導AI工作,在此基礎之上我們針對例如人臉識別技術等獨特的風險進行了進一步的更新。6月底微軟宣布停止銷售基于人臉圖像猜測情緒的技術,并且不再提供不受限制訪問的人臉識別技術。我們發(fā)現(xiàn),對“情緒”的定義缺乏共識等種種原因,可能會使人們遭受刻板印象、歧視或者不公平的拒絕服務。

技術是為了更好地服務生活而非創(chuàng)造障礙。在最新版負責任的AI標準中,我們希望與業(yè)界共同探討知識和經(jīng)驗,從AI開始,共同推動建立更好、更透明的數(shù)據(jù)隱私安全規(guī)范和實踐。

640.jpg

微軟負責任的AI

1

引導開發(fā),

讓AI更負責任

AI實際是人們在開發(fā)、部署過程中所作的眾多決策的產(chǎn)物,因此從目的設定到互動方式,在開發(fā)的各個環(huán)節(jié)我們都應該對需要做的各種決策進行積極引導,以確保最終結果更有益且更公平。AI系統(tǒng)在一開始確定設計時,就需要以人和目標為中心,與此同時,微軟還制定了其應該堅守的六大原則——公平、可靠和安全、隱私與保障、包容、透明、負責。

負責任AI標準反映了微軟對于如何構建能夠體現(xiàn)這些原則并贏得社會信任的AI系統(tǒng)的思考。這一標準為我們團隊提供了具有針對性和可行性的指導意見,確保我們走在AI治理的最前沿。

標準對AI團隊必須努力達成的各個具體目標或成果進行了詳細說明。這些目標將“負責”原則拆解為影響評估、數(shù)據(jù)管控、人工監(jiān)督等多個關鍵促成因素;每個目標還包含一系列要求,這些要求是團隊必須采取的步驟,以確保整個系統(tǒng)生命周期內(nèi)AI都不偏離目標;標準還將可用的工具和實踐與特定要求相匹配,以便團隊在執(zhí)行時有現(xiàn)成的資源可用。

640 (1).jpg

微軟負責任AI標準的核心構成:

原則、目標、要求、工具與實踐

業(yè)界很需要類似的實用型指南。如上文所述,日常生活中AI應用越來越常見,但政策法規(guī)還未健全。雖然相關機構正在加大AI領域的治理,但我們應該肩負起責任并采取行動,確保AI系統(tǒng)在設計之初就“負責任”。

2

持續(xù)完善,

基于產(chǎn)品不斷學習

負責任AI標準的第一版于2019年秋季在微軟內(nèi)部推出,這次推出的改進版由過去一年來我們抽調(diào)的研究人員、工程師、政策專家組成的多學科小組精心編制而成,涵蓋了微軟在負責任AI領域所作的努力、最新研究成果,以及從產(chǎn)品中獲得的重要經(jīng)驗等。

語音轉文字技術中的公平性問題

AI系統(tǒng)可能會加劇社會偏見和不平等現(xiàn)象,這是業(yè)界公認的由AI系統(tǒng)帶來的壞處之一。2020年3月,一項學術研究顯示,在整個技術領域內(nèi),對于一些黑人和非裔美國人群體而言,語音轉文字技術的出錯率幾乎是白人群體的兩倍。我們回顧并思考了這項研究結果,了解到我們在預發(fā)布測試中并未全面考慮來自不同地區(qū)、擁有不同背景的人群豐富多樣的語言。在這項研究發(fā)表后,我們聘請了一位社會語言專家來幫助我們更好地理解語言多樣性,并試圖擴大我們的數(shù)據(jù)收集工作,以縮小語音轉文字技術的性能差異。在這個過程中,我們發(fā)現(xiàn)我們需要努力解決一些極具挑戰(zhàn)性的問題——即如何以一種得體且尊重對方的方式從各群體中收集數(shù)據(jù)。我們還意識到讓專家盡早參與到技術開發(fā)流程中的重要性,包括幫助我們更好地了解可能導致系統(tǒng)性能差異的因素。

負責任AI標準記錄了我們改善語音轉文字技術所遵循的模式。隨著我們繼續(xù)在全公司推廣該標準,我們希望其中明確的公平性目標和要求將有助于我們提前應對有損公平性的潛在問題。

自定義神經(jīng)語音和人臉識別的合理使用監(jiān)管

Azure AI的自定義神經(jīng)語音是另一項創(chuàng)新型微軟語音技術,可用于創(chuàng)建聽起來幾乎與原始音源相同的合成語音。AT&T公司在屢獲殊榮的Bugs Bunny店內(nèi)將這一技術付諸實踐,Progressive公司在線上與客戶進行互動時使用Flo語音。此外,許多其他客戶也在使用這項技術。這項技術在教育、無障礙服務、娛樂領域都具有較大潛力,但也很容易被用來模仿聲音對他人進行欺騙。

我們通過負責任的AI計劃對這項技術進行了審核,包括落實敏感用途審核流程,這促使我們采用分層控制框架:限制客戶對服務的訪問,確保通過透明度說明(Transparency Note)和行為準則(Code of Conduct)對可接受的用例主動進行定義和說明,并建立了技術圍欄,以幫助確保在創(chuàng)建合成語音時語音提供者能夠積極參與其中。通過上述和其他治理措施,防止技術被濫用,同時確保技術能夠發(fā)揮有益的作用。

基于我們在自定義神經(jīng)語音技術領域積累的知識和經(jīng)驗,我們將在自身的人臉識別服務中應用類似管控措施。在現(xiàn)有客戶度過過渡期之后,我們僅會將這些服務的訪問權限授予托管客戶和合作伙伴,將用例范圍縮小到預定義的可接受用例,并合理利用服務中設計的技術管控措施。

符合目標(Fit for Purpose)與Azure人臉識別功能

最后,我們意識到,要讓AI可信賴,它們應該是符合目標的解決方案。在確保Azure人臉識別服務符合負責任AI標準相關要求的過程中,我們棄用了推斷情緒狀態(tài)和身份屬性(包括性別、年齡、微笑、胡須、頭發(fā)和妝容等)的功能。

以情緒狀態(tài)為例,我們已決定不支持通過開放式API訪問權限掃描人臉并根據(jù)面部表情或動作來推斷情緒狀態(tài)的人臉識別技術。公司內(nèi)外的專家強調(diào)對“情緒”的定義缺乏科學共識,相關挑戰(zhàn)包括:如何跨越不同用例、地區(qū)和人群實現(xiàn)準確推斷,以及人們越來越關注這類功能的隱私問題。我們還決定,我們需要仔細分析所有聲稱能夠推斷人們情緒狀態(tài)的AI系統(tǒng),無論這些系統(tǒng)是使用面部分析還是任何其他AI技術。當前,負責任AI標準中的“符合目標(Fit for Purpose)”目標與要求可幫助我們提前對特定系統(tǒng)進行有效性評估,我們與敏感用途相關的流程有助于我們基于科學為影響較大的用例提供細致入微的指導。

這些現(xiàn)實出現(xiàn)的挑戰(zhàn)促進了微軟負責任AI標準的發(fā)展,也切實影響了我們設計、開發(fā)和部署AI的方式。

對于有意深入研究的人員,我們也提供了支撐負責任AI標準的重要資源,包括我們的影響評估模板和指南,以及一系列透明度說明。微軟已經(jīng)驗證了影響評估的重要性,即影響評估可以確保團隊在最早期設計階段深入探索AI系統(tǒng)可能會帶來的影響,包括其利益相關者、預期益處和潛在危害等。透明度說明采用全新文檔形式,我們在其中向客戶披露了我們的核心構建模塊技術的功能和限制因素,從而為他們提供制定負責任部署決策所需的知識。

640 (2).jpg

微軟負責任AI標準以核心原則為基礎

3

融會貫通多學科,

不斷更新迭代

我們最新版負責任AI標準中采納了微軟不同技術、專業(yè)領域和地理位置的數(shù)百條意見。這是我們建立負責任AI實踐的重要一步,因為它更具可操作性和相關性:這套標準給出了提前識別、衡量和減輕系統(tǒng)危害的實用方法,并要求團隊采取管控措施,從而防止技術被濫用,以及確保技術能夠發(fā)揮有益的作用。

雖然制定標準是微軟負責任AI之旅的重要一步,但這只是其中一步。我們預計在實施過程中會遇到各種挑戰(zhàn),可能需要我們暫停下來不斷反思和調(diào)整。我們的標準將作為一份動態(tài)文件,不斷加以完善以納入公司內(nèi)外的新研究、新技術、新法規(guī)以及新的知識與經(jīng)驗。

在全球范圍內(nèi),關于如何創(chuàng)建具有原則性和可操作性的規(guī)范以確保組織以負責任的方式開發(fā)和部署AI的討論層出不窮。我們從這些討論中受益匪淺,也將繼續(xù)為這些討論提供我們的見解。我們認為,產(chǎn)業(yè)界、學術界、社會和政府應該攜手推動前沿技術的發(fā)展,并相互學習。我們需要共同解決開放性研究問題,彌合度異,并創(chuàng)建全新的實踐、模式、資源和工具。

創(chuàng)建更美好、更公平的未來需要新的AI技術“護城墻”。微軟通過制定負責任AI標準助力實現(xiàn)這一目標,并在整個公司層面開展勢在必行的實踐工作。我們致力于在開展相關工作過程中保持公開、誠實和透明,以期取得富有意義的進展。

立即登錄,閱讀全文
原文鏈接:點擊前往 >
文章來源:微軟科技
版權說明:本文內(nèi)容來自于微軟科技,本站不擁有所有權,不承擔相關法律責任。文章內(nèi)容系作者個人觀點,不代表快出海對觀點贊同或支持。如有侵權,請聯(lián)系管理員(zzx@kchuhai.com)刪除!
優(yōu)質(zhì)服務商推薦
更多