毫無疑問,我們的世界已經(jīng)迅速地與數(shù)字技術(shù)交融。小到一次刷碼出行、一次訂單支付、你在云端敲下的一個(gè)字符,都在數(shù)字世界構(gòu)建了一個(gè)欣欣向榮的孿生體。但面對(duì)看不見的數(shù)據(jù)“黑盒子”,我們的安全感從何而來?
數(shù)據(jù)安全是數(shù)字技術(shù)的基石,但它的完善不是一蹴而就的,領(lǐng)先的云服務(wù)商等關(guān)鍵角色有責(zé)任將其作為價(jià)值觀去時(shí)時(shí)進(jìn)益。其中,人工智能(AI)等熱門技術(shù)近年來在日常生活中的廣泛應(yīng)用開始引發(fā)大眾對(duì)于隱私的擔(dān)憂。因此,我們向大家介紹微軟負(fù)責(zé)任的AI標(biāo)準(zhǔn),這是一個(gè)指導(dǎo)構(gòu)建AI系統(tǒng)的框架,來讓我們以身作則,在開發(fā)更好、更可信的技術(shù)和產(chǎn)品中守住價(jià)值觀底線。
一直以來,微軟采用六項(xiàng)基本原則來更廣泛地指導(dǎo)AI工作,在此基礎(chǔ)之上我們針對(duì)例如人臉識(shí)別技術(shù)等獨(dú)特的風(fēng)險(xiǎn)進(jìn)行了進(jìn)一步的更新。6月底微軟宣布停止銷售基于人臉圖像猜測(cè)情緒的技術(shù),并且不再提供不受限制訪問的人臉識(shí)別技術(shù)。我們發(fā)現(xiàn),對(duì)“情緒”的定義缺乏共識(shí)等種種原因,可能會(huì)使人們?cè)馐芸贪逵∠?、歧視或者不公平的拒絕服務(wù)。
技術(shù)是為了更好地服務(wù)生活而非創(chuàng)造障礙。在最新版負(fù)責(zé)任的AI標(biāo)準(zhǔn)中,我們希望與業(yè)界共同探討知識(shí)和經(jīng)驗(yàn),從AI開始,共同推動(dòng)建立更好、更透明的數(shù)據(jù)隱私安全規(guī)范和實(shí)踐。
微軟負(fù)責(zé)任的AI
1
引導(dǎo)開發(fā),
讓AI更負(fù)責(zé)任
AI實(shí)際是人們?cè)陂_發(fā)、部署過程中所作的眾多決策的產(chǎn)物,因此從目的設(shè)定到互動(dòng)方式,在開發(fā)的各個(gè)環(huán)節(jié)我們都應(yīng)該對(duì)需要做的各種決策進(jìn)行積極引導(dǎo),以確保最終結(jié)果更有益且更公平。AI系統(tǒng)在一開始確定設(shè)計(jì)時(shí),就需要以人和目標(biāo)為中心,與此同時(shí),微軟還制定了其應(yīng)該堅(jiān)守的六大原則——公平、可靠和安全、隱私與保障、包容、透明、負(fù)責(zé)。
負(fù)責(zé)任AI標(biāo)準(zhǔn)反映了微軟對(duì)于如何構(gòu)建能夠體現(xiàn)這些原則并贏得社會(huì)信任的AI系統(tǒng)的思考。這一標(biāo)準(zhǔn)為我們團(tuán)隊(duì)提供了具有針對(duì)性和可行性的指導(dǎo)意見,確保我們走在AI治理的最前沿。
標(biāo)準(zhǔn)對(duì)AI團(tuán)隊(duì)必須努力達(dá)成的各個(gè)具體目標(biāo)或成果進(jìn)行了詳細(xì)說明。這些目標(biāo)將“負(fù)責(zé)”原則拆解為影響評(píng)估、數(shù)據(jù)管控、人工監(jiān)督等多個(gè)關(guān)鍵促成因素;每個(gè)目標(biāo)還包含一系列要求,這些要求是團(tuán)隊(duì)必須采取的步驟,以確保整個(gè)系統(tǒng)生命周期內(nèi)AI都不偏離目標(biāo);標(biāo)準(zhǔn)還將可用的工具和實(shí)踐與特定要求相匹配,以便團(tuán)隊(duì)在執(zhí)行時(shí)有現(xiàn)成的資源可用。
微軟負(fù)責(zé)任AI標(biāo)準(zhǔn)的核心構(gòu)成:
原則、目標(biāo)、要求、工具與實(shí)踐
業(yè)界很需要類似的實(shí)用型指南。如上文所述,日常生活中AI應(yīng)用越來越常見,但政策法規(guī)還未健全。雖然相關(guān)機(jī)構(gòu)正在加大AI領(lǐng)域的治理,但我們應(yīng)該肩負(fù)起責(zé)任并采取行動(dòng),確保AI系統(tǒng)在設(shè)計(jì)之初就“負(fù)責(zé)任”。
2
持續(xù)完善,
基于產(chǎn)品不斷學(xué)習(xí)
負(fù)責(zé)任AI標(biāo)準(zhǔn)的第一版于2019年秋季在微軟內(nèi)部推出,這次推出的改進(jìn)版由過去一年來我們抽調(diào)的研究人員、工程師、政策專家組成的多學(xué)科小組精心編制而成,涵蓋了微軟在負(fù)責(zé)任AI領(lǐng)域所作的努力、最新研究成果,以及從產(chǎn)品中獲得的重要經(jīng)驗(yàn)等。
語音轉(zhuǎn)文字技術(shù)中的公平性問題
AI系統(tǒng)可能會(huì)加劇社會(huì)偏見和不平等現(xiàn)象,這是業(yè)界公認(rèn)的由AI系統(tǒng)帶來的壞處之一。2020年3月,一項(xiàng)學(xué)術(shù)研究顯示,在整個(gè)技術(shù)領(lǐng)域內(nèi),對(duì)于一些黑人和非裔美國(guó)人群體而言,語音轉(zhuǎn)文字技術(shù)的出錯(cuò)率幾乎是白人群體的兩倍。我們回顧并思考了這項(xiàng)研究結(jié)果,了解到我們?cè)陬A(yù)發(fā)布測(cè)試中并未全面考慮來自不同地區(qū)、擁有不同背景的人群豐富多樣的語言。在這項(xiàng)研究發(fā)表后,我們聘請(qǐng)了一位社會(huì)語言專家來幫助我們更好地理解語言多樣性,并試圖擴(kuò)大我們的數(shù)據(jù)收集工作,以縮小語音轉(zhuǎn)文字技術(shù)的性能差異。在這個(gè)過程中,我們發(fā)現(xiàn)我們需要努力解決一些極具挑戰(zhàn)性的問題——即如何以一種得體且尊重對(duì)方的方式從各群體中收集數(shù)據(jù)。我們還意識(shí)到讓專家盡早參與到技術(shù)開發(fā)流程中的重要性,包括幫助我們更好地了解可能導(dǎo)致系統(tǒng)性能差異的因素。
負(fù)責(zé)任AI標(biāo)準(zhǔn)記錄了我們改善語音轉(zhuǎn)文字技術(shù)所遵循的模式。隨著我們繼續(xù)在全公司推廣該標(biāo)準(zhǔn),我們希望其中明確的公平性目標(biāo)和要求將有助于我們提前應(yīng)對(duì)有損公平性的潛在問題。
自定義神經(jīng)語音和人臉識(shí)別的合理使用監(jiān)管
Azure AI的自定義神經(jīng)語音是另一項(xiàng)創(chuàng)新型微軟語音技術(shù),可用于創(chuàng)建聽起來幾乎與原始音源相同的合成語音。AT&T公司在屢獲殊榮的Bugs Bunny店內(nèi)將這一技術(shù)付諸實(shí)踐,Progressive公司在線上與客戶進(jìn)行互動(dòng)時(shí)使用Flo語音。此外,許多其他客戶也在使用這項(xiàng)技術(shù)。這項(xiàng)技術(shù)在教育、無障礙服務(wù)、娛樂領(lǐng)域都具有較大潛力,但也很容易被用來模仿聲音對(duì)他人進(jìn)行欺騙。
我們通過負(fù)責(zé)任的AI計(jì)劃對(duì)這項(xiàng)技術(shù)進(jìn)行了審核,包括落實(shí)敏感用途審核流程,這促使我們采用分層控制框架:限制客戶對(duì)服務(wù)的訪問,確保通過透明度說明(Transparency Note)和行為準(zhǔn)則(Code of Conduct)對(duì)可接受的用例主動(dòng)進(jìn)行定義和說明,并建立了技術(shù)圍欄,以幫助確保在創(chuàng)建合成語音時(shí)語音提供者能夠積極參與其中。通過上述和其他治理措施,防止技術(shù)被濫用,同時(shí)確保技術(shù)能夠發(fā)揮有益的作用。
基于我們?cè)谧远x神經(jīng)語音技術(shù)領(lǐng)域積累的知識(shí)和經(jīng)驗(yàn),我們將在自身的人臉識(shí)別服務(wù)中應(yīng)用類似管控措施。在現(xiàn)有客戶度過過渡期之后,我們僅會(huì)將這些服務(wù)的訪問權(quán)限授予托管客戶和合作伙伴,將用例范圍縮小到預(yù)定義的可接受用例,并合理利用服務(wù)中設(shè)計(jì)的技術(shù)管控措施。
符合目標(biāo)(Fit for Purpose)與Azure人臉識(shí)別功能
最后,我們意識(shí)到,要讓AI可信賴,它們應(yīng)該是符合目標(biāo)的解決方案。在確保Azure人臉識(shí)別服務(wù)符合負(fù)責(zé)任AI標(biāo)準(zhǔn)相關(guān)要求的過程中,我們棄用了推斷情緒狀態(tài)和身份屬性(包括性別、年齡、微笑、胡須、頭發(fā)和妝容等)的功能。
以情緒狀態(tài)為例,我們已決定不支持通過開放式API訪問權(quán)限掃描人臉并根據(jù)面部表情或動(dòng)作來推斷情緒狀態(tài)的人臉識(shí)別技術(shù)。公司內(nèi)外的專家強(qiáng)調(diào)對(duì)“情緒”的定義缺乏科學(xué)共識(shí),相關(guān)挑戰(zhàn)包括:如何跨越不同用例、地區(qū)和人群實(shí)現(xiàn)準(zhǔn)確推斷,以及人們?cè)絹碓疥P(guān)注這類功能的隱私問題。我們還決定,我們需要仔細(xì)分析所有聲稱能夠推斷人們情緒狀態(tài)的AI系統(tǒng),無論這些系統(tǒng)是使用面部分析還是任何其他AI技術(shù)。當(dāng)前,負(fù)責(zé)任AI標(biāo)準(zhǔn)中的“符合目標(biāo)(Fit for Purpose)”目標(biāo)與要求可幫助我們提前對(duì)特定系統(tǒng)進(jìn)行有效性評(píng)估,我們與敏感用途相關(guān)的流程有助于我們基于科學(xué)為影響較大的用例提供細(xì)致入微的指導(dǎo)。
這些現(xiàn)實(shí)出現(xiàn)的挑戰(zhàn)促進(jìn)了微軟負(fù)責(zé)任AI標(biāo)準(zhǔn)的發(fā)展,也切實(shí)影響了我們?cè)O(shè)計(jì)、開發(fā)和部署AI的方式。
對(duì)于有意深入研究的人員,我們也提供了支撐負(fù)責(zé)任AI標(biāo)準(zhǔn)的重要資源,包括我們的影響評(píng)估模板和指南,以及一系列透明度說明。微軟已經(jīng)驗(yàn)證了影響評(píng)估的重要性,即影響評(píng)估可以確保團(tuán)隊(duì)在最早期設(shè)計(jì)階段深入探索AI系統(tǒng)可能會(huì)帶來的影響,包括其利益相關(guān)者、預(yù)期益處和潛在危害等。透明度說明采用全新文檔形式,我們?cè)谄渲邢蚩蛻襞读宋覀兊暮诵臉?gòu)建模塊技術(shù)的功能和限制因素,從而為他們提供制定負(fù)責(zé)任部署決策所需的知識(shí)。
微軟負(fù)責(zé)任AI標(biāo)準(zhǔn)以核心原則為基礎(chǔ)
3
融會(huì)貫通多學(xué)科,
不斷更新迭代
我們最新版負(fù)責(zé)任AI標(biāo)準(zhǔn)中采納了微軟不同技術(shù)、專業(yè)領(lǐng)域和地理位置的數(shù)百條意見。這是我們建立負(fù)責(zé)任AI實(shí)踐的重要一步,因?yàn)樗呖刹僮餍院拖嚓P(guān)性:這套標(biāo)準(zhǔn)給出了提前識(shí)別、衡量和減輕系統(tǒng)危害的實(shí)用方法,并要求團(tuán)隊(duì)采取管控措施,從而防止技術(shù)被濫用,以及確保技術(shù)能夠發(fā)揮有益的作用。
雖然制定標(biāo)準(zhǔn)是微軟負(fù)責(zé)任AI之旅的重要一步,但這只是其中一步。我們預(yù)計(jì)在實(shí)施過程中會(huì)遇到各種挑戰(zhàn),可能需要我們暫停下來不斷反思和調(diào)整。我們的標(biāo)準(zhǔn)將作為一份動(dòng)態(tài)文件,不斷加以完善以納入公司內(nèi)外的新研究、新技術(shù)、新法規(guī)以及新的知識(shí)與經(jīng)驗(yàn)。
在全球范圍內(nèi),關(guān)于如何創(chuàng)建具有原則性和可操作性的規(guī)范以確保組織以負(fù)責(zé)任的方式開發(fā)和部署AI的討論層出不窮。我們從這些討論中受益匪淺,也將繼續(xù)為這些討論提供我們的見解。我們認(rèn)為,產(chǎn)業(yè)界、學(xué)術(shù)界、社會(huì)和政府應(yīng)該攜手推動(dòng)前沿技術(shù)的發(fā)展,并相互學(xué)習(xí)。我們需要共同解決開放性研究問題,彌合度異,并創(chuàng)建全新的實(shí)踐、模式、資源和工具。
創(chuàng)建更美好、更公平的未來需要新的AI技術(shù)“護(hù)城墻”。微軟通過制定負(fù)責(zé)任AI標(biāo)準(zhǔn)助力實(shí)現(xiàn)這一目標(biāo),并在整個(gè)公司層面開展勢(shì)在必行的實(shí)踐工作。我們致力于在開展相關(guān)工作過程中保持公開、誠(chéng)實(shí)和透明,以期取得富有意義的進(jìn)展。