IBM董事長兼首席執(zhí)行官觀點:如何推進可信的人工智能

來源:IBM中國
作者:IBM中國
時間:2023-09-28
3072
人工智能(AI)不僅影響深遠,且事關重大。預計到2030年,AI將提升人類生產力,帶來高達16萬億美元的巨大價值。

dfgdfgd.jpg

人工智能(AI)不僅影響深遠,且事關重大。預計到2030年,AI將提升人類生產力,帶來高達16萬億美元的巨大價值。AI不僅可以推動整體經濟和GDP的大幅增長,還將為那些善用AI的個人和組織帶來前所未有的競爭優(yōu)勢。不僅如此,AI還可以幫助人類應對和解決諸如研發(fā)新藥、改善制造業(yè)及食品生產效率、應對氣候變化等最為緊迫的挑戰(zhàn)。

然而,如所有強大技術一樣,AI也伴隨著潛在的濫用和風險可能。如果無法負責任地部署AI,就有可能產生不利的現實后果——尤其是在一些敏感和安全至上的領域。這是我們必須要克服的嚴峻挑戰(zhàn),也是我們此刻敦促制定政策的領導者要即刻著手制定智慧的監(jiān)管政策的原因。在IBM,我們相信,智慧的監(jiān)管應該基于三個核心原則:

#1需要監(jiān)管的是AI風險,而不是算法

我們應該規(guī)范AI的高風險使用。并非所有AI的使用都具有相同水平的風險,一些AI使用看起來似乎無害,另一些則可能產生深遠的后果,譬如傳播錯誤信息、在貸款決策中引入偏見,或者損害選舉的公正性。由于每個AI應用都是獨一無二的,我們堅信監(jiān)管必須考慮到AI部署的環(huán)境,并且必須確保AI的高風險使用受到更加嚴格的監(jiān)管。事實證明,智慧、精確的監(jiān)管是行之有效的。

#2要讓AI的構建者和部署者擔責而不是免責

我們應該讓構建和部署AI的人承擔責任。盡管監(jiān)管部門發(fā)揮著重要作用,但其他相關方也必須承擔責任。立法應考慮AI構建者和部署者的不同角色,并要求他們在開發(fā)或部署AI的背景下承擔相應責任。例如,使用AI進行就業(yè)決策的公司不能要求豁免就業(yè)歧視的指控。同樣,如果軟件開發(fā)人員構建了一款促進欺詐活動的金融算法,他們就應該對其可能造成的潛在危害負責。讓我們從以往開發(fā)和應用新興技術的錯誤中吸取教訓,并且在創(chuàng)新和責任之間找到恰當的平衡。

#3要支持開放式AI創(chuàng)新,而不是AI許可制度

我們不應該為AI建立許可制度。AI許可制度將對開放式創(chuàng)新造成嚴重打擊,并有可能催生一種左右監(jiān)管的做法。這無意中將會增加成本,阻礙創(chuàng)新,使規(guī)模較小的參與者和開源的開發(fā)人員處于不利地位,并且鞏固少數參與者的市場影響力。相反,AI應該由多數人而不是由少數人且為少數人而構建。一個充滿活力的開放式AI生態(tài)系統(tǒng)有利于競爭、創(chuàng)新、技能和安全,也保證了AI模型的構建代表不同聲音和具有包容性。

IBM堅持倡導和推進負責任的AI

一個多世紀以來,IBM一直站在負責任地引入突破性技術的最前沿。這意味著我們不會在沒有充分了解其后果、且能夠提供必要的護欄和確保有恰當的問責制的情況下,向公眾發(fā)布相關技術。相反,我們認為,解決這些創(chuàng)新帶來的問題與創(chuàng)新本身同樣重要。

我們對于可信和負責任的AI的承諾,體現在我們構建和部署AI模型的方法當中。AI模型本質上反映了支撐該模型的數據,這就是為什么IBM要采用具有整體性的平臺方法,讓AI構建者能夠部署可信且負責任的AI。我們的watsonx平臺可以確保貫穿整個AI生命周期的各個層面和環(huán)節(jié)的治理——從數據攝取到模型開發(fā)、部署和監(jiān)控,幫助企業(yè)部署可信、負責和可靠的AI。

平衡創(chuàng)新與責任信任的關系

AI浪潮能夠且應該載舟。在IBM,我們敦促相關部門采取并實施具有一致性的智慧監(jiān)管,使大大小小的企業(yè)和社會各界都能從當下的AI浪潮當中受益,同時需要解決潛在的濫用與風險問題。IBM已經做好準備——我們致力在促進負責任的AI方面發(fā)揮關鍵性作用,并為構建一個讓所有人都可信賴的AI未來做出我們應有的貢獻!

立即登錄,閱讀全文
原文鏈接:點擊前往 >
文章來源:IBM中國
版權說明:本文內容來自于IBM中國,本站不擁有所有權,不承擔相關法律責任。文章內容系作者個人觀點,不代表快出海對觀點贊同或支持。如有侵權,請聯系管理員(zzx@kchuhai.com)刪除!
優(yōu)質服務商推薦
更多
個人VIP