微軟的AI倫理委員會幫助制定了國防部的內部合同政策,如果不是日本領導層,G20成員國就不會通過AI倫理原則。根據一項案例研究,該案例研究了本周微軟,OpenAI和OECD的項目。
加州大學伯克利分校長期網絡安全中心(CLTC)案例研究于周二發(fā)布,研究了組織如何將AI倫理原則付諸實踐。道德原則通常是措辭含糊的規(guī)則,可能難以轉化為工程師或其他一線工人的日常實踐。CLTC研究員Jessica Cussins Newman告訴VentureBeat,許多AI倫理和治理辯論更多地將重點放在需要的內容上,而不是在實現(xiàn)原則所載目標所需的實踐和政策上。
該研究的重點是OpenAI推出的GPT-2;經合組織和二十國集團采用人工智能原則;并在Microsoft創(chuàng)立了AI,道德和工程與研究效果(AETHER)委員會。經合組織政策觀察站于2月啟動,旨在幫助36個成員國將原則轉化為實踐。紐曼說,該案例研究包括以前未公開的有關微軟AETHER委員會和七個內部工作組的結構及其在確定政策(例如在美國聯(lián)邦監(jiān)獄中使用面部識別)的作用的信息。
案例研究中的一個新內容是20國集團如何以及為什么認可與OECD原則相同的AI倫理原則。經合組織(OECD)創(chuàng)造了世界民主國家去年采納的第一項道德原則。
該研究發(fā)現(xiàn),人工智能治理自2016年以來已經歷了三個階段:近年來,科技公司和政府發(fā)布了約85項道德準則,這標志著第一階段,隨后圍繞隱私,人為控制,可解釋性和公平性等主題達成了共識。第三階段始于2019年,一直持續(xù)到今天,正在將原則轉化為實踐。在第三階段,她認為采用原則的企業(yè)和國家將面臨信守諾言的壓力。
該報告寫道:“幾乎所有AI利益相關者目前都面臨著有關如何實施AI原則和策略的決策,并且正在以一種有意義的方式來確定實踐和政策。”“人工智能公司和組織采取實施工作的壓力越來越大,那些被認為偏離既定意圖的行為者可能會受到員工,用戶和公眾的強烈反對。今天就如何大規(guī)模實施AI原則而做出的決定將對未來數(shù)十年產生重大影響,并且AI利益相關者有機會學習現(xiàn)有的努力,并采取具體步驟來確保AI幫助我們建立更美好的未來。”
該案例研究的部分編制是通過與每個組織的領導人進行訪談,包括微軟首席科學家埃里克·霍維茨和經合組織的工作人員。
由于組織,技術和法規(guī)上的鎖定效應,紐曼認為,像Microsoft和OECD那樣的早期努力將特別有影響力,并且越來越多的AI倫理原則通用性“將導致建立確保AI原則和方法的方法的壓力越來越大。策略得以實現(xiàn)。”
紐曼強調,每個案例都可以提供經驗教訓,例如AETHER如何說明自上而下的道德領導的需求,盡管每種方法可能都不是其他組織復制的理想模型。
例如,OpenAI面臨研究人員的壓制,他們稱9個月內發(fā)布GPT-2是PR特技或背叛了同行評審的核心科學過程,但Newman認為OpenAI值得鼓勵,因為它鼓勵開發(fā)人員考慮發(fā)布APT的倫理意義。模型。她指出,承認和陳述人工智能系統(tǒng)的社會影響還不是常態(tài)。今年以來,全球最大的AI研究會議NeurIPS首次要求作者解決對社會的影響以及任何金融利益沖突。
該研究還匯編了一系列將原則付諸實踐的最新舉措,包括框架,監(jiān)督委員會和工具,例如IBM的可解釋AI工具包和Microsoft的InterpretML,以及隱私法規(guī),例如加利福尼亞的CCPA和歐盟的GDPR。
上個月,來自Google和OpenAI等組織的一系列AI研究人員建議組織實施偏見懸賞或創(chuàng)建第三方審計市場,以將道德原則轉化為實踐,創(chuàng)建更強大的系統(tǒng),并確保AI仍對人性。3月,Microsoft Research負責人與AETHER和來自十幾個組織的近50位工程師一起,發(fā)布了針對AI從業(yè)人員的AI倫理清單。