皮尤研究中心最近的一項(xiàng)研究發(fā)現(xiàn),大多數(shù)專(zhuān)家和倡導(dǎo)者擔(dān)心人工智能將繼續(xù)專(zhuān)注于優(yōu)化利潤(rùn)和社會(huì)控制,并且不太可能在未來(lái)十年內(nèi)建立道德基礎(chǔ)。在今年早些時(shí)候的一項(xiàng)學(xué)術(shù)研究中,康奈爾大學(xué)和賓夕法尼亞大學(xué)的研究人員發(fā)現(xiàn),三分之二的機(jī)器學(xué)習(xí)研究人員表示,人工智能安全應(yīng)該比現(xiàn)在更重要。他們還發(fā)現(xiàn),當(dāng)人工智能得到聯(lián)合國(guó)或等現(xiàn)有國(guó)際機(jī)構(gòu)的支持時(shí),人們?cè)敢庑湃稳斯ぶ悄堋?/p>
其中一些擔(dān)憂是基于早期的人工智能模型,這些模型表現(xiàn)出無(wú)意的偏見(jiàn)。例如,Twitter 選擇性裁剪圖像預(yù)覽的算法顯示出對(duì)某些群體的明顯偏見(jiàn)(Twitter 后來(lái)獨(dú)立評(píng)估了該算法并決定將其刪除)。不僅在計(jì)算機(jī)視覺(jué)中,而且在機(jī)器學(xué)習(xí)的幾乎所有領(lǐng)域都發(fā)現(xiàn)了類(lèi)似的偏見(jiàn)。
我們已經(jīng)看到最近幾次嘗試緩解此類(lèi)問(wèn)題。比如去年,國(guó)防部發(fā)布了五項(xiàng)人工智能原則,建議人工智能技術(shù)應(yīng)該是負(fù)責(zé)任的、公平的、可追溯的、可靠的和可治理的。谷歌、Zendesk和微軟也發(fā)布了指導(dǎo)方針,提供了一個(gè)框架來(lái)實(shí)現(xiàn)圍繞道德 AI 開(kāi)發(fā)的雄心勃勃的目標(biāo)。這些都是很好的起點(diǎn)。
道德人工智能仍處于起步階段,但對(duì)于公司采取行動(dòng)來(lái)說(shuō)變得越來(lái)越重要。我的團(tuán)隊(duì)從第一原則的角度研究了道德 AI,并通過(guò)其他參與者的研究對(duì)其進(jìn)行了擴(kuò)充。我們?cè)陂_(kāi)發(fā)自己的道德 AI 框架時(shí)提出了這些原則,并希望它們對(duì)其他團(tuán)隊(duì)有所幫助:
1. 闡明您要解決的問(wèn)題并確定潛在的偏見(jiàn)
開(kāi)發(fā)合乎道德的 AI 的第一步是明確闡明您要解決的問(wèn)題。例如,如果您正在開(kāi)發(fā)信用評(píng)分算法,請(qǐng)準(zhǔn)確概述您希望您的算法確定申請(qǐng)人的哪些內(nèi)容,并突出顯示可能無(wú)意導(dǎo)致偏見(jiàn)的任何數(shù)據(jù)點(diǎn)(例如,基于某人居住地的種族混雜因素) . 這也意味著了解工程師或產(chǎn)品經(jīng)理可能存在的任何隱性偏見(jiàn),并確保這些偏見(jiàn)不會(huì)被寫(xiě)入代碼。在設(shè)計(jì)階段識(shí)別偏見(jiàn)的一種方法是從一開(kāi)始就讓具有不同觀點(diǎn)的團(tuán)隊(duì)成員參與進(jìn)來(lái),無(wú)論是在他們的業(yè)務(wù)職能(例如法律、產(chǎn)品和營(yíng)銷(xiāo))方面,還是在他們自己的經(jīng)驗(yàn)和背景方面。
2. 了解您的基礎(chǔ)數(shù)據(jù)集和模型
一旦您闡明了問(wèn)題并確定了潛在的偏差,您應(yīng)該通過(guò)灌輸過(guò)程來(lái)衡量數(shù)據(jù)集的多樣性和跨感興趣組的模型性能來(lái)定量研究偏差。這意味著對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行采樣以確保它公平地代表感興趣的組,并按這些感興趣的組分割模型性能以確保您不會(huì)看到某些組的性能下降。例如,在開(kāi)發(fā)計(jì)算機(jī)視覺(jué)模型(如情感檢測(cè)算法)時(shí),問(wèn)問(wèn)自己:它們對(duì)男性和女性是否同樣有效?適合各種膚色和年齡?了解數(shù)據(jù)集的構(gòu)成以及可能在培訓(xùn)或生產(chǎn)中無(wú)意引入的任何偏差至關(guān)重要。
3. 透明且平易近人
人工智能團(tuán)隊(duì)還應(yīng)該尋求更好地理解他們的人工智能模型,并與正確的利益相關(guān)者透明地分享這種理解。這可能有多個(gè)維度,但應(yīng)主要關(guān)注您的 AI 模型能做什么和不能做什么,以及它們所基于的基礎(chǔ)數(shù)據(jù)集??紤]一個(gè)內(nèi)容推薦系統(tǒng):在向客戶提供相關(guān)推薦之前,您能否闡明它需要多少信息?如果有的話,采取了哪些步驟來(lái)減輕觀點(diǎn)的放大和用戶體驗(yàn)的同質(zhì)化?您對(duì)正在構(gòu)建的底層 AI 技術(shù)了解得越多,就越能在內(nèi)部向用戶和其他團(tuán)隊(duì)透明地解釋它們。谷歌用模型卡提供了一個(gè)很好的例子 — 對(duì)其 AI 模型的簡(jiǎn)單解釋?zhuān)枋瞿P秃螘r(shí)工作最佳(以及何時(shí)無(wú)效)。