麻省理工學院最近的人工智能和未來工作會議上的幾位發(fā)言人說,人們談論由于人工智能(AI)和自動化而改變工作和工作方式的方式通常與現(xiàn)實不符。
在有關AI技術神話的小組討論中,許多演講者討論了AI如何無法僅僅完成人們所做的所有事情,以及人們?nèi)绾纬蔀檎陂_發(fā)的新流程的組成部分。
Jobcase首席執(zhí)行官Fred Goff表示,我們有機會利用AI來“真正賦予人們權力”,而不僅僅是使用AI代替工人或任務。
高夫說,在過去的半個世紀中,技術一直在取代工作,最大的問題是工資停滯和就業(yè)不足。我們應該理解,人工智能和自動化可以完成任務,而不是工作,因此它們不能替代人類可以做的一切。高夫說,我們應該考慮“機器與人而不是機器或人”。
Goff指出的另一個問題是,我們認為人類在利用機器學習(ML)或AI來獲得正確答案時已經(jīng)正確構造了問題。他談到了人們?nèi)绾位〞r間適應新任務。他還談到了機器如何不必圍繞決策來處理所有輸入。例如,戈夫(Goff)談到了如何在人力資本和人才獲取中使用人工智能,他擔心此類系統(tǒng)往往會為找到工作而解決,而不是留住最優(yōu)秀的人才。?這些系統(tǒng)可能存在隱性偏見,他們傾向于查看潛在員工是否適合該公司的這份工作,而不是弄清楚該員工最適合與哪個團隊合作。他“害怕我們可能正在解決錯誤的問題”。
麻省理工學院的航空與航天系副教授朱莉·沙(Julie Shah)說,一個誤解是,我們只能根據(jù)已有的數(shù)據(jù)對因素進行自動設置。她在工廠車間花了很多時間,看著同事練習如何建立新模型。
她說:“我們不知道如何以最佳方式建立生產(chǎn)線。”這就是為什么“熄燈”的工廠沒有表現(xiàn)出改善的原因。取而代之的是,人類不斷在不斷變化的條件基礎上不斷迭代該過程,這一過程更為成功。摹卷板機前,系統(tǒng)需要了解我們,而我們需要了解系統(tǒng)行為。
莎阿(Shah)說,人類為決策帶來了如此多的知識和背景,以至于很難加以整理甚至描述。她指出,在當今的許多模型中,解釋決策通常是有問題的。相反,Shah建議使用“領域?qū)<?rdquo;來指導計算機的推理過程,從而幫助確定隱式想法和優(yōu)先級。
戈夫(Goff)和沙阿(Shah)都認為,人工智能不應該決定結果,而是可以最好地用作人類決策的眾多工具之一。
高夫說:“再培訓和再培訓并不意味著人們需要坐在計算機和代碼前面。”他指出,人們經(jīng)常談論對煤礦工人進行再培訓,以使其掌握編碼和類似想法。相反,他說,我們需要為人們提供廣泛的專上教育,但我們應該認識到“并非每個人都需要上大學”。他說,對諸如焊接和水管工等行業(yè)的人有很大的需求,他想知道“微型認證”是否有更大的機會。
Adobe Sensei工程部副總裁Scott Prevost堅稱,今天的AI實際上是在“賦予工人力量”,通過使人們必須要做但不想做的事情自動化來擴大創(chuàng)意者的體驗。74%的Adobe客戶表示,他們花費了一半的時間來執(zhí)行重復的非創(chuàng)意性任務。
Prevost期待有創(chuàng)意的助理和市場營銷的助理,以幫助您完成整個工作流程。他說,“創(chuàng)意人”和營銷人員不會消失,但是他們的角色可能會發(fā)生變化。創(chuàng)意者將更多地成為藝術總監(jiān),而不是進行精細的制作。結果,重點將轉移到解決創(chuàng)造性問題,創(chuàng)新和良好協(xié)作上。