近年來,在測量機器學習的偏見方面存在一個估計。我們現在知道,這些“無偏見”的自動化工具實際上并非沒有偏見,并且越來越多的要求研究人員在將其產品釋放給社會之前考慮他們的產品可能如何破壞或危害他人的生命。但是,這不僅是我們應該擔心的最終產品,而且還涉及構建它們的后果。訓練這些算法實際上會毒害我們的星球。
隨著世界在Facebook飼料和后院中燃燒,即使是最無害的東西的碳足跡也正在受到審查。它引發(fā)了有關空調設備,吸管,面部磨砂膏,塑料袋,航空旅行的辯論。但是,也有一些世俗的系統(tǒng)無法察覺地統(tǒng)治著我們的生活,并助長了氣候變化,例如垃圾郵件過濾器,翻譯服務,搜索引擎關鍵字和智能助手。
這些服務的基礎稱為自然語言處理(NLP),這是人工智能的一個分支,旨在教機器如何理解人類語言的細微差別。以有價值的方式訓練這些語言模型需要大量的計算能力和電力。僅僅使用由該技術提供支持的工具并不能引起全世界的關注(無需抵制自動更正),但是,如果工業(yè)界和學術界不采取更環(huán)保的做法,那么教給這些工具背后的大腦可能會造成真正的環(huán)境破壞。
“我們希望就我們這個社區(qū)如何開始思考效率而不僅僅是以越來越高的準確性開始思考的對話,”最近關于環(huán)境后果的論文的合著者Ananya Ganesh深度學習,告訴我。Ganesh是馬薩諸塞州阿默斯特大學的一組研究人員之一,該研究組于6月發(fā)表了一篇論文,研究了這些模型對環(huán)境的影響。研究發(fā)現,僅訓練一種AI模型產生的二氧化碳當量就相當于五輛普通美國汽車的終身排放量。
這些發(fā)現在AI專家社區(qū)中存在分歧。它僅探討了如何訓練AI模型的一個非常具體的示例,大多數機器學習研究人員不一定都使用該模型-從頭開始訓練。仍然有一個基本共識,即人們迫切需要關注機器學習對氣候變化的貢獻。
魁北克市Mila AI研究所的博士后研究員Sasha Luccioni致力于開發(fā)這種工具,以幫助AI研究人員估算其機器學習模型的碳足跡。她承認,馬薩諸塞州大學的論文有些微不足道,因為與研究中使用的場景不同,“很少有人”從頭開始訓練他們的模型,現在很多培訓是使用諸如例如Google,Amazon和Microsoft,它們大多數都是碳中和或正在向碳中和。但是盧奇奧尼(Luccioni)告訴我,這項研究是圍繞能源效率和AI進行重要對話的重要途徑。她說:“重要的是要討論這些問題,并將其作為標準對話的一部分進行。”