機器學習的頭條新聞承諾神似的預測能力。這是四個示例:新聞周刊:“AI可以判斷您是否是同性戀:人工智能可以通過一張照片以驚人的準確性預測性生活”旁觀者:“語言分析可以準確預測精神病”
每日郵報:“由AI驅(qū)動的掃描可以提前十年識別出可能致命的心臟病的人……”下一個網(wǎng)站:“這個可怕的AI已經(jīng)學會了如何從他們的臉上挑選罪犯”
通過這些文章,新聞界將使您相信機器學習可以可靠地預測您是否是同性戀,是否會患上精神病,是否會心臟病發(fā)作以及是否是犯罪分子以及其他雄心勃勃的預測,例如您何時死亡以及您的未出版書籍是否會暢銷。
都是騙人的機器學習無法自信地告訴每個人這樣的事情。在大多數(shù)情況下,很難確定這些事情。
謊言的運作方式如下。研究人員報告了很高的“準確性”,但后來發(fā)現(xiàn)-埋在技術論文的細節(jié)中-他們實際上是在濫用“準確性”一詞來表示與準確性相關的另一種性能度量,但實際上并沒有那么令人印象深刻。
但是新聞界對此表示贊同。該計劃一次又一次地成功地使媒體蒙蔽了頭腦,并產(chǎn)生了誤導性的公然宣傳手段。
現(xiàn)在,不要誤會我的意思;機器學習的確值得高度贊揚。即使在大多數(shù)情況下都沒有很高的置信度,也比隨機猜測更好地進行預測的能力可改善各種業(yè)務和醫(yī)療保健流程。那是污垢。并且,在某些有限的區(qū)域中,機器學習可以提供驚人的高性能,例如用于識別照片中的交通信號燈之類的對象或從醫(yī)學圖像識別某些疾病的存在。
但是,在其他情況下,研究人員錯誤地宣傳高性能。參加斯坦福大學臭名昭著的“蓋達爾”研究。在2018年報告的開篇摘要中,它的預測模型將男同性戀和異性戀男性與面部圖像區(qū)別開來的準確性達到了91%。這激發(fā)了記者播報夸大其詞。上面強調(diào)的“新聞周刊”文章以“人工智能現(xiàn)在可以通過分析您的臉部圖片來判斷您是同性戀還是異性戀而開始”。
這種欺騙性的媒體報道是可以預期的。研究人員的開篇聲明已隱含地傳達給了讀者,非技術記者甚至是臨時技術讀者,該系統(tǒng)可以告訴誰是同性戀,誰不是同性戀,通常對此是正確的。