似乎沒有足夠的方法使社會和經(jīng)濟體系永久化各種形式的不平等。因為我們已經(jīng)有了使內(nèi)部人員與外部人員保持隔離的機制的自動化:學(xué)校的立法,成本和招生方式,建立在自身之上的長期財富,人們不會質(zhì)疑甚至注意到的個人偏見,習(xí)慣補償模式有利于某些人,而不利于更多人-盡管可能沒有事實理由使他們采用這種方式。(經(jīng)濟101的“市場知道一切”的論點往往是輕而易舉的,有選擇地?zé)o知。)
然而,在我們不遺余力地效忠于效率和生產(chǎn)力的時代,這顯然還不夠。取而代之的是,我們現(xiàn)在有了新的不平等強化層,我坦率地說,這些層級從未打算成為它們正在變成的樣子。并不是說最好的意圖經(jīng)常燃燒到足以使人們走上危險的道路。
人工智能(AI)是適用于所有技術(shù)的新型閃亮玩具,而許多根本沒有的東西。我已經(jīng)看到許多公司在其產(chǎn)品線中添加“ AI”,無論它是否有意義。還有其他公司,其營銷部門或代理機構(gòu)決定將其商品化為真正不是人工智能的商品,但很少有人愿意冒不流行的機會。
今天在:金錢undefined
AI并不意味著真正的廣義智能。在實踐中,它幾乎總是受到一些限制,例如一種稱為機器學(xué)習(xí)的模式識別形式,或者一種基于從現(xiàn)有實踐中得出的一系列規(guī)則的系統(tǒng)。
對于前者,軟件會檢查幾乎所有示例的大量示例,并找到公司大概想要的結(jié)果的內(nèi)在模式。然后,軟件會復(fù)制這些選擇,以消除或至少減少人類的存在。當(dāng)您只需要運行應(yīng)用程序并告訴他們要進行大量工作時,業(yè)務(wù)就會便宜得多。人工智能已經(jīng)成為生活中所有經(jīng)濟方面的常規(guī)特征:雇用和解雇雇員,信用決策,個性化定價(如弗蘭克·諾里斯(Frank Norris)所說的那樣,迅速確定“所有流量將承受的金額”,即《章魚》。
在后者中,人們分析公司中的先前決策并創(chuàng)建一系列規(guī)則,這些規(guī)則應(yīng)導(dǎo)致類似的結(jié)果。同樣,重點在于將過去視為決定未來如何發(fā)生的模型?;谝?guī)則的系統(tǒng)被認(rèn)為是最早,最簡單的AI形式之一。
它也存在于醫(yī)療保健中,據(jù)《華爾街日報》報道,據(jù)報道,現(xiàn)在紐約州正在調(diào)查UnitedHealth Group是否使用一種算法,由于該算法的實施,該算法優(yōu)先考慮較健康的白人患者而不是較病的非裔美國人。