在面對(duì)災(zāi)難時(shí)保護(hù)公民常常需要做出深遠(yuǎn)的決定。歡迎提供任何幫助,包括來自AI的幫助。
如加利福尼亞和澳大利亞最近發(fā)生的事件所示,野火正日益失去控制。然而,消防員仍在不懈地與火焰搏斗-如今,他們擁有的不僅僅是水和可控制的燒傷。長(zhǎng)期以來,數(shù)字化已經(jīng)以地理信息系統(tǒng),網(wǎng)絡(luò)攝像頭和無人機(jī)的形式成為其武器庫的一部分。這些已成為預(yù)測(cè)和控制野火的關(guān)鍵工具,但是它們產(chǎn)生的大量數(shù)據(jù)迅速將人類的專業(yè)知識(shí)推向了極限。ETH安全研究中心(CSS)的風(fēng)險(xiǎn)與彈性研究團(tuán)隊(duì)負(fù)責(zé)人Benjamin Scharte說:“在處理海量數(shù)據(jù)時(shí),AI總是有用的。” 最近,他和他的同事Kevin Kohler合作分析了AI在民防領(lǐng)域的使用。
“能夠使用算法進(jìn)行預(yù)測(cè)非常令人興奮,”科勒說。消防前沿方向是哪個(gè)方向?我們應(yīng)該在哪里設(shè)置下一個(gè)受控?zé)齻?通過處理所有可用數(shù)據(jù),基于AI的建模工具可以幫助回答這些問題。這些數(shù)據(jù)可能包括天氣預(yù)報(bào),干旱持續(xù)時(shí)間,風(fēng)向,甚至包括潛在的火源燃料。由此產(chǎn)生的預(yù)測(cè)可以使災(zāi)難響應(yīng)更加有效。在最佳情況下,它們甚至可以作為一種預(yù)防手段。
民事保護(hù)對(duì)使用AI尤其敏感,因?yàn)樗?jīng)常是生死攸關(guān)的問題,而且每一分鐘都很重要。通常希望專家做出具有深遠(yuǎn)影響的快速?zèng)Q策,因此,他們感謝能夠以更可靠的數(shù)據(jù)為基礎(chǔ)做出決策的任何幫助。但是,最終,決策的質(zhì)量始終取決于數(shù)據(jù)的質(zhì)量??评崭嬲]說:“無論我的算法多么聰明,如果我不能為災(zāi)難提供正確的數(shù)據(jù),在緊急情況下它都將毫無用處。”
即使是最高質(zhì)量的數(shù)據(jù)也無法完全取代多年來專家獲得的經(jīng)驗(yàn),因此,由人還是由機(jī)器做出最終決定的問題非常復(fù)雜??傮w上講,該算法可能比人類算法產(chǎn)生的經(jīng)濟(jì)損失更低或人員傷亡更少,但它也可能在個(gè)別情況下做出我們認(rèn)為不可接受的決策。沙特說:“對(duì)我而言,很明顯,作為一個(gè)社會(huì),我們將繼續(xù)為將決策權(quán)留給自主機(jī)器而苦苦掙扎。”
信任的問題
那么,在什么時(shí)候我們?cè)敢庾寵C(jī)器做出自己的決定?沙特(Scharte)和科勒(Kohler)同意這取決于上下文:“民事保護(hù)有時(shí)是生死攸關(guān)的問題。人類應(yīng)該在做出這些決定中發(fā)揮作用-這不是機(jī)器做出完全自主決定的地方。”
一個(gè)關(guān)鍵因素是人們對(duì)算法有多少信心。信任為接受鋪平了道路,當(dāng)我們能夠清楚地了解算法在做什么時(shí),兩者都會(huì)得到增強(qiáng)。例如,當(dāng)醫(yī)生了解算法的決策邏輯時(shí),他們更有可能信任該算法并將其納入其工作中。大量研究已經(jīng)證實(shí)了這一點(diǎn),但是Scharte發(fā)出警告:“透明度和可解釋性并不總能提高安全性。” 甚至在某些情況下,透明性可能是不利的,包括人為危害,例如網(wǎng)絡(luò)犯罪和恐怖主義。“如果您確切地揭示算法 察覺到可疑的行為模式,那么敵對(duì)行動(dòng)者更有可能故意超過行為。”沙特警告說。