0
本文作者: 嫣然 | 2017-11-21 10:26 |
雷鋒網(wǎng)按:人工智能在當(dāng)今社會(huì)被討論的如此火熱,但是仔細(xì)一想,你可能甚至并不知道它的基本運(yùn)行邏輯。
人工智能和機(jī)器學(xué)習(xí)是一回事嗎?人工智能是不是能解決所有的問(wèn)題?如果不是的話(huà),人工智能到底能解決哪些問(wèn)題?又怎樣區(qū)分這些問(wèn)題?對(duì)人工智能來(lái)說(shuō),哪些事情是真正困難的?人工智能給社會(huì)到底帶來(lái)了哪些挑戰(zhàn)?
日前Medium知名博主Yonatan Zunger發(fā)布了關(guān)于人工智能的深度長(zhǎng)文,可以說(shuō)是一篇不可多得的、深度與趣味性俱佳的最佳科普。雷鋒網(wǎng)在不改變?cè)獾那闆r下為您做如下編譯:
在過(guò)去的幾年里,我們一直在討論人工智能(AI)將如何拯救或摧毀世界:自駕車(chē)有利于保護(hù)我們的生命;社交媒體泡沫將破壞民主;機(jī)器烤面包機(jī)會(huì)讓人類(lèi)連烤面包的能力都喪失。
你可能很清楚,這其中的一些是無(wú)稽之談,一些是真實(shí)的。但是,如果你沒(méi)有深入地沉浸在這個(gè)領(lǐng)域,可能很難分辨孰真孰假。雖然對(duì)于想要學(xué)習(xí)人工智能編程的人來(lái)說(shuō),互聯(lián)網(wǎng)上有大把的啟蒙教程,但對(duì)于不想成為軟件工程師或者數(shù)據(jù)專(zhuān)家的人來(lái)說(shuō),卻缺乏對(duì)于人工智能的概念的了解,以及它所面臨的社會(huì)上和倫理學(xué)上的挑戰(zhàn)。
如果全社會(huì)真的要討論人工智能,我們就需要解決這個(gè)問(wèn)題。所以今天我們要談?wù)勅斯ぶ悄艿默F(xiàn)實(shí):它能做什么,不可能做什么,未來(lái)可能可以做些什么,以及它帶來(lái)的一些社會(huì)、文化和道德方面的挑戰(zhàn)。我不會(huì)涵蓋每一個(gè)可能的挑戰(zhàn);其中的一些,譬如泡沫和虛假信息,大的需要一整篇文章來(lái)解釋。但是,我會(huì)給你們足夠的例子說(shuō)明我們所面臨的真正的問(wèn)題,你們就能夠獨(dú)立提出自己的問(wèn)題。
我先給大家劇透一下:大多數(shù)最難的挑戰(zhàn)不是來(lái)自于技術(shù)。人工智能最大的挑戰(zhàn)往往始于,它迫使我們編程時(shí)不得不非常明確地表達(dá)我們的目標(biāo),幾乎沒(méi)有別的事情會(huì)這樣——而有的時(shí)候,我們并不想對(duì)自己說(shuō)實(shí)話(huà)。
在寫(xiě)這篇文章時(shí),我將或多或少地使用術(shù)語(yǔ)“人工智能”(AI)和“機(jī)器學(xué)習(xí)”(ML)。這兩個(gè)術(shù)語(yǔ)意味著幾乎相同的東西,原因很愚蠢:因?yàn)閺臍v史上來(lái)說(shuō),“人工智能”差不多被定義為“任何電腦還無(wú)法做到的事情”。多年來(lái)人們爭(zhēng)辯說(shuō),下象棋需要真正的人工智能,模擬對(duì)話(huà)需要真正的人工智能,或者識(shí)別圖像需要真正的人工智能;每次這些事情實(shí)現(xiàn)了一個(gè),人工智能的邊界又隨之移動(dòng)。 “人工智能”這個(gè)詞語(yǔ)太可怕了,它與我們?nèi)祟?lèi)定義自己的方式以及那些讓人類(lèi)與眾不同的東西靠的太近。所以在某些時(shí)候,專(zhuān)業(yè)人士會(huì)使用“機(jī)器學(xué)習(xí)”這個(gè)術(shù)語(yǔ)來(lái)進(jìn)行整個(gè)對(duì)話(huà),然后就卡住了。如果我只是談?wù)摗皺C(jī)器學(xué)習(xí)”,聽(tīng)起來(lái)會(huì)顯得特別機(jī)械——因?yàn)榧词故菍?zhuān)業(yè)人士,也總是更多的在談?wù)撊斯ぶ悄堋?nbsp;
那么讓我們先來(lái)談?wù)剻C(jī)器學(xué)習(xí)或人工智能到底是什么。從最嚴(yán)格的意義上說(shuō),機(jī)器學(xué)習(xí)是“預(yù)測(cè)統(tǒng)計(jì)學(xué)”領(lǐng)域的一部分,就是建立一個(gè)系統(tǒng),它能夠獲取過(guò)去發(fā)生的事情的信息,并且利用這些建立一個(gè)關(guān)于相關(guān)環(huán)境的某種模型,用來(lái)預(yù)測(cè)在其他情況下可能發(fā)生的事情。簡(jiǎn)單來(lái)說(shuō)就像“當(dāng)我把車(chē)輪轉(zhuǎn)向左邊,車(chē)子也往左轉(zhuǎn)”那樣簡(jiǎn)單,往難來(lái)說(shuō),就像試圖了解一個(gè)人的整個(gè)生活和品味一樣復(fù)雜。
您可以使用這張圖片來(lái)了解每個(gè)AI的功能:
有一個(gè)可以感知世界的傳感器系統(tǒng)(sensor) —— 這些系統(tǒng)可以是從攝像機(jī)和LIDAR到查看文檔的網(wǎng)絡(luò)爬蟲(chóng)的任何東西。還有一些其他的系統(tǒng)適用于這個(gè)環(huán)境,比如開(kāi)車(chē),或者按照分類(lèi)顧客展示廣告。有時(shí)候,這個(gè)系統(tǒng)是一臺(tái)機(jī)器,有時(shí)候是一個(gè)人,他必須根據(jù)一些很復(fù)雜或者太大的事情做出決定,一下子又思考不了那么多—— 比如說(shuō)整個(gè)互聯(lián)網(wǎng)的內(nèi)容。
要把兩者聯(lián)系起來(lái),你需要一個(gè)盒子,能夠提取對(duì)這個(gè)世界的認(rèn)知,并且提出一些建議,告訴你如果采取各種行動(dòng),可能會(huì)發(fā)生什么。中間那個(gè)盒子叫做“模型(Model)”,就好比一個(gè)“這個(gè)世界是如何工作的模型”,那個(gè)盒子就是人工智能的一部分。
上面的圖表中還有一些別的的單詞,如果你聽(tīng)專(zhuān)業(yè)人士討論AI時(shí)你可能會(huì)聽(tīng)到它們。 “特征(Feature)”只是對(duì)原始認(rèn)知的一些升華,包括模型的設(shè)計(jì)者認(rèn)為有用的那部分認(rèn)知。在有些AI系統(tǒng)中,特征只是原始的認(rèn)知—— 例如,攝像機(jī)的每個(gè)像素所看到的顏色。如此大量的特征對(duì)于AI來(lái)說(shuō)是有益的,因?yàn)樗粫?huì)對(duì)什么重要什么不重要有任何先入之見(jiàn),但是又使得AI本身更難構(gòu)建;僅僅在過(guò)去的十年左右,建立足夠大的計(jì)算機(jī)來(lái)處理這個(gè)問(wèn)題才變得可能。
“預(yù)測(cè)(Prediction)”就是另一端會(huì)產(chǎn)生的結(jié)果:當(dāng)你給模型展示一些特征時(shí),它通常會(huì)給你一堆可能的結(jié)果,以及它對(duì)每個(gè)結(jié)果的可能性的最佳理解。如果你想讓一個(gè)人工智能做出決定,那么就應(yīng)用一些規(guī)則 —— 例如,“挑選最有可能成功的人”,或者“挑選最不可能導(dǎo)致災(zāi)難性失敗的人”。對(duì)系統(tǒng)而言,權(quán)衡可能的成本和收益,重要性不亞于模型本身。
現(xiàn)在,你可以想象一個(gè)非常簡(jiǎn)單的“模型”,它給出了針對(duì)用途的具體規(guī)則:例如,舊蒸汽機(jī)上的機(jī)械調(diào)節(jié)閥是一種簡(jiǎn)單的“模型”,一端讀取壓力,如果這個(gè)壓力超過(guò)某個(gè)設(shè)定點(diǎn)推桿,它會(huì)打開(kāi)一個(gè)閥門(mén)。這是一個(gè)簡(jiǎn)單的規(guī)則:如果壓力高于設(shè)定值,打開(kāi)閥門(mén);否則,關(guān)閉閥門(mén)。
這個(gè)閥門(mén)非常簡(jiǎn)單,因?yàn)樗恍枰獏⒖家粋€(gè)輸入,并做出一個(gè)決定。如果它必須依賴(lài)于成千上萬(wàn)甚至數(shù)百萬(wàn)輸入的信息來(lái)決定一些更復(fù)雜的東西——比如如何控制一輛汽車(chē)(取決于你的所有視覺(jué),聽(tīng)覺(jué)等等),或者哪個(gè)網(wǎng)頁(yè)可以給你關(guān)于樹(shù)袋熊養(yǎng)殖的問(wèn)題提供最好的答案(這取決于你是一時(shí)興起還是專(zhuān)業(yè)的脊椎動(dòng)物爭(zhēng)論者,以及該網(wǎng)站是由愛(ài)充滿(mǎn)激情的愛(ài)好者所創(chuàng)辦,還是只是想賣(mài)給你廉價(jià)的樹(shù)袋熊壯陽(yáng)藥)——你會(huì)發(fā)現(xiàn)這個(gè)比較很不簡(jiǎn)單,有數(shù)百萬(wàn),甚至數(shù)千萬(wàn)信息需要決定。
AI模型的特別之處在于們是專(zhuān)門(mén)為此而設(shè)計(jì)的。在任何人工智能模型里面都有一系列的規(guī)則來(lái)綜合所有特征,每一個(gè)特征都依賴(lài)于數(shù)百數(shù)千甚至數(shù)百萬(wàn)個(gè)單獨(dú)的按鈕,告訴它在不同情況下如何權(quán)衡每個(gè)特征的重要性。例如,在一種叫做“決策樹(shù)”的人工智能模型中,模型看起來(lái)像是一個(gè)關(guān)于Yes/No問(wèn)題的巨樹(shù)。如果人工智能的工作是從三文魚(yú)中分出金槍魚(yú),那么第一個(gè)問(wèn)題可能是“圖像的左半部分比右半部分更暗”,而最后一個(gè)問(wèn)題大概是“根據(jù)之前的374個(gè)問(wèn)題的答案,這個(gè)正方形中的平均顏色是橙色還是紅色?“這里的“按鈕”是詢(xún)問(wèn)問(wèn)題的順序,以及每個(gè)問(wèn)題的”是“和”否“之間的界限是什么。
魔法在于:不可能找到一個(gè)能夠可靠地分辨鮭魚(yú)和金槍魚(yú)的正確問(wèn)題組合。有太多了。所以,一開(kāi)始時(shí),AI運(yùn)行在“訓(xùn)練模式”。AI被展示一個(gè)又一個(gè)的例子,每次調(diào)整它的旋鈕,以便更好地猜測(cè)接下來(lái)會(huì)發(fā)生什么,在每次錯(cuò)誤之后自我糾正。它所看到的例子越多,不同例子越多,它從偶然性中找到關(guān)鍵的能力就越強(qiáng)。一旦它被訓(xùn)練,旋鈕的值是固定的,模型可以連接到真正的執(zhí)行器使用。
ML模型對(duì)比人類(lèi)做同樣任務(wù)的優(yōu)勢(shì)不是速度;一個(gè)ML模型通常需要幾毫秒來(lái)作出決定,人大概也需要這么多時(shí)間。 (你在開(kāi)車(chē)的時(shí)候一直如此)。他們的真正優(yōu)勢(shì)是,他們不會(huì)覺(jué)得無(wú)聊或分心:一個(gè)ML模型可以在不同的數(shù)據(jù)片斷上連續(xù)做數(shù)百萬(wàn)或數(shù)十億次決定,既不會(huì)把數(shù)據(jù)弄得更好也不會(huì)更糟。這意味著你可以將它們應(yīng)用于人類(lèi)不擅長(zhǎng)的問(wèn)題——比如為單個(gè)搜索排名數(shù)十億的網(wǎng)頁(yè),或駕駛汽車(chē)。
人類(lèi)駕駛汽車(chē)非常糟糕,2015年僅美國(guó)就有35,000人因車(chē)禍死亡。這些車(chē)禍中的絕大多數(shù)是由于分心或駕駛員失誤造成的——人們通常做得很好,但在某一次關(guān)鍵時(shí)刻卻失誤了。駕駛需要巨大的專(zhuān)注和快速反應(yīng)能力,你可能認(rèn)為也可以做到,但糟糕的是,它需要這種能力持續(xù)保持幾個(gè)小時(shí),事實(shí)證明,我們實(shí)際上做不到。)
當(dāng)某個(gè)人談?wù)撛陧?xiàng)目中使用AI時(shí),他們的意思是將項(xiàng)目分解成上面繪制的圖,然后構(gòu)建正確的模型。這個(gè)過(guò)程首先收集訓(xùn)練的例子,這通常是最困難的任務(wù);然后選擇模型的基本形狀(即“神經(jīng)網(wǎng)絡(luò)”,“決策樹(shù)”等),這些都是針對(duì)不同問(wèn)題的基本模型),并進(jìn)行訓(xùn)練;然后,最重要的是弄清楚什么是壞的,并對(duì)其進(jìn)行調(diào)整。
例如,看下面的六張圖片,找出前三張和后三張的關(guān)鍵區(qū)別:
如果你猜“前三張都有地毯”,那么你猜對(duì)了!當(dāng)然,如果你猜前三張是灰貓的照片,后面三張是白貓的照片,你也是對(duì)的。
但如果您使用這些圖像來(lái)訓(xùn)練您的灰貓?zhí)綔y(cè)器,那么當(dāng)模型嘗試對(duì)您的訓(xùn)練圖片進(jìn)行評(píng)分時(shí),您可能會(huì)獲得優(yōu)異的表現(xiàn),但在現(xiàn)實(shí)工作中這模型表現(xiàn)會(huì)很糟糕,因?yàn)槟P蛯?shí)際學(xué)到的是“灰貓就是地毯上一些類(lèi)似貓形狀的東西?!?/p>
當(dāng)你的模型學(xué)習(xí)到了訓(xùn)練數(shù)據(jù)的特質(zhì),但卻不是你真正關(guān)心的東西的時(shí)候,這叫做“過(guò)擬合”。構(gòu)建ML系統(tǒng)的人大部分時(shí)間都在擔(dān)心這個(gè)問(wèn)題。
現(xiàn)在我們已經(jīng)談?wù)摿薃I(或ML)是什么,接著讓我們來(lái)談?wù)勊烤故怯杏眠€是無(wú)用。
如果你想要實(shí)現(xiàn)的目標(biāo)和實(shí)現(xiàn)這些目標(biāo)的手段都能夠很好的理解,這種問(wèn)題就不需要人工智能。 例如,如果您的目標(biāo)是“將車(chē)輪上的所有螺母擰緊到100英尺磅”,你只需要一個(gè)能夠擰緊和測(cè)量扭矩的機(jī)構(gòu),并在扭矩達(dá)到100時(shí)停止擰緊。這稱(chēng)為“扭矩扳手”,如果有人給你提供一個(gè)人工智能的扭矩扳手,你要問(wèn)他們的第一個(gè)問(wèn)題是我為什么需要這個(gè)。 這些降低了AI的閾值,你需要的只是一個(gè)簡(jiǎn)單的機(jī)制。
人工智能能幫助解決的問(wèn)題是:目標(biāo)是明確的,但實(shí)現(xiàn)目標(biāo)的手段不明確。在以下情況最容易解決:
可能的外部刺激的數(shù)量是有限的,所以模型能夠了解它們
你必須控制的事物數(shù)量是有限的,所以你不需要考慮過(guò)多選擇范圍
刺激或者要做的決定數(shù)量很大,你不能直接寫(xiě)下規(guī)則并且區(qū)分開(kāi)來(lái)
能夠很容易的把一個(gè)動(dòng)作連接到外部的一個(gè)可觀(guān)察的結(jié)果,因此你可以很容易地弄清楚什么奏效,什么無(wú)效。
這些東西實(shí)際上比看起來(lái)更難。例如,現(xiàn)在拿起一個(gè)你旁邊的物體——比如我去拿一個(gè)空的汽水罐。現(xiàn)在再慢一點(diǎn)做一次,看你的手臂是怎樣運(yùn)作的。
我的胳膊快速地沿肘部轉(zhuǎn)動(dòng),將我的手從鍵盤(pán)上水平移動(dòng)到離罐子幾英寸的垂直位置,然后迅速停止。然后它向前移動(dòng),同時(shí)把手掌打開(kāi)的比罐頭大一點(diǎn),以比第一個(gè)動(dòng)作慢得多但是其實(shí)還是很快的速度,直到我看到我的拇指在我的其他手指的對(duì)面,盡管事實(shí)上我的其他手指被罐子遮住了視線(xiàn)。然后我的手指合攏,直到遇到阻力立即停下。然后手臂開(kāi)始抬起,這一次從肩膀起(保持肘部固定)保持握緊,無(wú)限地收緊,直到手牢固地握住罐子但又不使罐子變形。
事實(shí)上,我們走路而不會(huì)臉朝地摔倒就是一件很驚人的事情,雖然看似平常。下一次你走過(guò)房間時(shí),要注意你的確切路徑,每次你彎曲或移動(dòng)你的身體,或者把你的腳放在不在面前的別的任何地方。“運(yùn)動(dòng)規(guī)劃”這個(gè)問(wèn)題在機(jī)器人技術(shù)中是非常困難的。
這是非常艱難的任務(wù)之一,我們的大腦付出了比其他事情多兩倍的專(zhuān)注來(lái)做這件事。這使我們完成的看起來(lái)比實(shí)際上容易得多。同屬此類(lèi)的其他任務(wù)還有面部識(shí)別(你可能不知道,我們的大腦的視覺(jué)功能大部分不是用于通用視覺(jué),而是專(zhuān)門(mén)用于識(shí)別臉部的),理解單詞,識(shí)別3D對(duì)象,以及不碰到障礙物。我們認(rèn)為這些并不難,因?yàn)樗鼈儗?duì)我們來(lái)說(shuō)是非常直觀(guān)的,但是它們之所以這么簡(jiǎn)單,是因?yàn)槲覀冇袑?zhuān)門(mén)的器官組織專(zhuān)門(mén)負(fù)責(zé)而且擅長(zhǎng)做這些。
對(duì)于這一系列狹窄的任務(wù),計(jì)算機(jī)做得很糟糕,并不是因?yàn)樗麄儽憩F(xiàn)的比在其他類(lèi)似的任務(wù)上差,而是因?yàn)槿祟?lèi)在直覺(jué)上非常擅長(zhǎng)這些,所以對(duì)“可接受性能”的基線(xiàn)非常高。如果我們的大腦中沒(méi)有一大塊專(zhuān)注于認(rèn)識(shí)面孔,那么我們看人就會(huì)像看犰狳一樣——現(xiàn)在計(jì)算機(jī)正是如此。
相反,人類(lèi)聯(lián)結(jié)的方式又使得計(jì)算機(jī)就很容易的顯得足夠智能了。例如,人類(lèi)的大腦有線(xiàn)連接認(rèn)為,或多或少活躍的事物事實(shí)上就是有生命的。這意味著與人類(lèi)進(jìn)行令人信服的對(duì)話(huà)并不需要總體上理解語(yǔ)言,只要你或多或少的能把話(huà)題保持在焦點(diǎn)上,人類(lèi)就會(huì)自動(dòng)糾正任何不清楚的東西,這就是語(yǔ)音助理能成功的原因。最著名的例子是ELIZA,一個(gè)1964年的模仿羅杰亞心理治療師的“人工智能”,它會(huì)理解你的句子,讓你更多地講述各種各樣的事情,如果感到困惑,它就會(huì)退后一步回到“跟我說(shuō)說(shuō)你的母親吧”這樣的安全問(wèn)題上,雖然這只是一個(gè)笑話(huà),但人們表示確實(shí)在交談之后感覺(jué)好了一點(diǎn)。
為了理解上述的最后一個(gè)問(wèn)題 ——當(dāng)你很難把你的直接行動(dòng)和后果聯(lián)系起來(lái)的時(shí)候—— 可以考慮學(xué)習(xí)玩視頻游戲。行動(dòng)的后果是非常明顯的:當(dāng)你應(yīng)該轉(zhuǎn)彎的時(shí)候你就要轉(zhuǎn)彎,如果撞到墻上,游戲就結(jié)束。但是當(dāng)你更擅長(zhǎng)比賽之后,你會(huì)開(kāi)始意識(shí)到“糟糕,我錯(cuò)過(guò)了一個(gè)提升,五分鐘內(nèi)我要完了”,并且可以預(yù)見(jiàn)到更久之后的后果。你必須花很多時(shí)間去理解游戲的機(jī)制,然后去理解其中的連接。AI也有同樣的問(wèn)題。
我們談到了目標(biāo)和手段都很清楚的情況,以及目標(biāo)清楚但手段不清楚的情況。還有第三個(gè)類(lèi)別的情況,AI根本無(wú)法幫助:那就是,連目標(biāo)本身沒(méi)有被很好地理解。畢竟,如果你不能給AI一堆好的和壞的解決方案的例子,那么它能從中學(xué)到什么?
我們隨后會(huì)再談這些問(wèn)題,因?yàn)榈降啄男﹩?wèn)題屬于這個(gè)范疇,往往是最棘手的道德問(wèn)題出現(xiàn)的地方。實(shí)際上很多時(shí)候情況是,要么我們不知道“成功”的真正含義(在這種情況下,你怎么知道你是否成功了?),或者更糟的是,我們知道 ——但是不想真正對(duì)自己承認(rèn)。計(jì)算機(jī)編程的第一條規(guī)則是,他們不善于自我欺騙:如果你想要他們做某件事,你必須向他們解釋你想要的東西。
在我們開(kāi)始談?wù)摰赖轮埃@里有另外一種方法去分析AI的好壞。
最容易的是在可預(yù)測(cè)的環(huán)境中有明確的目標(biāo)。譬如一臺(tái)攝像頭監(jiān)測(cè)著一條裝配線(xiàn),它知道汽車(chē)很快就會(huì)出現(xiàn),目標(biāo)是識(shí)別到車(chē)輪。
相對(duì)較難的情況是在不可預(yù)測(cè)的環(huán)境中有一個(gè)明確的目標(biāo)。自動(dòng)駕駛汽車(chē)就是一個(gè)很好的例子:目標(biāo)可以直接描述(從A點(diǎn)安全到B點(diǎn)而且速度合理),但是環(huán)境則可能包含許多意外。人工智能在過(guò)去幾年剛剛發(fā)展到可以向這些問(wèn)題發(fā)起沖擊的地步,因此我們研究自駕車(chē)或自駕飛機(jī)等問(wèn)題。
另一種難題是在可預(yù)測(cè)的環(huán)境中實(shí)現(xiàn)一個(gè)間接目標(biāo)。在這種情況中環(huán)境是可預(yù)測(cè)的,但是行為和目標(biāo)之間的關(guān)系是非常遙遠(yuǎn)的——就像玩游戲一樣。這是我們近期取得巨大進(jìn)步的另一個(gè)領(lǐng)域,人工智能能夠完成以前難以想象的事情,比如Alpha Go在圍棋比賽中取勝。
贏得棋盤(pán)游戲本身并不是很有用,但它卻打開(kāi)了在不可預(yù)知的環(huán)境中實(shí)現(xiàn)目標(biāo)的道路,比如計(jì)劃你的財(cái)務(wù)組合。這是一個(gè)比較棘手的問(wèn)題,我們還沒(méi)有取得重大進(jìn)展,但是我希望我們能夠在未來(lái)十年內(nèi)把這些做好。
最后還有一種最難的情況:目標(biāo)不明確的情況。 AI根本無(wú)法解決這些問(wèn)題;如果你不能告訴它你想做什么,你就無(wú)法訓(xùn)練系統(tǒng)。寫(xiě)小說(shuō)可能就是一個(gè)例子,因?yàn)闆](méi)有一個(gè)明確的答案是什么使某本書(shū)成為“好的小說(shuō)”。另一方面,這個(gè)問(wèn)題有一些具體部分目標(biāo)可以定義——例如“寫(xiě)一本小說(shuō),如果像恐怖片一樣銷(xiāo)售,就能賣(mài)得好。這種對(duì)AI應(yīng)用到底好還是不好,就留待讀者的智慧判斷。
現(xiàn)在我們可以開(kāi)始看看問(wèn)題的真諦:那些AI的成敗能夠產(chǎn)生重大影響的難題是什么樣的?還在不斷出現(xiàn)一些什么樣的問(wèn)題?
我可以很容易地給出一大串答案,但我們沒(méi)有覆蓋這個(gè)領(lǐng)域每一個(gè)有趣的問(wèn)題,甚至沒(méi)法覆蓋大多數(shù)的問(wèn)題。但是我給你們舉了六個(gè)例子,這些例子幫助我思考了很多,它們主要的幫助不在于給了我正確的答案,但是他們幫助我提出了正確的問(wèn)題。
(1).乘客和行人
一個(gè)自駕車(chē)正在穿過(guò)一座狹窄的橋,這是一個(gè)小孩突然在它前面跑出來(lái)。停下來(lái)已經(jīng)太遲了;這個(gè)汽車(chē)能做的只有要么前進(jìn),將小孩撞飛,或者轉(zhuǎn)彎,把自己和乘客送到下面的奔流河里。它應(yīng)該怎么做?
這個(gè)問(wèn)題在過(guò)去幾年已經(jīng)被公開(kāi)討論過(guò)了,這個(gè)討論是非常明智的,展示了我們真正需要問(wèn)的問(wèn)題。
首先,整個(gè)問(wèn)題有一個(gè)很大的漏洞:這個(gè)問(wèn)題在實(shí)踐中出現(xiàn)的概率很小,因?yàn)樽詣?dòng)駕駛汽車(chē)的重點(diǎn)在于,他們一開(kāi)始就不會(huì)涉足這種情況。孩子很少突如其來(lái)出現(xiàn),大多數(shù)情況下這種情況發(fā)生時(shí),要么因?yàn)轳{駛員的反應(yīng)不夠快,無(wú)法處理從他障礙物后面跳出來(lái)的孩子,要么駕駛員出于某種原因分心,注意到孩子的時(shí)候已經(jīng)太遲了。這些都是自動(dòng)駕駛不存在的問(wèn)題:自動(dòng)駕駛一次查看所有信號(hào),連續(xù)數(shù)小時(shí)都不會(huì)感到無(wú)聊或分心。像這樣的情況將變得非常罕見(jiàn),這就是自動(dòng)駕駛能夠拯救生命的來(lái)源。
但是“幾乎從不”與“絕對(duì)不會(huì)”是不一樣的,我們不得不承認(rèn)有時(shí)會(huì)發(fā)生這種情況。當(dāng)它發(fā)生時(shí),車(chē)應(yīng)該做什么?應(yīng)該優(yōu)先考慮乘客還是行人的生命?
這不是一個(gè)技術(shù)問(wèn)題:而是一個(gè)政策問(wèn)題。這和我們今天生活的世界有很大的不同。如果你問(wèn)人們?cè)谶@種情況下會(huì)怎么做,他們會(huì)給出各種各樣的答案,并用各種各樣的“取決于當(dāng)時(shí)情況”來(lái)限制這個(gè)答案。事實(shí)是,我們不想做這個(gè)決定,我們當(dāng)然不想公開(kāi)承認(rèn)我們的決定是要保護(hù)自己的孩子。當(dāng)人們真的處于這種情況下,他們的回應(yīng)就會(huì)在地圖上出現(xiàn)。
在文化上來(lái)說(shuō),我們有一個(gè)答案:在這個(gè)瞬間,在你看到迎面而來(lái)的災(zāi)難和事件發(fā)生的那一瞬間,我們認(rèn)識(shí)到我們不能作出理性的決定。我們最終會(huì)讓司機(jī)對(duì)他們的決定負(fù)責(zé),并且認(rèn)為這是不可避免的,不管他們做了什么決定。 (雖然我們可能會(huì)讓他們?yōu)橹白龀龅臎Q定負(fù)責(zé)任,比如超速駕駛或駕駛醉酒)。
有了自駕車(chē),我們沒(méi)有這個(gè)選擇;編程在字面上有一個(gè)空格,它現(xiàn)在要求我們?cè)谑鹿拾l(fā)生的幾年之前就給它答案:“當(dāng)發(fā)生這種情況時(shí),我該怎么辦?我應(yīng)該如何減輕乘客的風(fēng)險(xiǎn),以免對(duì)行人造成危險(xiǎn)?”
它會(huì)按照我們告訴它的做。計(jì)算機(jī)編程的任務(wù)要求我們對(duì)自己想要的決定保持殘酷的誠(chéng)實(shí)。當(dāng)這些決定影響整個(gè)社會(huì)時(shí),比如在這種情況下,這意味著作為一個(gè)社會(huì),我們面臨著同樣艱難的抉擇。
(2)、禮貌性編造
機(jī)器學(xué)習(xí)模型有一個(gè)非常討厭的習(xí)慣:他們會(huì)學(xué)習(xí)數(shù)據(jù)顯示給他們的東西,然后告訴你他們學(xué)到了什么。 他們頑固地拒絕學(xué)習(xí)“我們所希望的世界”,或者“我們喜歡宣稱(chēng)的世界”,除非我們明確地向他們解釋那是什么——即使我們喜歡假裝我們沒(méi)有這樣做。
2016年年中,高中生卡比爾·艾力(Kabir Alli)試圖在Google上搜索“三個(gè)白人青少年”和“三個(gè)黑人青少年”,結(jié)果甚至比你想象的還要糟糕。
“三個(gè)白人青少年”展現(xiàn)了迷人的、運(yùn)動(dòng)型的青少年身影; “三名黑人青少年”顯示了三名黑人青少年被捕的新聞報(bào)道中的照片。 (現(xiàn)在,搜索結(jié)果大部分都是關(guān)于這個(gè)事件的新聞報(bào)道)
這里并不是因?yàn)镚oogle算法中的偏見(jiàn):而是底層數(shù)據(jù)的偏見(jiàn)。這種特殊的偏見(jiàn)是“無(wú)形白人主義”和媒體報(bào)道的偏見(jiàn)的結(jié)合:如果三名白人青少年因犯罪被捕,不僅新聞媒體不太可能展示他們的照片,而且也不太可能特意提出他們是“白人青少年”。事實(shí)上,幾乎所有的青少年群體都被明確地標(biāo)注為“白人”,從攝影產(chǎn)品目錄可以看出。但是,如果三名黑人青少年被捕,你可以找到在上面提到的新聞報(bào)道中出現(xiàn)的那句話(huà)。
許多人對(duì)這些結(jié)果感到震驚,因?yàn)樗麄兯坪跖c我們這個(gè)“忽視種族”社會(huì)的國(guó)家觀(guān)念不一致。 (請(qǐng)記住,這是在2016年中)但基本的數(shù)據(jù)是非常明確的:當(dāng)人們用高質(zhì)量的圖像在媒體上說(shuō)“三個(gè)黑人青少年”時(shí),他們幾乎總是把他們作為罪犯在談?wù)?,?dāng)他們談到“三個(gè)白人青少年“,幾乎都是廣告攝影。
事實(shí)上,這些偏見(jiàn)確實(shí)存在于我們的社會(huì)中,而且它們幾乎反映在你看到的任何數(shù)據(jù)上。在美國(guó),如果你的數(shù)據(jù)沒(méi)有顯示某種種族傾向,那么很可能你做錯(cuò)了什么。如果你通過(guò)不讓種族成為模型的輸入特征來(lái)手動(dòng)地“忽略種族”,它會(huì)通過(guò)后門(mén)進(jìn)入:例如,某人的郵政編碼和收入可以非常準(zhǔn)確地預(yù)測(cè)他們的種族。一個(gè)將之不視為種族因素的ML模型,以及被要求預(yù)測(cè)我們社會(huì)中的事實(shí)上與種族相關(guān)的東西的ML模型,很快就會(huì)將其視為“最好的規(guī)則”。
人工智能模型在我們面前舉起一面鏡子,他們不明白我們什么時(shí)候不想誠(chéng)實(shí)。他們只會(huì)禮貌性編造,如果我們告訴他們?nèi)绾翁崆叭鲋e的話(huà)。
這種誠(chéng)實(shí)會(huì)迫使你必須非常明確。最近的一個(gè)例子是在一篇關(guān)于“文字去除”的技術(shù)論文中。是關(guān)于一個(gè)非常受歡迎的叫做word2vec的ML模型,它學(xué)習(xí)了英語(yǔ)單詞含義之間的各種關(guān)系——例如,“國(guó)王對(duì)男性,女王對(duì)女性?!痹撜撐淖髡甙l(fā)現(xiàn),模型包含了不少社會(huì)偏見(jiàn)的例子:例如“電腦程序員對(duì)男人來(lái)說(shuō)就像家庭主婦對(duì)女人一樣?!弊髡咴谠撜撐闹刑岢隽艘环N一種消除性別偏見(jiàn)的技術(shù)。
該論文的許多偶然性讀者(包括許多撰寫(xiě)關(guān)于它的新聞文章的人)看不到的是,并沒(méi)有一種自動(dòng)化的方式能消除偏見(jiàn)。模型的整個(gè)程序是相當(dāng)合理的:首先,他們分析單詞兩個(gè)詞向量模型,找到沿著他/她軸線(xiàn)(性別軸線(xiàn))對(duì)立性分開(kāi)的單詞組。接下來(lái),他們要一組人辨別哪些對(duì)應(yīng)關(guān)系是有道理的(例如,“男孩對(duì)男人/女人對(duì)女人是對(duì)的”),以及哪些對(duì)應(yīng)關(guān)系中代表了社會(huì)偏見(jiàn)(譬如程序員對(duì)男人/家庭主婦對(duì)女人)。最后,他們運(yùn)用數(shù)學(xué)技術(shù)從整個(gè)模型中去除了帶有偏見(jiàn)的詞組,留下了一個(gè)改進(jìn)后的模型。
這項(xiàng)工作是很好的,但重要的是要認(rèn)識(shí)到,確定哪些男性/女性分化應(yīng)該被刪除的關(guān)鍵步驟是人為的決定,而不是一個(gè)自動(dòng)的過(guò)程。它要求人們從字面上識(shí)別他們認(rèn)為哪些詞組的對(duì)應(yīng)關(guān)系是合理的,哪些不合理。而且,原來(lái)的模型衍生出這些分化是有原因的。它來(lái)自對(duì)來(lái)自世界各地?cái)?shù)以百萬(wàn)計(jì)的書(shū)面文本的分析。原來(lái)的詞向量對(duì)應(yīng)關(guān)系準(zhǔn)確地捕捉到了人們的偏見(jiàn);清理后的模型準(zhǔn)確地反映了評(píng)估者認(rèn)為哪些偏見(jiàn)應(yīng)該被刪除的偏好。
這其中展現(xiàn)出的危險(xiǎn)是“自然主義的謬誤”,當(dāng)我們混淆“應(yīng)該是什么”和“其實(shí)是什么”的時(shí)候,這種謬誤就會(huì)發(fā)生。如果我們想用模型來(lái)研究人們的看法和行為,原本的模型是合適的;如果我們想用模型來(lái)生成新的行為并將某些意圖傳達(dá)給其他人,修改后的模型是適當(dāng)?shù)?。說(shuō)修改后的模型更準(zhǔn)確地反映了世界是什么樣的,那是不對(duì)的;說(shuō)因?yàn)檫@個(gè)世界某種程度上是什么樣,那么它就該是那樣,那也是不對(duì)的。畢竟,任何模型的目的——人工智能或智力——都是要做決定。決定和行動(dòng)完全是關(guān)于我們希望這個(gè)世界是什么樣子的。如果不是這樣,我們根本就不會(huì)做任何事情。
(3).大猩猩事件
2015年7月,當(dāng)我擔(dān)任Google社交工作(包括照片)的技術(shù)負(fù)責(zé)人時(shí),我收到了Google同事的一個(gè)緊急信息:我們的照片索引系統(tǒng)公開(kāi)把一個(gè)黑人和他的朋友的照片描述成為“大猩猩, “他有理由憤怒。”
我立即回應(yīng),大聲做出保證之后,給團(tuán)隊(duì)打電話(huà),公開(kāi)回應(yīng)說(shuō)這是很不好的。團(tuán)隊(duì)采取行動(dòng),禁用了違規(guī)表征以及其他幾個(gè)有潛在風(fēng)險(xiǎn)的表征,直到他們能夠解決潛在的問(wèn)題為止。
許多人懷疑,這個(gè)問(wèn)題與六年前惠普的臉部攝像機(jī)不能在黑人身上工作的問(wèn)題是一樣的:“面孔”的訓(xùn)練數(shù)據(jù)完全是由白人組成的。我們開(kāi)始也這么懷疑,但是我們很快就排除了這個(gè)原因:訓(xùn)練數(shù)據(jù)包括各種種族和膚色的人。
其真正原因是三個(gè)微妙的問(wèn)題的交集。
第一個(gè)問(wèn)題是人臉識(shí)別很難。不同的人臉看起來(lái)對(duì)我們來(lái)說(shuō)截然不同,那是因?yàn)槲覀兊拇竽X中有很大一部分只專(zhuān)注于識(shí)別人臉; 我們已經(jīng)花費(fèi)了數(shù)百萬(wàn)年的時(shí)間來(lái)改進(jìn)這個(gè)功能。但是如果你注意比較兩個(gè)不同面孔的差異,把這個(gè)差異和兩把不同的椅子之間的差異相比,你會(huì)發(fā)現(xiàn)面孔的相似性比你想象的要大得多——甚至是跨物種之間。
事實(shí)上,我們發(fā)現(xiàn)這個(gè)錯(cuò)誤并不是孤立的:這個(gè)照片索引系統(tǒng)也容易把白種人的臉誤認(rèn)為是狗和海豹。
第二個(gè)問(wèn)題是問(wèn)題的真正核心:ML系統(tǒng)在其自己的領(lǐng)域非常聰明,但除非教導(dǎo)它,否則對(duì)于更廣泛的世界一無(wú)所知。而當(dāng)它試圖考慮所有的圖片可能被識(shí)別的對(duì)象時(shí)——這個(gè)AI不僅僅識(shí)別人臉——沒(méi)有人想到要向它解釋黑人因?yàn)楸黄缫暥L(zhǎng)期被比作猿人。這種背景使這個(gè)錯(cuò)誤非常嚴(yán)重,而將小孩錯(cuò)誤地認(rèn)定為一只海豹?jiǎng)t只是一件趣事罷了。
這個(gè)問(wèn)題沒(méi)有簡(jiǎn)單的答案。在處理涉及人類(lèi)的問(wèn)題時(shí),錯(cuò)誤的代價(jià)通常與極其微妙的文化問(wèn)題聯(lián)系在一起。這并不是說(shuō)很難解釋?zhuān)呛茈y提前想到它們。
這個(gè)問(wèn)題不僅僅體現(xiàn)在人工智能上,也表現(xiàn)在人們要在不同文化中做出價(jià)值判斷。一個(gè)特別的挑戰(zhàn)來(lái)自于,當(dāng)在網(wǎng)上發(fā)現(xiàn)騷擾和濫用行為的時(shí)候。這些問(wèn)題幾乎完全由人類(lèi)來(lái)處理,而不是由人工智能來(lái)處理,因?yàn)榧词故侵贫ㄈ祟?lèi)用來(lái)判斷這些事情的規(guī)則都是非常困難的。我曾在Google花了一年半的時(shí)間來(lái)制定這樣的規(guī)則,認(rèn)為這是我所面臨的最大的智力挑戰(zhàn)之一。
即使有團(tuán)隊(duì)提出規(guī)則,由人類(lèi)而不是AI來(lái)執(zhí)行它們,文化障礙也是一個(gè)巨大的問(wèn)題。印度的評(píng)論家不一定具有關(guān)于美國(guó)的種族歧視的文化背景,在美國(guó)的人也不一定有印度文化背景。但世界各地的文化數(shù)量是巨大的:你怎樣以任何人都可以理解的方式來(lái)表達(dá)這些想法?
從中學(xué)到的教訓(xùn)是:系統(tǒng)中最危險(xiǎn)的風(fēng)險(xiǎn)通常不是來(lái)自系統(tǒng)內(nèi)部的問(wèn)題,而是來(lái)自系統(tǒng)與更廣泛的外部世界互動(dòng)時(shí)意想不到的方式。我們還沒(méi)有一個(gè)好方法來(lái)管理這些。
(4)、不幸的是,人工智能會(huì)按你說(shuō)的做
人工智能的一個(gè)重要用途是幫助人們做出更好的決策:不是直接執(zhí)行某個(gè)操作,而是告訴人們推薦哪一個(gè),從而幫助他們做出一個(gè)好的選擇。尤其當(dāng)這些選擇具有高風(fēng)險(xiǎn)時(shí),這是最有價(jià)值的。但真正影響這個(gè)長(zhǎng)期結(jié)果的因素,對(duì)于人們來(lái)說(shuō)并不是很明顯。事實(shí)上,如果沒(méi)有明確有用的信息,人類(lèi)可能會(huì)輕易地采納無(wú)意識(shí)的偏見(jiàn),而不是真正的數(shù)據(jù)。這就是為什么許多法院開(kāi)始使用自動(dòng)化的“風(fēng)險(xiǎn)評(píng)估”作為他們量刑指引的一部分。
現(xiàn)代風(fēng)險(xiǎn)評(píng)估是ML模型,負(fù)責(zé)預(yù)測(cè)未來(lái)犯罪的可能性。如果你拿一個(gè)地區(qū)的法院歷史的全部語(yǔ)料來(lái)訓(xùn)練模型,可以形成一個(gè)令人驚訝的清晰的展現(xiàn),告訴你誰(shuí)是潛在危險(xiǎn)分子。。
如果你到目前為止一直在仔細(xì)閱讀,你可能會(huì)發(fā)現(xiàn)一些方法來(lái)實(shí)現(xiàn)這個(gè)目標(biāo),這些方法可能會(huì)非??膳拢浅ee(cuò)誤。正如2016年P(guān)roPublica揭露的那樣,然而這正是全國(guó)各地發(fā)生的事情。
佛羅里達(dá)州布勞沃德縣使用的系統(tǒng)COMPAS系統(tǒng)的設(shè)計(jì)者,遵循了最佳實(shí)踐原則。他們確保他們的訓(xùn)練數(shù)據(jù)沒(méi)有人為地偏袒某個(gè)群體,例如確保所有種族的人都有相同的訓(xùn)練數(shù)據(jù)。他們將種族排除在模型的輸入特征之外。只有一個(gè)問(wèn)題:他們的模型并沒(méi)有預(yù)測(cè)出他們認(rèn)為該預(yù)測(cè)的事情。
量刑風(fēng)險(xiǎn)評(píng)估模式應(yīng)該提出的問(wèn)題是,“這個(gè)人將來(lái)犯下嚴(yán)重罪行的概率是多少,以此作為你現(xiàn)在給他們的刑罰的一個(gè)函數(shù)?!边@要同時(shí)考慮到這個(gè)人以及刑罰帶給他未來(lái)生活的影響:是否會(huì)導(dǎo)致永遠(yuǎn)監(jiān)禁他們?釋放他們之后會(huì)不會(huì)沒(méi)有機(jī)會(huì)得到一個(gè)平穩(wěn)的工作?
但是我們沒(méi)有一道在每次犯罪的時(shí)候都會(huì)熄滅的魔法之光,我們也當(dāng)然沒(méi)有那種例子:一個(gè)人一次同時(shí)接受了兩種不同的刑罰結(jié)果產(chǎn)生兩種不同的后果。 因此,COMPAS模型是通過(guò)對(duì)真實(shí)的、難以獲得的數(shù)據(jù)的模擬來(lái)進(jìn)行培訓(xùn)的:根據(jù)我們?cè)谂行虝r(shí)所得知的一個(gè)人的信息,這個(gè)人將被定罪的概率是多少? 或者用兩個(gè)人來(lái)對(duì)比:“這兩個(gè)人哪一個(gè)最有可能在將來(lái)被定罪?”
如果你對(duì)美國(guó)政治有一點(diǎn)了解的話(huà),你可以立即回答這個(gè)問(wèn)題:“黑人!”黑人比白人更可能被在路上截住,被逮捕,定罪并給予比白人更長(zhǎng)的刑期。所以忽略其他絕對(duì)事實(shí)死亡情況下,一個(gè)查閱歷史數(shù)據(jù)的ML模型,如果預(yù)測(cè)一個(gè)黑人被告在未來(lái)更有可能被定罪,結(jié)合歷史來(lái)看肯定是相當(dāng)準(zhǔn)確的預(yù)測(cè)。
但是,這個(gè)模型被訓(xùn)練的方法和它的真正用途不相符合。它被訓(xùn)練回答“誰(shuí)更可能被定罪”,問(wèn)它的卻是“誰(shuí)更有可能犯罪”,沒(méi)有人注意到這是兩個(gè)完全不同的問(wèn)題。
這里顯然有很多問(wèn)題。其一是法院對(duì)待AI模型太過(guò)依賴(lài),將其作為衡量判決的直接因素,跳過(guò)人的判斷,比任何模型本可以提供的保證還要自信。另一個(gè)問(wèn)題當(dāng)然是這暴露出的基本的、系統(tǒng)性的種族主義:同樣的罪行下黑人更有可能被逮捕并被定罪。
但是這里有一個(gè)關(guān)于ML的特定問(wèn)題值得注意:你想測(cè)量的數(shù)量和你可以測(cè)量的數(shù)量之間經(jīng)常有差異。當(dāng)兩者存在差異的時(shí)候,你的ML模型能夠很好的預(yù)測(cè)你所測(cè)量的數(shù)量,而不是它其實(shí)代表的數(shù)量。在相信你的模型之前,你需要非常仔細(xì)地理解這些相似和不同。
(5).人是一個(gè)合理化的動(dòng)物
在機(jī)器學(xué)習(xí)的討論中有一個(gè)新的熱門(mén)話(huà)題:“解釋權(quán)”。意思是,如果ML被用來(lái)做任何重要的決定,人們有權(quán)理解這些決定是如何做出的。
直覺(jué)上,這似乎是顯而易見(jiàn)且有價(jià)值的想法——然而,當(dāng)ML專(zhuān)業(yè)人員提到這一點(diǎn)時(shí),他們的臉色立刻就變了,他們想要解釋這個(gè)要求事實(shí)上是不可能的。
為什么會(huì)這樣?
首先,我們應(yīng)該明白為什么很難做到這一點(diǎn);第二,更重要的是,我們應(yīng)該明白為什么我們期望它容易做到,為什么這個(gè)期望是錯(cuò)誤的。第三,我們可以看看對(duì)此可以做些什么。
早些時(shí)候,我將ML模型描述為數(shù)百至數(shù)百萬(wàn)個(gè)旋鈕。這個(gè)比喻對(duì)實(shí)際模型的復(fù)雜性來(lái)說(shuō)并不公平。例如,現(xiàn)代基于ML的語(yǔ)言翻譯系統(tǒng)一次只能輸入一個(gè)字母。這意味著模型必須在閱讀了大量的字母之后,對(duì)其中的文本理解狀態(tài)進(jìn)行表述,以及每個(gè)連續(xù)的下一個(gè)字母如何影響其對(duì)意義的解釋。
對(duì)于模型遇到的任何情況,它所做的唯一“解釋”是:“好吧,后面的幾千個(gè)變量是這樣的狀態(tài),然后我看到字母“c”,這應(yīng)該改變了用戶(hù)在談?wù)摴返母怕?..
不僅僅你無(wú)法理解這一點(diǎn),ML研究人員也是難以理解的。 ML系統(tǒng)的調(diào)試是該領(lǐng)域最難的問(wèn)題之一,因?yàn)樵谌魏螘r(shí)候檢查變量的個(gè)體狀態(tài)然后向你解釋這個(gè)模型,就像測(cè)量一個(gè)人的神經(jīng)潛能然后將會(huì)告訴你他們吃晚飯的時(shí)間差不多。
然而 ——這是第二部分——我們總是覺(jué)得我們可以解釋我們自己的決定,而且是人們期望的那種解釋。 “考慮到它們的FICO分?jǐn)?shù)中位數(shù),我把這個(gè)抵押貸款的利率設(shè)定為7.25%?!彼麄兤谕f(shuō):“如果Experian的FICO分?jǐn)?shù)高了35分,那么這個(gè)分?jǐn)?shù)就會(huì)下降到7.15%?!?,“我建議我們聘請(qǐng)這個(gè)人,因?yàn)樗麄冊(cè)谖覀兊拿嬖囍星逦亟忉屃藱C(jī)器學(xué)習(xí)?!?/p>
但是每個(gè)認(rèn)知或行為心理學(xué)的人都知道一個(gè)黑暗的秘密:所有這些解釋都是無(wú)稽之談。我們是否會(huì)喜歡一個(gè)人,在聊天開(kāi)始的最初幾秒就已經(jīng)決定了,而且可能會(huì)受到一些看似隨意的事情的影響,比如在握手之前握著熱飲還是冷飲。無(wú)意識(shí)的偏見(jiàn)彌漫在我們的思想之中,而且也可以被測(cè)量出來(lái),即使我們沒(méi)有意識(shí)到。認(rèn)知偏差是當(dāng)今心理學(xué)研究中最大的(也是最有意思的)分支之一。
事實(shí)證明,人們所擅長(zhǎng)的并不是解釋他們是如何做出決定的,而是為自己的決定找出合理的解釋。有時(shí)候,這完全是無(wú)意識(shí)的,例如,我們?cè)跊Q策過(guò)程中會(huì)突出一些事實(shí)(“我喜歡這輛汽車(chē)的顏色”),并將注意力集中在這一點(diǎn)上,而忽略了對(duì)我們來(lái)說(shuō)可能更重要但是看不見(jiàn)的因素(“我的繼父有一個(gè)敞篷車(chē),我討厭我繼父”)。(“第一個(gè)候選人聽(tīng)起來(lái)就像我畢業(yè)時(shí)那樣,那個(gè)女人很好,但是她看起來(lái)太與眾不同,她不適合和我一起工作?!保?/p>
如果我們期望ML系統(tǒng)為他們的決定提供實(shí)際的解釋?zhuān)敲次覀兙蜁?huì)遇到很多麻煩,就像我們要求人們解釋他們自己的決定的實(shí)際基礎(chǔ)一樣:ML系統(tǒng)不會(huì)比人類(lèi)更容易解釋。
當(dāng)我們要求解釋的時(shí)候,我們感興趣的常常是那些顯而易見(jiàn)的事實(shí)(因?yàn)楦淖兯鼈儠?huì)改變結(jié)果)和變量(因?yàn)閷?duì)它們的改變值得討論)。 例如,“你現(xiàn)在看到的是這個(gè)招聘告示; 但如果你住在靠西邊十英里的地方,你就會(huì)看到另一個(gè)”,這在某種情況下可能很有趣,但是“如果你是一個(gè)鴯鹋,你會(huì)看到的就是木拉加的種子”,這就不有趣了。
生成這種解釋的數(shù)學(xué)技術(shù)正在積極的發(fā)展中,但存在一些不容忽視的挑戰(zhàn)。例如,大多數(shù)這些技術(shù)是基于建立另一個(gè)“解釋性”的ML模型,這個(gè)模型不太準(zhǔn)確,只適用于給定一些輸入信息然后變量很小的情況,整體更容易理解,但和前面提到的主ML模型是基于完全不同的原則。 (這是因?yàn)橹挥邢駴Q策樹(shù)這樣的幾種ML模型可以被人們完全理解,而在許多實(shí)際應(yīng)用中最有用的模型,如神經(jīng)網(wǎng)絡(luò),則完全無(wú)法被理解。)這意味著如果你試圖給第二個(gè)解釋模型輸入“不,改變這個(gè)變量!”這種反饋,它可能根本就辦法把它轉(zhuǎn)化為主模型的輸入。而且,如果你給人一個(gè)解釋工具模型,他們也會(huì)要求用相同的語(yǔ)言來(lái)改變它的權(quán)利——要求很合理但不可行。
人類(lèi)的大腦有極度通用的智能能處理各種概念,因而可以解決這個(gè)問(wèn)題。你可以告訴它,在涉及種族歷史時(shí)應(yīng)該對(duì)圖像識(shí)別格外小心,因?yàn)橥粋€(gè)系統(tǒng)(大腦)可以理解這兩個(gè)概念。但AI還遠(yuǎn)遠(yuǎn)不能做到這一點(diǎn)。
(6)AI,歸根到底,終是一個(gè)工具
人工智能無(wú)人機(jī)殺手——不提出這個(gè)大家都喜歡的例子就沒(méi)法探討AI道德。這些飛機(jī)在高空飛行,僅由計(jì)算機(jī)控制,在維護(hù)平民生活的同時(shí)實(shí)現(xiàn)殺害敵方武裝分子的任務(wù)......除非它們認(rèn)為任務(wù)需要一些“附帶損害”,就像官方委婉說(shuō)法那樣。
人們對(duì)這樣的設(shè)備感到害怕,如果更多地聽(tīng)一些正生活在永恒的死亡威脅之下的人們的故事,他們會(huì)更加害怕——從晴朗的天空中橫空出世的殺手。
人工智能是這個(gè)討論的一部分,但它不如我們想象的那么重要。大型無(wú)人機(jī)與有人駕駛飛機(jī)的不同之處在于,他們的飛行員可以遠(yuǎn)離千里之外,遠(yuǎn)離傷害。自動(dòng)駕駛儀AI的改進(jìn)意味著,一個(gè)無(wú)人駕駛操作員可以很快操作不止一架飛機(jī)。最終,大型無(wú)人機(jī)可以在99%的時(shí)間內(nèi)自行駕駛,只有在需要作出重大決定時(shí)才會(huì)呼叫人。這將開(kāi)辟更大的無(wú)人機(jī)空中力量成本更低的可能性——民主化從天上炸人的權(quán)力。
在這個(gè)故事的另一個(gè)版本中,人類(lèi)可能已經(jīng)完全被從“殺戮鏈”也就是決定是否發(fā)射武器的決定中排除。現(xiàn)在我們可能會(huì)問(wèn),誰(shuí)來(lái)承擔(dān)完全由機(jī)器人決定的殺人的道德責(zé)任?
這個(gè)問(wèn)題既比我們想象的要簡(jiǎn)單,同時(shí)也要更復(fù)雜。如果有人用石頭擊中另一個(gè)人的頭,我們責(zé)怪這個(gè)人,而不是石頭。如果他們投擲長(zhǎng)矛,即使矛在某一段飛行期間“處于自己的力量之下”,我們也絕不會(huì)想要責(zé)怪矛。即使他們構(gòu)建了一個(gè)復(fù)雜的死亡陷阱,印第安納·瓊斯式的意志行為也是人類(lèi)的。問(wèn)題是現(xiàn)在“工具”自己決定的范圍變得模糊。
簡(jiǎn)單的地方在于,在于這個(gè)問(wèn)題并不是全新的。軍事紀(jì)律的很大要點(diǎn)是要建立一個(gè)戰(zhàn)斗力量,在戰(zhàn)斗中不要過(guò)于自主思考。在軍隊(duì)是歐洲體系后裔的國(guó)家,軍士和士官的作用是執(zhí)行計(jì)劃;委托人員的職責(zé)是決定執(zhí)行哪些計(jì)劃。因此,從理論上講,決策責(zé)任完全是在官員肩上,根據(jù)軍銜,指揮官等區(qū)分人員責(zé)任區(qū)的明確界定決定了誰(shuí)最終對(duì)任何一個(gè)指令負(fù)責(zé)。
在實(shí)踐中,這往往是相當(dāng)模糊的,這些原則是我們已經(jīng)了解了幾千年的原則,而AI其實(shí)并沒(méi)有增加新的內(nèi)容。即使具有了再大的決策能力和自主性,AI仍然需要這個(gè)討論——實(shí)際上在人類(lèi)世界,我們有足夠的自主權(quán)去探討這些問(wèn)題,也不過(guò)是近幾十年的事情。
也許這是人工智能倫理的最后一個(gè)重要的經(jīng)驗(yàn):我們面臨的關(guān)于人工智能的許多問(wèn)題其實(shí)是我們過(guò)去也面對(duì)的問(wèn)題,現(xiàn)在通過(guò)技術(shù)上的一些變化而顯露出來(lái)。在我們現(xiàn)有的世界中尋找類(lèi)似的問(wèn)題往往是有價(jià)值的,能夠幫助我們理解如何處理看似新的問(wèn)題。
還有很多我們應(yīng)該討論的問(wèn)題——其中很多對(duì)這個(gè)社會(huì)來(lái)說(shuō)是非常緊迫的。但是我希望上面的例子和解釋給了你一些環(huán)境,讓你理解事情什么時(shí)候是對(duì)的,什么時(shí)候不對(duì)頭。以及許多的AI道德風(fēng)險(xiǎn)源于何處。
這些大多都不是新問(wèn)題;相反,是一個(gè)向計(jì)算機(jī)解釋我們的訴求的正式過(guò)程——沒(méi)有文化背景、也沒(méi)有能力推斷出我們的言外之意的終極案例——迫使我們以違背日常習(xí)慣的方式來(lái)表達(dá)。無(wú)論是要求我們?cè)诰o要關(guān)頭到來(lái)之前好幾年就做出生死攸關(guān)的決定,而不是拖延到事情真正發(fā)生的時(shí)刻現(xiàn)在的高潮,還是要求我們長(zhǎng)期嚴(yán)格的審視社會(huì)的實(shí)際情況,并態(tài)度鮮明的表達(dá)我們想要保留哪些部分以及我們想要改變哪些部分;AI把我們推離了“禮貌性編造”的舒適區(qū),進(jìn)入了一個(gè)我們必須非常明確地討論事物的世界。
這些問(wèn)題中的每一個(gè),都早在AI之前就存在了; AI只是讓我們以一種新的方式來(lái)談?wù)撍鼈儭_@可能并不容易,但是對(duì)我們來(lái)說(shuō),誠(chéng)實(shí)可能是新技術(shù)可以給我們帶來(lái)的最寶貴的禮物。
雷鋒網(wǎng)編譯 via Medium
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。