1
本文作者: 大壯旅 | 2016-07-13 23:45 |
電腦是如何做出選擇的呢?
這個(gè)問題需要分兩種情況回答。從過去的眼光來看,電腦所做的選擇都是程序員寫程序時(shí)事先編寫好的,當(dāng)電腦遇到問題時(shí),只需按照事先編寫好的程序進(jìn)行選擇就行。不過,隨著人工智能的崛起,深度學(xué)習(xí)技術(shù)開始占了上風(fēng),現(xiàn)在電腦做選擇可沒有過去那么非黑即白了。但是,技術(shù)人員開發(fā)程序時(shí)大多數(shù)不會(huì)考慮這一點(diǎn),他們大多只是選擇一個(gè)能產(chǎn)出正確結(jié)果的算法而已,沒人會(huì)在乎這個(gè)結(jié)果是如何得來的。
當(dāng)然,這也不能全怪技術(shù)人員,畢竟當(dāng)程序的準(zhǔn)確率達(dá)到99%時(shí),還有誰會(huì)在乎其深層內(nèi)涵呢?不過,既然一個(gè)馬蹄鐵就能毀掉一場戰(zhàn)爭,那么我們就不得不注意到那剩下的1%。如果這不起眼的1%會(huì)涉及到生死抉擇,那么搞清楚電腦如何思考就變成了重中之重。
就拿最近鬧的沸沸揚(yáng)揚(yáng)的特斯拉Model S致死事故來說,為什么這輛車的自動(dòng)駕駛系統(tǒng)沒能識別前方的拖掛卡車呢?眼下,我們大致知道了原因(那天天氣晴朗陽光充足,拖掛車漆成了白色,電腦沒能將其與天空區(qū)分開),但我們卻不了解電腦做決定的過程,或者說如何在未來避免這種情況再次發(fā)生?!拔蚁耄厮估墓ぷ魅藛T肯定也在想著同樣的問題:這種情況到底是怎么發(fā)生的呢?那么大一輛車,為什么電腦就沒能識別出來呢?”Dhruv Batra教授說道,他是弗吉尼亞理工大學(xué)的機(jī)器感知專家?!叭绻皇强寇嚿系摹谙蛔印瘉矸治鍪鹿剩覀冇肋h(yuǎn)也找不到答案?!?/p>
此外,Batra教授認(rèn)為讓AI的決策透明化與選擇一種合適的教育方式同樣重要。一個(gè)差老師只知道要學(xué)生死記硬背,靠記憶力應(yīng)付考試,而好老師則注重方法的傳授,他會(huì)讓學(xué)生解釋自己得出答案的全過程。對待電腦,人類也要當(dāng)個(gè)好老師,讓它們將自己的思考過程娓娓道來。
近日,Batra教授的兩個(gè)學(xué)生Abhishek Das和Harsh Agrawal針對該問題進(jìn)行了一番研究。他們讓兩個(gè)人和兩臺專攻物品識別的神經(jīng)網(wǎng)絡(luò)機(jī)器進(jìn)行圖像識別比賽,隨后在比賽中觀察他們眼神的落點(diǎn),并對比人與機(jī)器在選擇過程中的不同。因此,當(dāng)聽到“圖中男人的鞋是什么顏色?”的問題時(shí),你可能覺得人和機(jī)器的眼睛都會(huì)齊刷刷的望向圖片底部。不過,Das和Agrawal發(fā)現(xiàn),現(xiàn)實(shí)與你的想象有所不同。
為了對比人與機(jī)器的不同,研究人員打造了“注意力”熱度圖,熱度圖可以疊加觀察。如果結(jié)果完全無重疊,參數(shù)為0;如果完全重疊,參數(shù)則為1。結(jié)果顯示,人類的熱度圖參數(shù)為0.63,而機(jī)器則只有0.26(注意力跑偏了)。
要解釋這一差別其實(shí)很難。舉例來說,當(dāng)要求人和機(jī)器回答“遮擋窗戶的是什么?”(百葉窗)的時(shí)候,人的眼神會(huì)直接聚焦在窗戶上,而機(jī)器卻謎一般的將精力集中在了床上。
Batra教授認(rèn)為,這一異?,F(xiàn)象的出現(xiàn),是神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法所致。由于英文的特殊性,在向神經(jīng)網(wǎng)絡(luò)展示臥室(bedroom)圖片時(shí),它們會(huì)首先注意到“bed”(床)這個(gè)詞,因此在聽到問題后算法會(huì)首先將注意力集中在床上。“它們回答問題時(shí)首先會(huì)向自己的數(shù)據(jù)庫求證,而不像人類一樣注重實(shí)踐?!盉atra教授說道。
這樣的誤差在解決一些小問題時(shí)絕對無傷大雅,但如果機(jī)器學(xué)習(xí)算法未來想擔(dān)起大任,研究人員就要搞清楚它們是如何做出抉擇的。
在談到如何發(fā)展負(fù)責(zé)任的AI時(shí),微軟CEO列出了6點(diǎn)關(guān)鍵目標(biāo),其中透明度就排在第二?!?strong>我們需要的不只是智能的機(jī)器(intelligent machines),而是可理解的機(jī)器(intelligible machines);不只是人工智能(artificial intelligence),還要是共生智能(symbiotic intelligence)。納德拉說道?!凹夹g(shù)要能理解人類,而人類也必須要了解機(jī)器。人類應(yīng)該明白技術(shù)是怎樣「看」這個(gè)世界、「分析」這個(gè)世界的,這樣能讓道德和設(shè)計(jì)攜手并進(jìn)?!?/p>
Batra教授認(rèn)為,這些步驟雖然麻煩,但他是人類通往未來的必經(jīng)之路?!叭绻覀円獙I引入日常生活,它們就要學(xué)會(huì)與人類溝通,但前提是人類要建立起對它們的信任。”他說道。“到時(shí),一定有人會(huì)問AI‘你為什么要說這些???’機(jī)器人則需要給出一個(gè)令人信服的答案?!?strong>未來,人工智能的訓(xùn)練主要還是靠數(shù)據(jù)庫,但研究人員也應(yīng)及時(shí)將其行為與人類做對比,找出差別之處來進(jìn)行針對性的修正。
雖說這樣會(huì)增大訓(xùn)練深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)系統(tǒng)的成本和時(shí)間,但Batra教授相信這些花費(fèi)是必要的?!斑@有利于人與機(jī)器之間信任的建立,”他說道。“同時(shí)我們還能增進(jìn)人與機(jī)器之間的相互理解,提高人工智能的表現(xiàn)?!?/p>
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。