0
本文作者: 老王 | 2016-12-05 16:01 |
今年春季的時候微軟在 Twitter 上發(fā)布了一個人工智能聊天機(jī)器人 Tay,與我們熟知的微軟小冰類似,但在和用戶開放對話后不到一天的時間里,它就“變成”了一個熱愛希特勒、譏諷女權(quán)主義的機(jī)器人,最終由于不恰當(dāng)?shù)姆N族主義言論引發(fā)了激烈爭議。
隨后微軟很快就下線了 Tay,并宣布對 Tay 的算法進(jìn)行調(diào)整,避免聊天機(jī)器人再發(fā)表任何不恰當(dāng)?shù)难哉摗?/p>
而就在近日,微軟已準(zhǔn)備好推出升級版 Tay:Zo。
鑒于 Tay 引發(fā)的重大問題,Zo 對敏感的話題一般會很聰明的選擇避開,當(dāng)用戶問它政治問題時,Zo 會回復(fù)稱:“在討論政治時,人們會發(fā)表許多可怕的言論,因此我選擇回避政治問題?!?/p>
目前,Zo 目前只出現(xiàn)在聊天應(yīng)用 Kik 的平臺上,微軟這次對平臺的選擇很謹(jǐn)慎。不過隨著模型的成熟,預(yù)計 Zo 將會重新回到 Twitter、Facebook Messenger 和 Snapchat 等所有主流平臺。
眼看升級版 Tay 重新回到人們的視線,同時更換了新品牌名 Zo,那么這半年間微軟是如何訓(xùn)練 Tay 的呢?雷鋒網(wǎng)整理了 Dave Gershgorn 對納德拉的采訪,一起看看微軟納德拉是怎么回答的。
納德拉:這是一個大問題!
我從 Tay 身上得到的最大收獲之一就是,我們需要打造出能夠抵御惡意攻擊的人工智能。
有個有趣的現(xiàn)象是,Tay 在 Twitter上引發(fā)巨大爭議,但我們在中國沒有遇到同樣的事情。聊天機(jī)器人在中國進(jìn)行的社交對話是不同的,如果你把它置于美國的語料庫當(dāng)中,結(jié)果就不一樣了。
當(dāng)然,Tay 還遇到了集中攻擊,這些攻擊就像如今開發(fā)軟件要能經(jīng)受住 DDOS 攻擊,你也要能夠經(jīng)受住語料庫攻擊——這種攻擊試圖污染語料庫,對 AI 進(jìn)行誤導(dǎo),從而讓 AI 學(xué)習(xí)模型選中錯誤的東西。
我們正想方設(shè)法應(yīng)對這些挑戰(zhàn)。
我們開發(fā) Tay 是作為一個學(xué)習(xí)模型的原型產(chǎn)品。
我們也并沒有說自己想要推出某個完美無缺的東西,它不像 Windows 10 的發(fā)布,它屬于那種研究項目,而不是用來賺錢的產(chǎn)品。
盡管有那種種爭議,但這個項目確實(shí)幫到了我們,也起到了很好的號召作用,讓我們更好地為自己所談?wù)摰脑O(shè)計原則打好基礎(chǔ),負(fù)起更大的算法責(zé)任,思考質(zhì)量保證意味著什么。以及思考你是基于公開語料庫發(fā)布產(chǎn)品,還是先發(fā)布到一個不同的語料庫中并進(jìn)行觀察。
這些都是我們正在學(xué)習(xí)和改進(jìn)的技術(shù)。
納德拉:我做的第一件事情,就是在微軟內(nèi)部提出原則,讓開發(fā)者重視這些問題:
我們打造的機(jī)器智能是在幫助人類嗎?是在增強(qiáng)人類嗎?
我看到微軟開發(fā)的任何一款人工智能產(chǎn)品時,首先會問:
它增強(qiáng)了什么?做了哪些賦權(quán)?用了哪些我們可以在算法上負(fù)起責(zé)任的訓(xùn)練方法?
這些都要求都可以具體落實(shí)。不過,我并不想簡單地把這些要求當(dāng)成業(yè)績指標(biāo)類。落實(shí)這些要求,在于我們的開發(fā)人員、設(shè)計師以及產(chǎn)品選擇對這些問題的敏感性。
一家公司想要提供優(yōu)秀的用戶體驗(yàn),都要提到設(shè)計原則,那么對于優(yōu)秀的人工智能,它的設(shè)計原則是什么呢?
這個問題,我一直在思考。
納德拉:以圖像識別為例。
如果我們的圖像識別 API 本身就存在一些偏見,這有可能是因?yàn)槿狈?shù)據(jù),或者是特征選擇出了問題,又或者是我們構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)偏離了設(shè)計。我完全認(rèn)為,我們必須負(fù)起責(zé)任,就像我們?yōu)槟切┸浖┒磽?dān)負(fù)責(zé)任一樣。
人工智能運(yùn)作的參數(shù)最終還是由人類工程師定義的。
并不是說我們想要所有事情時時刻刻都做到完美,但如果有人發(fā)現(xiàn)某個地方存在錯誤,那么我們就會對它進(jìn)行重新訓(xùn)練。
納德拉:我想我們會找到答案的。
我認(rèn)為有些特定的業(yè)務(wù)和特定的業(yè)務(wù)流程,如買保險是非常適合聊天機(jī)器人的,這可以通過設(shè)計實(shí)現(xiàn)。
事實(shí)上,監(jiān)管的要求是當(dāng)你購買保險時,使用聊天機(jī)器人的效果往往要比自己通過移動應(yīng)用或網(wǎng)站摸索好得多。
納德拉:這個問題可以分為多個層次,教導(dǎo)計算機(jī)學(xué)會人類語言是我們的終極任務(wù)之一。
這些任務(wù)需要一步一步地來做,在 AI 學(xué)會自由運(yùn)用人類語言之前,首先要讓它理解你來我往的對話。只不過實(shí)現(xiàn)語言生成是一個通用人工智能(AGI)問題,它并不是一個應(yīng)用人工智能問題。
研究者必須掌握一種通用人工智能和通用學(xué)習(xí)模型,它要能充分理解人類知識和詞匯中的所有語義。
只要遇到歧義和錯誤,就需要思考如何讓人工介入進(jìn)行調(diào)校,以及如何升級到由人來做出選擇。在我看來,這就是 AI 產(chǎn)品最講究的地方。
如果有一定比例會出現(xiàn)歧義和錯誤,那研究人員必須要有處理異常情況的能力,可是這首先要能夠檢測出異常的地方來。幸運(yùn)的是,在人工智能中,你擁有信心和概率分布的支持。這種情況下必須利用所有這一切讓人類介入進(jìn)來。
以客戶支持為例,我們也承認(rèn)虛擬助理并不能夠回答所有問題。
此類任務(wù)可能需要涉及到讓真人客服參與進(jìn)行處理,這時候聊天機(jī)器人就從主角變成了配角。
客服代表回答問題,然后虛擬助理藉由強(qiáng)化學(xué)習(xí)從中汲取經(jīng)驗(yàn)教訓(xùn)。
所以,那樣的過程將會幫助我們做得越來越好。但是,要做到這一點(diǎn),我們需要在通用學(xué)習(xí)技術(shù)上取得突破性進(jìn)展。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。