2
本文作者: 叢末 | 編輯:楊曉凡 | 2019-01-04 00:09 | 專題:NeurIPS 2018 |
雷鋒網(wǎng) AI 科技評(píng)論按:人工智能領(lǐng)域的最新進(jìn)展是什么?我們可以期待 2019 年出現(xiàn)什么新技術(shù)?會(huì)有新的人工智能法規(guī)嗎?NeurIPS(前稱 NIPS)或許可以對(duì)這些問(wèn)題作出解答。近日,計(jì)算機(jī)網(wǎng)絡(luò)安全公司 zvelo 的人工智能架構(gòu)師 Daniel DeMillard 將其在參加 NeurIPS 2018 時(shí)收集到的一些針對(duì)人工智能領(lǐng)域的見(jiàn)解、觀點(diǎn)以及 2019 年的趨勢(shì)預(yù)測(cè)匯總成文。雷鋒網(wǎng) AI 科技評(píng)論編譯如下。
NeurIPS 匯聚了人工智能和深層學(xué)習(xí)領(lǐng)域的杰出人才,近年來(lái)隨著名氣的上升,門票一度比 Taylor Swift 的演唱會(huì)還難買(更多內(nèi)容回看《聽(tīng)說(shuō) NIPS 2018 門票十分鐘賣光,機(jī)器學(xué)習(xí)圈子炸了鍋》)。該會(huì)議主要聚焦于深度學(xué)習(xí)領(lǐng)域。深度學(xué)習(xí)是使用多層互聯(lián)的人工神經(jīng)網(wǎng)絡(luò)對(duì)高維數(shù)據(jù)進(jìn)行建模的過(guò)程,其對(duì)于圖像分類、語(yǔ)音識(shí)別、自動(dòng)駕駛汽車、面部識(shí)別,甚至手機(jī)的拼寫自動(dòng)糾正功能等方面的突破具有關(guān)鍵作用。由于深度學(xué)習(xí)已經(jīng)成為近來(lái)人工智能進(jìn)展的核心部分,NeurIPS 可以被視作更大的人工智能生態(tài)系統(tǒng)的標(biāo)志性會(huì)議。
NeurIPS 由 100 多家公司和 Google、英偉達(dá)、微軟、Facebook、IBM、亞馬遜等人工智能領(lǐng)域的巨頭贊助,它們都有展位,并在大會(huì)上展示最新技術(shù)進(jìn)展。NeurIPS 為期 6 天,每年舉辦會(huì)議的地點(diǎn)各不相同——2018 是在蒙特利爾,其大會(huì)內(nèi)容和論壇主要是偏技術(shù)性的。研究人員要花費(fèi)數(shù)天的時(shí)間來(lái)深入研究最新課題、發(fā)表學(xué)術(shù)論文以及最終展示新技術(shù)。由于大會(huì)的三個(gè)主題(神經(jīng)科學(xué)、機(jī)器學(xué)習(xí)理論和應(yīng)用機(jī)器學(xué)習(xí))的議程同時(shí)進(jìn)行,一位研究者(指的是人類)不可能將所有的議程都參加和體驗(yàn)一遍。這篇文章匯總了我在 NeurIPS 2018 上收集到的一些見(jiàn)解和觀點(diǎn),以及 一些令人振奮的 2019 年趨勢(shì)預(yù)測(cè),大家可以進(jìn)行參考。
今年,人工智能領(lǐng)域取得了許多突破,包括生成網(wǎng)絡(luò)、無(wú)監(jiān)督學(xué)習(xí)和小樣本學(xué)習(xí)、元學(xué)習(xí)和自動(dòng)機(jī)器學(xué)習(xí)、增強(qiáng)學(xué)習(xí),以及一些深度學(xué)習(xí)成果的理論解釋等方面的改進(jìn)。
圖像、文本和語(yǔ)音的生成模型
生成模型對(duì)整個(gè)概率分布進(jìn)行估計(jì),從而可以生成圖像、文本或語(yǔ)音等新內(nèi)容。預(yù)測(cè)模型在給定輸出的情況下,學(xué)習(xí)一些分類器來(lái)預(yù)測(cè)輸出標(biāo)簽的概率。例如,當(dāng)給定 Donald Trump 的原始像素——pr(Trump | pixels),預(yù)測(cè)模型可以預(yù)測(cè)圖像為 Trump 的概率。
不同的是,生成模型針對(duì)某些期望的輸出——pr (pixels | Trump),來(lái)學(xué)習(xí)輸入上的整個(gè)概率分布,從而能夠根據(jù)需求生成全新的 Donald Trump 圖像。遞歸神經(jīng)網(wǎng)絡(luò)用來(lái)生成文本已經(jīng)有一段時(shí)間了,但是最近才在深度學(xué)習(xí)領(lǐng)域取得進(jìn)展,改進(jìn)得足以用來(lái)生成圖像。
在過(guò)去的幾年里,能夠產(chǎn)生真實(shí)感圖像的模型發(fā)展得很快,它們現(xiàn)在可以產(chǎn)生一些真正令人印象深刻的圖像??纯聪路降膸讖垐D片,你能分辨出哪些是真實(shí)的,哪些是由神經(jīng)網(wǎng)絡(luò)生成的嗎?
你能猜出哪些圖像是由神經(jīng)網(wǎng)絡(luò)生成的嗎?
其實(shí)這是一個(gè)故意誤導(dǎo)的問(wèn)題,因?yàn)樗鼈兌际撬惴ㄉ傻膱D像(https://arxiv.org/pdf/1807.03039.pdf)——這些人并不真實(shí)地存在。
這里的許多演講都有助于推動(dòng)這個(gè)領(lǐng)域的發(fā)展,其中就包括實(shí)現(xiàn)僅僅使用基于文本的描述來(lái)修改圖像(https://arxiv.org/pdf/1810.11919.pdf)?,F(xiàn)在,根據(jù)一個(gè)簡(jiǎn)單的需求,就可以立即編輯鳥(niǎo)類和花的照片。
生成模型讓我們使用基于文本的描述就能修改圖像
這項(xiàng)技術(shù)非常厲害且令人興奮。然而,這些生成模型還沒(méi)有被真正投入使用,由于還沒(méi)有人真的知道用它們來(lái)干什么... 不過(guò),英偉達(dá)在本次會(huì)議上展示的 Demo 可能已經(jīng)開(kāi)始填補(bǔ)這一缺口了。他們展示了一個(gè)用戶對(duì)街道場(chǎng)景進(jìn)行導(dǎo)航的虛擬仿真,該街道場(chǎng)景不是由圖形或視頻游戲設(shè)計(jì)師生成的,而是完全由從現(xiàn)場(chǎng)拍攝、然后拼接到一個(gè)連貫的 3D 場(chǎng)景中的圖像生成的。
2019 年趨勢(shì)預(yù)測(cè)
公司將使用生成模型來(lái)為購(gòu)房者、博物館參觀自動(dòng)生成數(shù)字化演示,甚至為電子游戲生成內(nèi)容。
以更少的標(biāo)簽學(xué)習(xí)(以及完全不使用標(biāo)簽學(xué)習(xí))
無(wú)監(jiān)督學(xué)習(xí)是人工智能的長(zhǎng)遠(yuǎn)目標(biāo)。我們往往擁有大量的數(shù)據(jù),然而這些數(shù)據(jù)都是沒(méi)有經(jīng)過(guò)標(biāo)記的。這意味著,除了基本的數(shù)據(jù)勘探和異常檢測(cè)場(chǎng)景,這些數(shù)據(jù)基本無(wú)法使用。遺憾的是,這個(gè)問(wèn)題在 2018 年仍然沒(méi)有得到解決,并且在近期內(nèi)無(wú)法解決。不過(guò),這一領(lǐng)域至少在使用未標(biāo)記的數(shù)據(jù)來(lái)改進(jìn)(標(biāo)記數(shù)據(jù))監(jiān)督學(xué)習(xí)過(guò)程方面已經(jīng)取得了許多進(jìn)展。
最近一篇題為《無(wú)監(jiān)督神經(jīng)機(jī)器翻譯》(Unsupervised Neural Machine Translation,https://arxiv.org/abs/1710.11041)的論文表明,無(wú)監(jiān)督學(xué)習(xí)有助于機(jī)器翻譯。給定語(yǔ)言中擁有豐富的文本,所有書籍、博客和信件都可以以你喜歡的任何語(yǔ)言存在,問(wèn)題是你需要使用平行的句子來(lái)展示,深度學(xué)習(xí)算法如何將原文本(例如法語(yǔ))的詞語(yǔ)直接標(biāo)記為目標(biāo)語(yǔ)言(例如英語(yǔ))。對(duì)于一些特定的語(yǔ)言對(duì),例如斯瓦希里語(yǔ)—老撾語(yǔ),這些數(shù)據(jù)太過(guò)缺乏且難以獲得。這篇論文展示了,通過(guò)在單語(yǔ)料庫(kù)上訓(xùn)練編碼器和解碼器間的共同嵌入空間,可以學(xué)習(xí)一種弱形式的無(wú)監(jiān)督翻譯。盡管直接的無(wú)監(jiān)督翻譯表現(xiàn)不是很好,但是學(xué)習(xí)到的共同嵌入可以大大加快監(jiān)督模型的訓(xùn)練,從而用更少的標(biāo)記的句子和更少的訓(xùn)練就可以提高精度。
會(huì)議上的許多演講和論文,都在繼續(xù)使用這種思路:以數(shù)量更少的標(biāo)記樣本來(lái)獲得最高精確度。其中幾個(gè)案例包括:使用少量的音頻記錄來(lái)將轉(zhuǎn)移學(xué)習(xí)用于克隆語(yǔ)音,以及使用更少得多的樣本來(lái)實(shí)現(xiàn)每一類別的目標(biāo)檢測(cè)。
2019 年趨勢(shì)預(yù)測(cè)
雖然使用無(wú)監(jiān)督學(xué)習(xí)直接學(xué)習(xí)新信息這一方面沒(méi)有取得建設(shè)性的突破,但是無(wú)監(jiān)督預(yù)訓(xùn)練、遷移學(xué)習(xí)以及少量學(xué)習(xí)都加速了在新領(lǐng)域的訓(xùn)練,也有助于控制學(xué)習(xí)精確的分類器所需要的訓(xùn)練時(shí)間和樣本數(shù)量。
自動(dòng)機(jī)器學(xué)習(xí)和元學(xué)習(xí)
當(dāng)今的趨勢(shì)是「解放雙手」,而這一趨勢(shì)的點(diǎn)點(diǎn)滴滴都涉及到深度學(xué)習(xí),如神經(jīng)網(wǎng)絡(luò)架構(gòu)和超參數(shù)調(diào)優(yōu)。元學(xué)習(xí)致力于「學(xué)會(huì)如何學(xué)習(xí)」,然后將學(xué)習(xí)能力遷移到其尚未涉足的新領(lǐng)域。雖然元學(xué)習(xí)仍然是一項(xiàng)正在發(fā)展中的工作,但是自動(dòng)機(jī)器學(xué)習(xí)正被有效地應(yīng)用于快速地完成比窮舉網(wǎng)格搜索(brute-force grid search)更高效的超參數(shù)搜索,以及自動(dòng)學(xué)習(xí)特別的聯(lián)結(jié)主義架構(gòu)。甚至最近為自動(dòng)機(jī)器學(xué)習(xí)發(fā)布的常用的 scikit-learn(https://scikit-learn.org/stable/)中也擁有了一個(gè)可直接使用的插件。
2019 年趨勢(shì)預(yù)測(cè)
機(jī)器學(xué)習(xí)研究者花在用不同的超參數(shù)反復(fù)試驗(yàn)的時(shí)間會(huì)變少,而是使用自動(dòng)機(jī)器學(xué)習(xí)所提供的工具去運(yùn)行單個(gè)的實(shí)驗(yàn)。這將加速研究周期,從而讓研究者可以探索更多的課題。
深度學(xué)習(xí)理論
深度學(xué)習(xí)模型往往會(huì)被喻為「黑盒子」,這是由于深度學(xué)習(xí)模型現(xiàn)在包含了萬(wàn)億個(gè)以復(fù)雜方式關(guān)聯(lián)的參數(shù)。即使是創(chuàng)建了這個(gè)模型的研究者,也難以對(duì)正在發(fā)生的事情進(jìn)行全面的理解。深度學(xué)習(xí)其中的一個(gè)吸引力就是研究者不一定要手動(dòng)創(chuàng)建特征,甚至不需要完全了解他們正在應(yīng)用算法的領(lǐng)域。我們能非常真切地感受到,比起研究者們,深度學(xué)習(xí)模型其實(shí)更了解正在被解決的問(wèn)題。
這展示了研究者們對(duì)于自動(dòng)駕駛汽車、醫(yī)療影像以及金融交易等關(guān)鍵任務(wù)系統(tǒng)的關(guān)注。
如果我們不知道機(jī)器是如何進(jìn)行工作的,我們能真正說(shuō)它是安全的嗎?這就是為什么要在深層學(xué)習(xí)背后的理論上取得進(jìn)展如此重要的原因。本次會(huì)議上的許多演講和論文就聚焦在了這一領(lǐng)域。
《關(guān)于神經(jīng)元容量》(On neuronal capacity)是一場(chǎng)非常有趣的演講,它從數(shù)學(xué)上表明了不同尺寸的前饋神經(jīng)網(wǎng)絡(luò)可以存儲(chǔ)多少位。這些知識(shí)可以用于了解抽象和在神經(jīng)網(wǎng)絡(luò)中產(chǎn)生的記憶的各自的水平。例如,20000 張彩色像素為 256×256 的圖像,擁有約為 10 億(20000X256X256X3)條信息。如果這個(gè)值與網(wǎng)絡(luò)的神經(jīng)容量相當(dāng),那么這個(gè)模型就太大了,僅通過(guò)簡(jiǎn)單記憶數(shù)據(jù)就會(huì)使這些數(shù)據(jù)過(guò)度擬合,并且該模型也很難適用于樣本外測(cè)試集。研究者在選擇其網(wǎng)絡(luò)的大小時(shí)可以利用這些信息。
此外,《關(guān)于詞嵌入的維度》這場(chǎng)演講為在深度學(xué)習(xí)社區(qū)異常大的嵌入大小給出了理論解釋。這些解釋有助于正確地選擇嵌入大小等超參數(shù),而無(wú)需高成本的經(jīng)驗(yàn)搜索。
我們甚至有一個(gè)神經(jīng)科學(xué)解釋,解釋反向傳播是如何在大腦中發(fā)生的。長(zhǎng)期以來(lái),人們一直批評(píng)深層學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)不能真正模擬大腦中的連接,這是由于使用了反向傳播,這是一種通過(guò)網(wǎng)絡(luò)的權(quán)重將分類器中的錯(cuò)誤傳遞回去的方法。然而,最近一篇關(guān)于神經(jīng)科學(xué)的論文(https://papers.nips.cc/paper/8089-dendritic-cortical-microcircuits-approximate-the-backpropagation-algorithm.pdf)概述了一個(gè)模型,該模型可以解釋反向傳播類過(guò)程是如何在大腦中發(fā)生的。這可能為那些相信他們的算法的智能類似于人類智能的人工智能研究人員提供一些撫慰。
強(qiáng)化學(xué)習(xí)
強(qiáng)化學(xué)習(xí)(RL)是用于解決游戲、金融市場(chǎng)和機(jī)器人技術(shù)中常見(jiàn)的順序決策問(wèn)題的方法。今年,許多關(guān)于強(qiáng)化學(xué)習(xí)的演講都集中在數(shù)據(jù)效率這個(gè)方面。應(yīng)用于國(guó)際象棋、圍棋、 atari 以及最近的 Dota(https://blog.openai.com/openai-five/)等游戲中的「策略網(wǎng)絡(luò)」,已經(jīng)取得了驚人的突破。然而,這些方法都需要大量的資源來(lái)模擬游戲的數(shù)百萬(wàn)次迭代。
對(duì)于強(qiáng)化學(xué)習(xí)領(lǐng)導(dǎo)者 Google 旗下的 DeepMind 等發(fā)表的諸多論文,一般的 AI 研究者都無(wú)法對(duì)其復(fù)制,因?yàn)樗麄儫o(wú)法使用 DeepMind 所擁有的成百上千的云端 GPU。這就是為什么研究者致力于開(kāi)發(fā)不僅能玩好游戲,而且可復(fù)制、可循環(huán)利用以及穩(wěn)健的強(qiáng)化學(xué)習(xí)算法。對(duì)此,模型必須進(jìn)行簡(jiǎn)化并且變得更加的「數(shù)據(jù)高效」,這就意味著要求使用更少的仿真迭代(更少的數(shù)據(jù)),最終得到準(zhǔn)確的模型。
2019 年趨勢(shì)預(yù)測(cè)
通過(guò)自對(duì)弈的方式(無(wú)真實(shí)世界的例子)自主學(xué)習(xí)以超人類的水平下圍棋、象棋以及 Shogi 的 DeepMind 算法——AlphaGo Zero,將會(huì)被研究社區(qū)復(fù)制,并且研究者們可以在單個(gè)的消費(fèi)級(jí) GPU 上訓(xùn)練該算法的某個(gè)版本。強(qiáng)化學(xué)習(xí)算法將開(kāi)始在星際爭(zhēng)霸(Starcraft)和 多塔(Dota)等更為復(fù)雜的現(xiàn)代競(jìng)技游戲中打敗人類。
對(duì)話式聊天機(jī)器人 VS 目標(biāo)導(dǎo)向的虛擬助手
我參加了「第二屆會(huì)話式人工智能論壇:今天的實(shí)踐和明天的潛力」(The 2nd Conversational AI Workshop: today's practice and tomorrow』s potential)。這個(gè)論壇對(duì)「對(duì)話式聊天機(jī)器人」和「目標(biāo)導(dǎo)向的虛擬助手」進(jìn)行了清晰的描述。對(duì)話式聊天機(jī)器人包括社交機(jī)器人,它們可以就各種領(lǐng)域進(jìn)行對(duì)話,除了可以讓用戶始終參與之外往往沒(méi)有目標(biāo)。一個(gè)對(duì)話聊天機(jī)器人的例子是微軟的 twitterbot Tay 及其第二代 Zo。然而,目標(biāo)導(dǎo)向的虛擬助手則是聚焦于完成一些預(yù)先設(shè)定的任務(wù),這類助手包括亞馬遜的 Alexa、蘋果的 Siri、微軟的 Cortana 以及自動(dòng)化的幫助中心機(jī)器人。
對(duì)話式聊天機(jī)器一直以來(lái)都更難創(chuàng)建得多,因?yàn)轫憫?yīng)的類型是多種多樣的,并且取決于上下語(yǔ)境,甚至與其對(duì)話的用戶。這個(gè)論壇展示了對(duì)話式機(jī)器人和虛擬助手的最新進(jìn)展。
二者遵循與上述技術(shù)相似的發(fā)展路線。無(wú)監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)和記憶網(wǎng)絡(luò)的改進(jìn)減少了重復(fù),增強(qiáng)了信息檢索和對(duì)語(yǔ)境的理解能力。
2019 年趨勢(shì)預(yù)測(cè)
2019 年,我們還無(wú)法成功研發(fā)對(duì)話式聊天機(jī)器人(你可以這類聊天機(jī)器人交談任何事情,它的聲音聽(tīng)起來(lái)像人類一樣),不過(guò)會(huì)有更多水平高的虛擬助手出現(xiàn),它們可以在人類進(jìn)行網(wǎng)上購(gòu)物、車輛預(yù)定、與商場(chǎng)導(dǎo)購(gòu)互動(dòng)以及參與支援呼叫中心等活動(dòng)時(shí)提供幫助。越來(lái)越多的應(yīng)用設(shè)備將會(huì)采用語(yǔ)音控制,我們僅用聲音就可以控制烤箱或者大門(而不需要將其連接到 Alexa 上)。
今年,大家也對(duì) AI 提出了許多擔(dān)憂,包括防護(hù)、安全、歧視性偏見(jiàn)以及 AI 研究者缺乏包容性和多樣性等。如果企業(yè)無(wú)法進(jìn)行自我監(jiān)管,這些擔(dān)憂可能導(dǎo)致監(jiān)管反彈。
圖像分類器的對(duì)抗性攻擊
我數(shù)了一下,有將近 12 篇論文是關(guān)于深度學(xué)習(xí)模式的「對(duì)抗性攻擊」的。對(duì)于它們不熟悉的圖像,這些攻擊傾向于集中在圖像分類算法上,并試圖通過(guò)向圖像的像素值添加小擾動(dòng),來(lái)欺騙分類器。
例如,將適量的噪聲添加到「豬」的圖像后,該圖像會(huì)發(fā)生改變,從而誤導(dǎo)深度學(xué)習(xí)模型將其歸類為「飛機(jī)」。
乍一看,這似乎是一種無(wú)害的科學(xué)怪癖。然而,想到面部識(shí)別正成為智能手機(jī)登錄等安全授權(quán)的越來(lái)越重要的部分。研究者已經(jīng)表明,通過(guò)簡(jiǎn)單地更改圖像周圍的像素,分類器可以將你認(rèn)作其他人。當(dāng)然,人類可以馬上判斷出某些事情是錯(cuò)的,但是欺騙自動(dòng)系統(tǒng)就像戴上某款時(shí)髦的數(shù)字眼鏡一樣簡(jiǎn)單。
或者想一下這對(duì)于自動(dòng)駕駛汽車來(lái)說(shuō)意味著什么。讓自動(dòng)駕駛汽車變得可行的許多突破,都來(lái)自于深度學(xué)習(xí)圖像分類器,它能夠準(zhǔn)確地讀取路標(biāo)、檢測(cè)行人以及解譯信號(hào)。研究已經(jīng)表明,通過(guò)簡(jiǎn)單地將黑色帶和白色帶適當(dāng)?shù)刭N在路標(biāo)上,可以讓這些分類器被「打擾」,從而進(jìn)行錯(cuò)誤的分類。
創(chuàng)建不受此類攻擊影響的模型,對(duì)于保障人們的安全和防護(hù)至關(guān)重要。幸運(yùn)的是,現(xiàn)在已經(jīng)有許多方法可以構(gòu)建這些能夠進(jìn)行自我防衛(wèi)的模型,例如正則化、數(shù)據(jù)增強(qiáng)、對(duì)數(shù)據(jù)來(lái)源進(jìn)行警惕(詳細(xì)見(jiàn)含毒數(shù)據(jù) https://arxiv.org/abs/1804.00792)、向模型添加可解釋性、收集更多數(shù)據(jù)以及構(gòu)建新型檢測(cè)器等。構(gòu)建不受攻擊的模型的結(jié)果是,泛化也得到了改進(jìn),這就意味著模型將對(duì)與初始訓(xùn)練集不同的數(shù)據(jù)進(jìn)行處理,同時(shí)總體的準(zhǔn)確性也得到提高。遺憾的是,盡管在創(chuàng)建不受攻擊的模型方面已經(jīng)取得了許多進(jìn)展,但并不是每個(gè)人按照這一最佳實(shí)踐來(lái)創(chuàng)建 AI 模型。
2019 年趨勢(shì)預(yù)測(cè)
對(duì)于生物識(shí)別安全,人臉識(shí)別將變得越來(lái)越重要。例如,我們會(huì)用面部識(shí)別來(lái)登錄銀行帳戶。今年,公司將無(wú)法采用適當(dāng)?shù)念A(yù)防措施來(lái)使其網(wǎng)絡(luò)不受「對(duì)抗性攻擊」的影響,并且有人將會(huì)成為這種欺騙活動(dòng)的受害者。
機(jī)器學(xué)習(xí)中的固有偏見(jiàn)和歧視
今年,人工智能所經(jīng)歷的另一反彈來(lái)自于模型,這些模型顯示出了種族和性別歧視。在無(wú)法充分代表少數(shù)群體以及數(shù)據(jù)無(wú)法提供準(zhǔn)確快照等有偏見(jiàn)的數(shù)據(jù)集上訓(xùn)練過(guò)的模型,已經(jīng)證實(shí)會(huì)犯明顯的錯(cuò)誤,并且不利于針對(duì)一個(gè)群體。這個(gè)問(wèn)題是雙重的:第一個(gè)問(wèn)題是,當(dāng)算法正在進(jìn)行應(yīng)該批準(zhǔn)誰(shuí)貸款、應(yīng)該選擇誰(shuí)來(lái)參加面試、甚至確定犯罪活動(dòng)等關(guān)鍵決策時(shí),可解釋性和透明性往往是必要的;第二個(gè)問(wèn)題是,由于缺乏公平性和責(zé)任制,不平衡和不完整的數(shù)據(jù)集最終會(huì)把某一些群體孤立起來(lái)。
有了龐大的人臉數(shù)據(jù)庫(kù)和不完美的分類器,很容易為與犯罪完全無(wú)關(guān)(https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28)的人的肖像找到匹配。美國(guó)地區(qū)的人臉識(shí)別,由于數(shù)據(jù)集以白人目標(biāo)為主要特征,具有嚴(yán)重的偏見(jiàn),其對(duì)非洲裔美國(guó)人的識(shí)別表現(xiàn)更差,并且對(duì)亞洲人的識(shí)別要比白種人更差。同樣地,亞洲分類器的這種偏見(jiàn)是相反的,由于它們?cè)谄鋽?shù)據(jù)集中具有相反的偏見(jiàn)。
AI 研究者不是倫理學(xué)家,也不應(yīng)該是公平、對(duì)或錯(cuò)的最終決定者,他們應(yīng)該做的是努力將責(zé)任制、透明性以及可解釋性增加到模型中。遺憾的是,這是正是黑盒深度學(xué)習(xí)模型最大的弱點(diǎn)之一。它們都是能夠完成表現(xiàn)非常驚人的分類的非常強(qiáng)大的算法,不過(guò)在很大程度上仍然難以捉摸。
現(xiàn)在有一些方法可以解決這個(gè)問(wèn)題,例如給因素重要性分析增加特定的特征,執(zhí)行消融學(xué)習(xí)(ablation studies)以及對(duì)歧視性偏見(jiàn)進(jìn)行顯性測(cè)試(例如對(duì)黑種人和白種人的人臉測(cè)試集進(jìn)行 A/B 測(cè)試)。然而,這個(gè)問(wèn)題仍然是一個(gè)挑戰(zhàn),并且至今還沒(méi)有一個(gè)簡(jiǎn)單的解決方案。如果 AI 公司無(wú)法對(duì)這一問(wèn)題進(jìn)行自我監(jiān)督,那么隨著公民權(quán)受到侵犯,會(huì)出現(xiàn)監(jiān)管反彈。
2019 年 趨勢(shì)預(yù)測(cè)
未來(lái),投訴機(jī)器學(xué)習(xí)模式具有歧視性以及違反了反歧視法律的訴訟數(shù)量將會(huì)增多。深度學(xué)習(xí)模型很大程度上仍將保持難以捉摸的特點(diǎn),但監(jiān)管壓力、安全性擔(dān)憂以及理論進(jìn)展,會(huì)促使研究者將會(huì)花更多的時(shí)間和資金來(lái)提高深度學(xué)習(xí)模型的可解釋性和透明性。
人工智能領(lǐng)域在 2018 年取得了許多驚人的突破;到 2019 年,既有機(jī)遇,也面臨的許多挑戰(zhàn)。毫無(wú)疑問(wèn),未來(lái)還會(huì)有更多的驚喜,但我希望我們能夠繼續(xù)以謹(jǐn)慎和肩負(fù)社會(huì)責(zé)任感的方式,推動(dòng)技術(shù)的發(fā)展。
via:https://zvelo.com/neurips-2018-ai-advancements-insights-and-2019-predictions/,雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。