1
編者按:《紐約時報》高級記者、普利策獎得主、《與機器人共舞》作者 John Markoff 近日在紐約時報上撰文,表達了他對不法分子利用人工智能犯罪的擔憂。文章原標題為《As Artificial Intelligence Evolves, So Does Its Criminal Potential》,以下為雷鋒網(wǎng)獨家編譯,未經(jīng)許可不得轉載。
隨著人工智能的不斷進化,犯罪技術也跟著變得高級起來。
想象這么一個場景:有一天你突然接到了年邁母親的求助電話,說自己不小心忘記了銀行密碼。但事實上她并不是你的母親,電話那頭也只不過是由計算機合成,聽起來很像她的聲音而已。
用人工智能電話中偽裝身份,雖然目前還只是科幻想象,但未來這種犯罪方法可能真的會成為現(xiàn)實。
如今,能促進偽裝技術廣泛使用的軟件正在急速發(fā)展。最近,打敗了世界上頂尖圍棋大師的 Alphabet 旗下子公司 DeepMind 就宣布,他們已設計出一種新的程序,該程序能“模仿人類的所有語音,并且聽起來比現(xiàn)有任何文本語音系統(tǒng)生成的語音都要自然。它把自然語言技術與人類語音之間的差距縮小 50% 還要多?!?/p>
但諷刺的是,每年 750 億美元規(guī)模的計算機安全行業(yè)今年還在談論,機器學習和模式識別技術未來將會如何扭轉目前這糟糕的計算機安全狀況。他們忽略了一個對大眾不利的因素。
“人們不知道,現(xiàn)在網(wǎng)絡攻擊正越來越不需要依賴人力,而且其擴張也是呈指數(shù)級的,”執(zhí)法機構顧問、《 Future Crimes 》一書作者 Marc Goodman 說道,“現(xiàn)在已經(jīng)不是 Matthew Broderick 躲在地下室黑別人計算機那個時代了。”他指的是 1983 年上映的電影 War Games 。
今年年初,美國情報局局長 James R. Clapper 就曾發(fā)出防止先進人工智能技術被惡意使用的警告。在年度安全審查中,Clapper 強調,人工智能確實能給予人們方便,但同時也能使網(wǎng)絡世界變得更易受攻擊。
Goodman 表示,計算機犯罪的復雜性可從不斷升級的攻擊工具中窺見,廣泛使用的惡意程序 Blackshades (該程序設計者是瑞典人,已于去年在美國定罪)就是其中之一。
該程序在計算機地下市場賣的很是火爆?!捌涔δ鼙环Q作‘匣子里的刑事特權’,” Goodman 說道。用戶無需任何專業(yè)技能就能輕松部署勒索程序,點一下鼠標就能進行視頻或音頻竊聽。
如今,人工智能研究人員正在努力用機器學習改善計算機視覺,語音理解,語音合成和自然語言理解等技術。但同時,黑客們也在學習使用機器學習這種先進的技術進行更高級的犯罪。一些計算機安全研究員們認為,早在 5 年前,不法分子就已經(jīng)開始使用人工智能技術進行數(shù)字犯罪了。
顛覆了互聯(lián)網(wǎng)領域,無所不在的驗證碼就能證明這一點。2003 年卡耐基梅隆大學發(fā)明了 challenge-and-response puzzle,這是一種能全自動區(qū)分計算機和人類的圖靈測試,用來阻止自動程序盜取在線賬戶。
加州計算機安全研究員 Stefan Savage 表示,五年來,人工智能領域的研究者和犯罪者都在部署計算機視覺軟件以顛覆驗證碼技術,“如果你已經(jīng)兩年沒改驗證碼,它就會被機器視覺算法給控制住?!?/p>
但令人驚訝的是,低成本和免費勞動力正在使惡意人工智能的發(fā)展得更迅速。比如,網(wǎng)絡罪犯已將驗證碼破解工作外包給電子工廠,而這只需要花費很少的人力費用就能辦到。
甚至,有些更具創(chuàng)造性的計算機騙子已經(jīng)開始用網(wǎng)絡色情獎勵那些能破解驗證碼的人,Goodman 說。人工智能軟件永遠也比不上免費勞動力這種商品。
所以,接下來會如何呢?
對初入網(wǎng)絡犯罪這一行的人來說,他們可是搭上高科技的順風車了。語音識別系統(tǒng),比如蘋果的 Siri 和微軟的小娜,如今正廣泛應用于人機交互中。亞馬遜的 Echo 語音控制揚聲器和 Facebook 的 Messenger 聊天機器人平臺也正在迅速成為網(wǎng)絡商務以及消費者常用的在線通道。而一般情況下,一旦像語音識別這樣的交流技術開始流行,那么罪犯也很快會利用上它們。
“我在想,用聊天機器人提供客戶支持的公司是不是正在默默承擔著一項社會工程,”krebsonsecurity的一名調查記者 Brain Krebs 說道。
社會工程通常是計算機安全鏈中最薄弱的一個環(huán)節(jié)。網(wǎng)絡犯罪分子會利用人們的信任或樂于助人的品質進行盜竊或偷窺,而創(chuàng)造出能騙人的高級人工智能只會使計算機等設備變得更不安全。
在州政府和政治運動的政治宣傳中,我們可以看出廣泛使用的聊天機器人技術帶來的負面影響。
研究人員甚至還發(fā)明詞語“計算機宣傳活動(computational propaganda)”來形容在 Facebook 和推特等社交媒體上爆發(fā)的欺騙行為。
在最近發(fā)布的一篇研究論文中,牛津互聯(lián)網(wǎng)學院的社會學家 Philip N. Howard 和布達佩斯考文紐斯大學(Corvinus University of Budapest)研究員 Bence Kollanyi 描述了在英國退歐公投時,政治聊天機器人是如何通過這樣一個小角色表現(xiàn)出其塑造線上對話的策略的。
而罪犯也遲早會用上這些軟件。
獨立計算機安全專家 Mark Seiden 說道:“攻擊社會工程的設計中有很多小伎倆,但就我所知,還沒人開始用機器學習來找什么人最容易上當受騙。”
也許,Seiden 專家不該說這句話。
via:nytimes
延伸閱讀:
GeekPwn 2016 |“屠宰場”里的黑客盛會:攻破機器人、智能插座、電子輪椅……
淺析:那些能和計算機說話的小東西們,搞癱了半個美國的網(wǎng)
網(wǎng)絡安全人才缺口50萬 360校企合作打造網(wǎng)絡人才庫
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。