2
本文作者: 溫曉樺 | 2015-07-28 10:04 |
雷鋒網(wǎng)7月28日消息,近日,未來生活研究所(the Future of Life Institute)在今天于阿根廷召開的人工智能國際聯(lián)合大會(huì)(IJCAI)上公布了一封由著名天體物理學(xué)家霍金、特斯拉CEO埃隆·馬斯克(Elon Musk)以及蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)與其他上百位專業(yè)人士共同簽署的號召禁止人工智能武器的公開信。公開信稱,人工智能武器是繼火藥和核武器后“戰(zhàn)爭領(lǐng)域的第三次革命”,禁止人工智能武器的禁令必須盡快頒布。
“任何推動(dòng)人工智能武器開發(fā)的軍事力量,都有可能導(dǎo)致全球性的軍備競賽,”公開信稱,“那些自動(dòng)‘選擇并打擊目標(biāo),無需人工干預(yù)’的武器可能成為明天的AK 47,成為助長戰(zhàn)爭、恐怖主義的全球不穩(wěn)定因素。”據(jù)悉,公開信還包括其他知名簽署人,如Skype聯(lián)合創(chuàng)始人賈安·塔里安(Jaan Tallinn)、杰出語言學(xué)家諾姆·喬姆斯基(Noam Chomsky)等。
該信表示,帶有武器的四軸無人機(jī)就是一個(gè)很好的例子。雖然人工智能武器可以減少戰(zhàn)場上的人員傷亡,但這本身就是一個(gè)錯(cuò)誤,因?yàn)樗鼤?huì)降低走向戰(zhàn)爭的門檻。這些專家稱,人工智能系統(tǒng)可能將在數(shù)年內(nèi),而非數(shù)十年內(nèi)成為可能?!安煌诤四?,人工智能武器不需要高昂的成本及難以獲得的原材料,所以這種武器很容易在各軍事力量中普及。他們出現(xiàn)在黑市和恐怖分子手中只是時(shí)間的問題?!边@些聯(lián)名“上書”的科學(xué)家表示,禁止人工智能武器的禁令必須盡快頒布,以避免軍備競賽,這比“控制人口數(shù)量的意義更加深遠(yuǎn)”。
人工智能一直是一項(xiàng)備受爭議的課題。目前半自動(dòng)武器系統(tǒng)已經(jīng)大幅增加,美國空軍預(yù)測,“到2030年機(jī)械性能將極大增強(qiáng),人類反而將成為最弱的系統(tǒng)組件?!?nbsp;無論是人工智能的批評者和支持者都表示,人工智能武器系統(tǒng)的界限很難拿捏。
不過,雖然現(xiàn)在越來越多的公司在投資研發(fā)該技術(shù),從IBM的Watson電腦系統(tǒng)到蘋果的Siri智能語音助手等。但也有一些公司開始限制該技術(shù)在軍事中的使用,例如人工智能公司DeepMind被谷歌收購時(shí),該公司在收購協(xié)議中加入了一項(xiàng)條款,要求谷歌不能將其技術(shù)運(yùn)用于軍事領(lǐng)域。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。