8
人工智能一定會(huì)使戰(zhàn)爭(zhēng)更加慘烈嗎?
人們擔(dān)心迅速發(fā)展的人工智能如果用于戰(zhàn)場(chǎng),其后果將十分嚴(yán)重,它可以提高殺人機(jī)器的效率,同時(shí)承擔(dān)的責(zé)任更少。上周數(shù)千名科學(xué)家和技術(shù)人員發(fā)表了一份公開信上,呼吁禁止使用人工智能控制的致命性武器。
但與你想象的不同,專家們對(duì)機(jī)器人殺人一事存在意見分歧。
包括Elon Musk、霍金和Steve Wozniak等在內(nèi)的許多優(yōu)秀人工智能研究員、知名科學(xué)家、企業(yè)家都簽署了那份公開信。信上表示:
“人工智能技術(shù)已經(jīng)成熟,如果法律允許,將于近幾年內(nèi)而不是幾十年內(nèi)實(shí)現(xiàn)人工智能系統(tǒng)部署。另一方面其危險(xiǎn)系數(shù)較高:自動(dòng)化武器可稱得上是僅次于火藥和核武器的發(fā)明的第三次戰(zhàn)場(chǎng)革命?!?/p>
近年來人工智能發(fā)展迅速,特別是機(jī)器學(xué)習(xí)領(lǐng)域。該領(lǐng)域通過大量數(shù)據(jù)讓計(jì)算機(jī)學(xué)習(xí)識(shí)別復(fù)雜、微妙的模式,在現(xiàn)實(shí)世界中使用這些技術(shù)將會(huì)引發(fā)道德爭(zhēng)議。與此同時(shí),先進(jìn)的軍事技術(shù)可以實(shí)現(xiàn)遠(yuǎn)程控制。例如,無人機(jī)和拆彈機(jī)器人的使用,讓人們預(yù)想在未來可以實(shí)現(xiàn)這些技術(shù)的自動(dòng)化。
2012年,美國國防部發(fā)布禁令:10年內(nèi)禁止研發(fā)和使用“自動(dòng)化和半自動(dòng)化”武器。今年年初,聯(lián)合國舉行會(huì)議討論自動(dòng)化致命性武器以及禁令實(shí)施的可行性問題。
盡管軍用無人機(jī)和機(jī)器人自動(dòng)化性能還可以升級(jí),但是有人認(rèn)為不經(jīng)人類控制而讓全自動(dòng)化機(jī)器實(shí)施關(guān)鍵任務(wù)的想法,其實(shí)是無稽之談。雖然人工智能領(lǐng)域仍存在許多基本挑戰(zhàn),但全自動(dòng)化武器所需的技術(shù)何時(shí)成熟仍是未知數(shù)。
加州理工州立大學(xué)哲學(xué)專家Patrick Lin認(rèn)為:“我們?cè)谌斯ぶ悄茴I(lǐng)域取得了新的進(jìn)展,仍有許多人懷疑全自動(dòng)化時(shí)代是否能到來。沒有人可以完美的預(yù)測(cè)未來?!?/p>
他說:“這封信在引發(fā)人們警覺性方面十分有用,但它也不完全是為了引發(fā)討論,它試圖終止?fàn)幾h,并認(rèn)為‘我們已經(jīng)找出了答案,你只需要支持我們的意見’?!?/p>
公開信中沒有提及的一個(gè)問題是,在一些情況下自動(dòng)化武器能否證明其可以幫助減少不必要的傷害。因?yàn)樗麄儾粫?huì)疲勞,犯錯(cuò)更少,也不會(huì)有戰(zhàn)士的情緒化影響。
有人希望人工智能系統(tǒng)更加智能,但又擔(dān)心如果失去控制,會(huì)對(duì)我們的防御系統(tǒng)帶來極大損失。
許多人工智能專家關(guān)注這個(gè)問題,仍有一些科學(xué)家認(rèn)為這只是放錯(cuò)位置的資源。例如,有人認(rèn)為如果想避免人工智能給金融市場(chǎng)、空匯總交通系統(tǒng)等帶來嚴(yán)重后果,可以讓那里的計(jì)算機(jī)不升級(jí)人工智能。
另外,Lin認(rèn)為不受控制的殺人機(jī)器人概念令人擔(dān)心,但它畢竟離我們還遠(yuǎn),或許自動(dòng)化武器更應(yīng)該引起人們的關(guān)注,畢竟它是一個(gè)更加緊迫的現(xiàn)實(shí)問題。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。