1
本文作者: 墨痕 | 2015-02-09 11:45 |
六年前,三位飽含創(chuàng)作熱情的大學(xué)生成立了Clearpath機器人公司?,F(xiàn)在公司的80名員工能制作各種機器人,比如美國國防部使用的一種四輪機器人車輛,比如無人機,甚至還制造了機器船。若說這家公司有什么特別,那就是他們永遠不會制造殺手機器人。
目前Clearpath是第一家,也是唯一一家承諾不會制造殺手機器人的公司。公司CTO Ryan Gariepy說,這是去年的一個簡單決定,但它甚至幫助公司招募了一批機器人專家。這些人都是Clearpath獨特的道德倫理立場所吸引。
道德倫理問題已成為機器人公司的重中之重,殺手機器人時代即將來到,但我們毫無準備。韓國Dodam systems制造了超級神盾Ⅱ自主機器人炮塔,它使用熱成像儀和激光測距儀來識別并攻擊3公里內(nèi)的目標;而美國也在試驗自治導(dǎo)彈系統(tǒng)。
現(xiàn)在的軍用無人機仍被人類控制,但Gariepy表示,不用花費太多時間就可讓它們實現(xiàn)完全自動和自導(dǎo)。
“致命自動武器系統(tǒng)就要出現(xiàn),但我們還沒準備好用道德的方式來部署或設(shè)計這種自動武器系統(tǒng)?!?/p>
這是國際法的問題,也是編程的問題。在戰(zhàn)爭中,某些情況下使用武力似乎是必要的,但也可能將無辜的人們置于險境。我們?nèi)绾未蛟煸谌魏吻闆r下都能做出正確決定的殺手機器人?什么又才是正確的決定?
自動駕駛汽車也有類似的問題,比如一條狗突然出現(xiàn)在高速公路上,汽車是否應(yīng)該避開狗,但將乘客的安全置于險境?但如果出現(xiàn)的不是狗,而是一個孩子,或一輛校車呢?現(xiàn)在再設(shè)想一下戰(zhàn)場。
“我們在車輛問題上都沒法達成一致,而現(xiàn)在要討論的問題已經(jīng)是,建立一個自己可以決定什么時候保護生命、什么時候采取致命武力的系統(tǒng)?!?/p>
Peter Asaro是機器人武器控制國際委員會的創(chuàng)始人,過去幾年一直在游說國際聯(lián)盟對機器人殺手下禁令。這這樣才能讓諸如ClearPath這樣的公司開始生產(chǎn)一些炫酷的產(chǎn)品,而不用擔心自己的產(chǎn)品被拿去威脅平民。
軍隊對自治導(dǎo)彈很有興趣,這解決了一個戰(zhàn)術(shù)問題:當遠程控制的無人機的傳感器或網(wǎng)絡(luò)連接被破壞時,他們無法控制無人機。
但是Gariepy認為,與其研發(fā)自主決定攻擊目標的導(dǎo)彈或無人機,還不如花錢研究傳感器和抗干擾技術(shù)。
“我們?yōu)槭裁床话淹顿Y用于讓現(xiàn)有的無人機技術(shù)更有效率?如果我們面對并且克服這些困難,就可以讓部隊以外的普通人也受益?!?/p>
最近已經(jīng)有很多關(guān)于人工智能的危險的討論。Elon Musk擔心失控的人工智能會摧毀我們的生活。上個月,Musk捐贈了1000萬美元用于研究人工智能背后的道德倫理問題。另一些人,例如百度研究院員吳恩達,擔心未來的人工智能革命會減少就業(yè)崗位。
也許是時候站在道德的角度,嚴肅思考機器人的事情,就像Gariepy說做的那樣。
via wired
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。