0
雷鋒網(wǎng)AI科技評論:下面這些問題,可能在我們不久的將來(一年或者兩年?)就會出現(xiàn)在我們身邊——
目前人工智能正逐漸大規(guī)模地應(yīng)用于醫(yī)療行業(yè),許多疾病的診斷已經(jīng)可以通過機器學習的方法來完成。但是我們設(shè)想,如果人工智能診斷出現(xiàn)醫(yī)療誤判,最終導(dǎo)致醫(yī)療事故,那么誰將來承擔事故責任呢?是提供技術(shù)的公司,還是醫(yī)院,或者醫(yī)生個人?
自動駕駛正逐漸上路,據(jù)各方估計在2020年之前自動駕駛汽車將進入消費市場。不可避免的,自動駕駛汽車在不熟悉的環(huán)境中可能會導(dǎo)致交通事故(例如2016年的特斯拉自動駕駛汽車事故),那么在這種情況下誰將承擔法律責任呢?是車主,還是車輛生產(chǎn)方?
隨著人工智能系統(tǒng)以及機器人研究的發(fā)展,致命自主武裝系統(tǒng)逐漸應(yīng)用于軍事當中。當這些自主武裝系統(tǒng)在前線失控誤殺平民(甚至軍人)時,誰將承擔這些責任呢?
隨著人工智能的發(fā)展,技術(shù)的壟斷越來越嚴重,政府和大企業(yè)在逐漸壟斷著技術(shù)和數(shù)據(jù),他們一方面利用這些數(shù)據(jù)給我們的生活帶來便利,另一方面也在某種程度上控制著我們的生活。那么技術(shù)是否應(yīng)該開源開放呢?在什么樣的標準上我們的人權(quán)才能得以保障呢?
…………
隨著人工智能在人們生活中應(yīng)用越來越廣泛,也有越來越多的人對這些問題開始思考和制定規(guī)則。在過去的兩年時間里,有大量的AI研究人員開啟對AI倫理的思索。大家熟知的有:
2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft 和 IBM等幾家全球大公司共同成立了 Partnership on AI,來研究和制定人工智能技術(shù)的最佳實踐,促進公眾對人工智能的理解,并作為一個開放平臺來討論人工智能對人和社會的影響。
2016年12月,IEEE首家發(fā)布了第一版《合乎倫理的設(shè)計:將人類福祉與人工智能和自主系統(tǒng)優(yōu)先考慮的愿景》,由全球100多名人工智能、倫理學及相關(guān)領(lǐng)域的思想領(lǐng)袖和專家共同制定。
2017年6月,ITU(國際電信聯(lián)盟)舉辦了“AI for Good”的全球峰會。今年五月將在日內(nèi)瓦再次舉辦同一主題的峰會。
2017年11月,蒙特利爾大學舉辦“人工智能的社會責任發(fā)展”論壇,隨后并發(fā)表了《人工智能負責任開發(fā)宣言》
2017年,人類未來研究所發(fā)布的《阿西洛馬人工智能原則》(共23條)。有1273名人工智能 /機器人研究人員和其他2541人簽署并支持了這些原則。
此外,2016年聯(lián)合國在“特定常規(guī)武器公約”會議上啟動了關(guān)于人工智能在軍事使用上的全球性辯論,其中大多數(shù)締約方贊同了所謂的“對致命自主武器系統(tǒng)進行有意義的人類控制原則”, 這條原則提出“凡是無有意義的人類控制的致命自主武器系統(tǒng)都應(yīng)被禁止”。聯(lián)合國還在海牙建立了一個專門的研究機構(gòu)(犯罪和司法研究所),主要用來研究機器人和人工智能治理的問題。
但是上述的這些倫理思考,一方面并沒有經(jīng)過嚴格地思考和準確地定義;另一方面,在國家層次上關(guān)于AI的規(guī)則制定并不平衡,有的國家已經(jīng)優(yōu)先制定了機器人和人工智能的規(guī)則,甚至還通過立法來管理自動駕駛汽車;但大多數(shù)國家還沒有著手這樣的事情。
雷鋒網(wǎng)了解到,為了解決這樣的問題,近期歐盟的“歐洲科學和新技術(shù)倫理小組”(European Group on Ethics in Science and New Technologies,EGE)發(fā)布了一份聲明,希望各國能夠合作起來共同制定標準和規(guī)則,并呼吁對AI、機器人以及自主技術(shù)的倫理學進行廣泛和系統(tǒng)地討論。
在24頁的聲明中,EGE介紹了AI倫理的背景、面臨的問題以及重要的思考因素。它認為我們應(yīng)當跳出狹義的倫理框架思考。例如,到底是什么使我們陷入前文中提到的倫理困境?什么才算“人類控制”?人們是否應(yīng)當有權(quán)知道某個系統(tǒng)是自主系統(tǒng)還是人工系統(tǒng)?……
為了制定一套可作為建立全球標準和立法行動基礎(chǔ)的道德準則,作為第一步,EGE提出了一套基于《歐盟條約》和《歐盟基本權(quán)利憲章》的基本原則和民主先決條件。
人類尊嚴的原則,即尊重個人的生命和人格,不被人工智能技術(shù)所侵犯。舉例來說,當人與一個系統(tǒng)進行交互時,我們應(yīng)該明確被告知與我們交流的是機器,而不是真人。也即我們應(yīng)當有知情權(quán),知道我們是否以及什么時候在與機器(或另一個人類)交流。
自主原則意味著人的自由。對人工智能系統(tǒng)的控制和了解應(yīng)當成為人的責任,智能系統(tǒng)不得損害人類自由,不得設(shè)定自己的標準和規(guī)范。所有的智能技術(shù)必須尊重人類選擇是否、何時以及如何將決策和行動委托給它們。
責任原則必須成為人工智能研究和應(yīng)用的基礎(chǔ)。智能系統(tǒng)的開發(fā)和應(yīng)用必須為全球社會和環(huán)境的利益服務(wù),因此它們的設(shè)計應(yīng)該與人類的價值觀和權(quán)利相一致。由于智能系統(tǒng)的潛在濫用可能會對人類整體構(gòu)成重大的威脅,因此風險意識和預(yù)防措施至關(guān)重要。
應(yīng)當利用人工智能的優(yōu)勢為全球正義、平等做貢獻。應(yīng)盡早預(yù)防、檢測、報告和消除用于訓練人工智能系統(tǒng)的數(shù)據(jù)集中的歧視性偏差。我們需要協(xié)調(diào)一致的全球努力,實現(xiàn)平等獲得智能系統(tǒng)技術(shù),在社會內(nèi)部公平分配利益和機會。
關(guān)于人工智能發(fā)展和應(yīng)用管理的關(guān)鍵決定應(yīng)通過民主辯論和公眾參與來決定。在這些問題上進行全球合作和公共對話,將確保這些問題以包容、知情和遠見的方式被采納。接受教育或獲取有關(guān)技術(shù)信息的權(quán)利將有助于每個人都了解風險和機遇,并有權(quán)參與決策過程。
健全人工智能時代的法律,確保降低可能侵犯人權(quán)的智能系統(tǒng)產(chǎn)生的風險(如安全和隱私)。應(yīng)盡快投入開發(fā)有效的解決方案,以提供公平、明確的責任分配和有約束力的法律機制,解決該領(lǐng)域出現(xiàn)的所有法律挑戰(zhàn)。
在這方面,各國政府和國際組織應(yīng)加大力度,明確智能系統(tǒng)的不良行為所造成的損失該由誰來承擔責任。
智能系統(tǒng)的安全保障體現(xiàn)為三種形式:(1)其環(huán)境和用戶的外部安全;(2)可靠性以及內(nèi)部穩(wěn)健性,例如抗黑客攻擊能力;(3)人機交互方面的情感安全。AI開發(fā)人員必須考慮到安全性的所有方面,并在發(fā)布之前進行嚴格測試,以確保智能系統(tǒng)不會侵犯身心完整(bodily and mental integrity)和安全保障(safety and security)的人權(quán),尤其需要注意處于弱勢地位的人。
在數(shù)字通信技術(shù)無處不在,且能夠大量收集數(shù)據(jù)的時代,保護個人信息和尊重隱私權(quán)的權(quán)力受到了嚴重的挑戰(zhàn)。作為物聯(lián)網(wǎng)一部分的AI機器人,以及通過互聯(lián)網(wǎng)運行的AI軟件必須遵守數(shù)據(jù)保護條例,而不是收集和傳播數(shù)據(jù),或運行沒有給予同意的數(shù)據(jù)集。
智能系統(tǒng)不得干涉私人生活權(quán),其中包括免受技術(shù)影響個人發(fā)展和發(fā)表意見的權(quán)利,建立和發(fā)展與他人關(guān)系的權(quán)利,以及免于監(jiān)視的權(quán)利。
鑒于智能系統(tǒng)對私人生活和隱私的影響,可考慮引入兩項新的權(quán)利:有意義的人與人之間的接觸權(quán),以及不被推薦、測量、分析、指導(dǎo)和干擾的權(quán)利。
人工智能技術(shù)必須符合人類的責任,以確保我們星球上生命的基本先決條件,持續(xù)促進人類的繁衍以及為后代保持良好的環(huán)境。為了防止未來技術(shù)對人類生命和自然造成不利影響,制定的策略應(yīng)基于環(huán)境保護和可持續(xù)發(fā)展為優(yōu)先的策略。
雷鋒網(wǎng)結(jié)語:
相較于歐美國家在人工智能安全和倫理方面熱鬧的場面,國內(nèi)在此方面似乎稍顯冷淡一些。是我們不關(guān)心 AI 的安全和倫理嗎?是因為沒有利益驅(qū)動嗎?
私下與眾多學者的交流中,可以看出許多研究人員對人工智能的安全和倫理都有著莫大的興趣和關(guān)注。但我們知道,這樣的工作往往不是一個群體所能帶動和完成的,它需要政府(政策)、學者(學識)、企業(yè)(資金)、媒體(宣傳)和公眾(支持)共同推動。而引起政、學、產(chǎn)、媒、眾關(guān)注和推動的第一步,可能就是——舉辦一場 AI 安全和倫理的會議?
期待在這個為 AI 制定標準的時刻,我們中國能貢獻力量。
相關(guān)文章:
自動駕駛汽車倫理大討論:到底誰有權(quán)決定他人的生死?
對話上海新華醫(yī)院副院長潘曙明:發(fā)展醫(yī)療人工智能,技術(shù)和倫理必須同步
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。