0
本文作者: 楊麗 | 2020-01-08 21:45 |
導(dǎo)語:回顧過去幾年,AI負(fù)面案件頻出,政府出臺一系列政策以加強管控,但政策法律似乎無法完全解決這一問題,更需要與學(xué)術(shù)界、企業(yè)界通力合作,從技術(shù)研發(fā)、治理手段、倫理建設(shè)等方面完善。
人工智能技術(shù)發(fā)展迅猛的同時,引發(fā)了很多關(guān)于音視頻造假、監(jiān)控隱私、算法偏見、創(chuàng)作版權(quán)、就業(yè)等各個方面的社會性問題。
對此,雷鋒網(wǎng)對曠視AI治理研究院今日盤點的“2019全球十大AI治理事件”進行了解讀。
比起聚焦在鎂光燈下的熱點AI落地應(yīng)用,這十大案件卻反映出了AI落地的不光彩一面。
如果說解決AI治理的核心命題在于新時代下的倫理與法律規(guī)范,那么2020將是考驗其是否切實可行的關(guān)鍵一年。
為什么AI會讓我們有危機感?
特征一:新生事物對傳統(tǒng)倫理與法律的挑戰(zhàn)
典型案例:AI編寫假新聞、智能助手勸人“自殺”
事件說明:2019年2月,OpenAI公布了一款可編寫新聞的軟件,如提供“一節(jié)裝載受控核材料的火車車廂今天在Cincinnati被盜,下落不明”,軟件可編寫出7個段落組成的虛假新聞??紤]到這款軟件采用的無監(jiān)督語言模型GPT-2濫用可能帶來的危害,OpenAI僅發(fā)布部分代碼和研究論文供研究人員試驗。
2019年12月,某用戶在借用智能音箱查詢心臟問題時,該語音助手給出的答案卻嚇壞了該用戶,“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭……請確保刀能夠捅進你的心臟。”對此,事故方回應(yīng)稱,語音助手可能從任何人都可以編輯的維基百科上下載了有惡意性質(zhì)的文本。
警示意義:在以上兩起案例中,AI已經(jīng)具備了一定的文本學(xué)習(xí)并生成文字的能力。如果一開始收集的數(shù)據(jù)就被曲解,那么輸出的結(jié)果也會反映這一點。這極大地考驗著研究者會為其灌輸怎樣的價值導(dǎo)向。不過,現(xiàn)在AI還無法基于理解,實現(xiàn)自主學(xué)習(xí)人類的倫理道德。
特征二:社會發(fā)展與人類平權(quán)的固有矛盾
典型案例:性取向檢測、未來被淘汰職業(yè)
事件說明:追溯到2017年,斯坦福研究人員利用超過 35,000 張美國交友網(wǎng)站上男女的頭像圖片訓(xùn)練,讓機器學(xué)習(xí)識別人們的性取向。結(jié)果發(fā)現(xiàn),機器識別的準(zhǔn)確率要遠高于人類。
同年,BBC發(fā)布了10年后365種職業(yè)被淘汰的概率,其中,電話推銷員、打字員、會計位居前三,而這些職位的一個共同特征是,均屬于大量重復(fù)性勞動,機器經(jīng)由訓(xùn)練即可掌握。
警示意義:原本性取向話題,以及機器取代人力的焦慮是任何一個國家、社會由來已久的矛盾,然而AI像一個不懂事的孩子,直白地將問題放大,引發(fā)社會廣泛爭議。
社會要發(fā)展,勢必要提高生產(chǎn)力,AI儼然是眼下最具變革性的技術(shù)。在這樣的大背景下,那些前AI時代就在社會中存在的難題,能否隨著社會的發(fā)展得到妥善解決呢?
特征三:“裸奔”時代,公民的安全與隱私問題
典型案例:AI換臉、杭州人臉識別第一案、監(jiān)測頭環(huán)
事件說明:2019年8月,一款A(yù)I換臉軟件在社交媒體刷屏,用戶只需要一張正臉照就可以將視頻中的人物替換為自己的臉。由于用戶瘋狂涌進,使得該軟件運營商服務(wù)器一晚上就燒掉了200多萬人民幣的運營費用。
2019年10月,浙理工某教授狀告杭州野生動物世界違規(guī)收集人臉識別信息。他認(rèn)為,該類信息屬于個人敏感信息,一旦泄露、非法提供或者濫用,將極易危害包括原告在內(nèi)的消費者人身和財產(chǎn)安全。
2019年11月,浙江一小學(xué)戴號稱“腦機接口”的頭環(huán)視頻播出。這些頭環(huán)宣稱可以記錄孩子們上課時的專注程度,生成數(shù)據(jù)與分?jǐn)?shù)發(fā)送給老師和家長。隨后,該行為被當(dāng)?shù)亟逃块T叫停。
警示意義:對于當(dāng)下應(yīng)用廣泛的人臉識別等涉及公民隱私的身份認(rèn)證技術(shù),在為社會提供便利的同時,是否考慮過公民是否愿意、甚至是知情的情況下交出人臉數(shù)據(jù)?
人臉數(shù)據(jù)具有不可逆的唯一性,一旦與用戶家庭住址、消費行為等數(shù)據(jù)打通,個人隱私相當(dāng)于“裸奔”。相比國外當(dāng)前出臺的保護和禁止條例,國內(nèi)對隱私的保護力度顯然不足。
特征四:事故發(fā)生后權(quán)責(zé)認(rèn)定的不清晰
典型案例:自動駕駛事故頻發(fā)
事件說明:2018年3月,美國亞利桑那州坦佩市,一輛處于上路測試的Uber自動駕駛汽車撞死行人,根據(jù)行車記錄儀顯示,事故發(fā)生時這輛汽車的安全員一直在看車輛中控下方,被撞女性則是從漆黑的道路上突然出現(xiàn)的。盡管隨后Uber全面停止了自動駕駛車輛測試,但這場事故的責(zé)任方究竟如何判別,卻引發(fā)了更多關(guān)注。
警示意義:近年來,自動駕駛汽車在道路安全事故中沒少惹禍,甚至發(fā)生多起致人死亡案件。如何消除安全隱憂,提升安全系數(shù)是當(dāng)下所有自動駕駛公司需要解決的問題。
自動駕駛的終極目標(biāo)是消除事故傷亡,但以生命作為代價“換取”科技進步的問題,在未來很長一段時間內(nèi)值得立法者和管理者思考。
針對AI治理,我們不能坐視不管
正如上文案例所述,科學(xué)發(fā)展中,我們一度關(guān)心技術(shù)的工作原理,試圖從技術(shù)角度解釋和改善安全問題的出現(xiàn)。但實踐證明,當(dāng)下的AI技術(shù)并不是在任何地方都是安全的。這一方面與技術(shù)的局限性有關(guān),也跟實際的應(yīng)用對象、場景、環(huán)境密切相關(guān)。
就在近日,歐盟專利局拒絕了AI 發(fā)明的專利申請,“理由是它們不符合歐盟專利同盟(EPC)的要求,即專利申請中指定的發(fā)明人必須是人,而不是機器?!边@對于當(dāng)下國內(nèi)嘗試?yán)肁I以緩解版權(quán)專利問題所引發(fā)的爭議,起到了一定的參照作用。
可見,構(gòu)建完善的法律制度或許是AI治理最迫切的手段,同時,還需要各個科學(xué)組織和社會機構(gòu),從道德和倫理層面進行進一步約束。
值得一提的是,我們已經(jīng)能看到國內(nèi)政府機構(gòu)、學(xué)術(shù)研究機構(gòu)以及企業(yè)代表們在人工智能發(fā)展的治理問題上有了積極的探索。
2019年5月,北京智源人工智能研究院聯(lián)合北京大學(xué)、清華大學(xué)等單位發(fā)布《人工智能北京共識》,并成立“人工智能倫理與安全研究中心”,提出了各個參與方應(yīng)遵循的有益于人類命運共同體的15條原則。
同月,上海國家新一代人工智能創(chuàng)新發(fā)展試驗區(qū)揭牌,明確了建立健全政策法規(guī)、倫理規(guī)范和治理體系的相關(guān)任務(wù)。
6月,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理”人工智能治理八條原則。
在8月的世界人工智能大會上,青年科學(xué)代表們宣布《上海宣言》,騰訊董事會主席兼首席執(zhí)行官馬化騰演講時表示,AI治理的緊迫性越來越高,應(yīng)以“科技向善”引領(lǐng) AI 全方位治理,確保 AI“可知”、“可控”、“可用”、“可靠”。
外交部前副部長、清華大學(xué)國際戰(zhàn)略與安全研究中心主任傅瑩則表示,傳統(tǒng)的立法是需要等待的,需要社會不斷地實踐來積累共識。面對AI如此快速地發(fā)展,法律制定需要新的思維。
12月,國家互聯(lián)網(wǎng)信息辦公室、文化和旅游部、國家廣播電視總局印發(fā)《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,首次將AI造假音視頻列入法規(guī),并且自2020年1月1日起施行。
實際上,在政府完善法律政策、學(xué)術(shù)機構(gòu)建立倫理和道德約束目標(biāo)的同時,我們也看到禁用技術(shù)這種做法存在的“一刀切”問題。
例如,去年3月美國加州通過的一項議案,禁止警察身體攝像頭安裝人臉識別軟件。盡管面部識別軟件對降低抓捕罪犯難度有潛在優(yōu)勢,但顯然,政府則立足于保護公民隱私安全和可能存在的算法偏見問題。
是禁用AI技術(shù)以解決風(fēng)險問題,還是積極采納以提升社會運轉(zhuǎn)、保障效率?這可能并不是對與錯的問題。但作為人工智能從業(yè)者來講,一定要有紅線意識。
中國科學(xué)院自動化研究所研究員曾毅指出,實際上很多企業(yè)對存在的風(fēng)險視而不見,人工智能的健康發(fā)展,一定是治理和發(fā)展雙輪驅(qū)動,要保證它向著正確的方向發(fā)展。
為推動AI治理,曠視做了哪些努力?
早在2019年7月,曠視科技就意識到了這一問題,從企業(yè)自身角度公布了《人工智能應(yīng)用準(zhǔn)則》管理標(biāo)準(zhǔn)。
《準(zhǔn)則》從正當(dāng)性、人的監(jiān)督、技術(shù)可靠性和安全性、公平和多樣性、責(zé)任可追溯、數(shù)據(jù)隱私保護六個維度,對人工智能正確有序發(fā)展作出明確規(guī)范;同時給出相應(yīng)干預(yù)措施或指導(dǎo)意見,確保人工智能能夠在可控范圍內(nèi)持續(xù)發(fā)展,呼喚起各界對善用技術(shù)的重視,倡導(dǎo)行業(yè)提早建立可持續(xù)發(fā)展的生態(tài)。
與此同時,曠視還組織成立了人工智能道德委員會,目的是積極與各方探討全球AI倫理相關(guān)的共性問題,促進與社會各界的溝通、推動AI的健康發(fā)展,以確保創(chuàng)新技術(shù)為社會帶來更積極正面的影響。
組織和原則的確立僅為接下來的AI治理開了一個好頭。據(jù)曠視科技透露,公司在人工智能道德委員會下成立了“曠視人工智能治理研究院”。該研究院將在曠視《人工智能應(yīng)用準(zhǔn)則》的指導(dǎo)下,深度探索可信任AI系統(tǒng)的開發(fā)與應(yīng)用問題。進入2020年,曠視還將通過與更多同行業(yè)建立聯(lián)合委員會,期待加速AI應(yīng)用準(zhǔn)則的真正落地。
雷鋒網(wǎng)總結(jié)
今天看來,這十大熱門事件并非個案,若不加以正確引導(dǎo)都將對社會造成極大負(fù)面影響。
人工智能系統(tǒng)收集或上傳隱私,對隱私的界定規(guī)則是什么?
自動駕駛車輛在遭遇危機時刻,責(zé)任人是駕駛員、車輛,還是政府的不當(dāng)監(jiān)管?
由于人類是通過生物性原理來獲得教育和學(xué)習(xí),與目前單純依靠統(tǒng)計推理的訓(xùn)練而存在的機器學(xué)習(xí)系統(tǒng)有本質(zhì)差別,我們又該如何面對機器給出的建議和結(jié)論?
或許AI在很長一段時間內(nèi)都會因與人類社會的倫理有所偏差而在融入社會時產(chǎn)生不小的矛盾,但可以預(yù)見的是,2020年,隨著5G在國內(nèi)全面投入商用,5G或?qū)覣I算法、邊緣計算等技術(shù)大力發(fā)展,進一步極大賦能智能制造、智能家居等更為廣泛的生產(chǎn)生活領(lǐng)域。其巨大的潛力和價值有理由讓我們接受這個挑戰(zhàn)。
而邊界問題討論未明之時,我們更要有耐心教育它、指導(dǎo)它、規(guī)范它,促使它成為符合人類社會發(fā)展的智能技術(shù)。(雷鋒網(wǎng))
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。