0
假設(shè)你駕駛的車輛出現(xiàn)意外,你有且只有兩種選擇:
A:無動于衷,車會直接撞向前方的人群;
B:撥動方向盤,但車會撞向另一條路上的人。
你該如何抉擇?
功利主義者認為,決策應(yīng)該遵從“為多數(shù)人提供最大利益”原則,即犧牲更少的人,拯救更多的人。
這一觀點遭到義務(wù)論者的反對,后者認為因救人而殺人,本質(zhì)屬于不道德行為,與人內(nèi)心的道德命令相悖。
這個被稱為電車難題的實驗,不論如何選擇,人都會陷入「道德困境」之中。
假如把人換成AI呢?
在電影《機械公敵》中,主角戴爾·史普納曾遭遇一次車禍,前來營救的機器人經(jīng)過計算,選擇了生存率更高的男主,而非另一個小女孩Sarah。實際上,史普納更希望機器人救小女孩。
電影《機械公敵》劇照
這部劇中,AI并未面臨「道德困境」,而是根據(jù)其計算出的“生存率”進行施救,但恰恰是這冷冰冰的數(shù)字,加深了戴爾·史普納對機器人(AI)的不信任。
這實際上反映出一個問題:當人們期待更高智能水平的AI時,要不要對AI本身進行法律上的規(guī)制,或進行道德約束?假設(shè)需要,如何進行規(guī)制?
更具體一點,在上述的施救過程中,AI能不能擔責?法律責任如何界定?等等,該如何回答?
先來思考一個問題:《機械公敵》中,機器人根據(jù)“生存率”救下男主戴爾·史普納,這個“生存率”是怎么計算的?
這個在劇中看似簡單的問題,實際上觸摸到了AI的核心難題之一:決策的不可解釋性。
性別、年齡、情緒等特征可能是計算生存率的部分數(shù)據(jù),但機器人是怎么進行決策的,目前的人工智能系統(tǒng)很難解釋。
換句話說,人們知其然而不知其所以然。
以現(xiàn)在非?;馃岬纳疃葘W習為例,其決策場景下的模型可解釋性很差,具體表現(xiàn)為:輸入特征與輸出結(jié)果之間存在一個無法觀測的“黑箱”空間。
比如,阿爾法狗在與柯潔的對弈中,其每一步都是動態(tài)的,谷歌只下達了“贏得比賽”的指令,但阿爾法狗是如何根據(jù)柯潔的落子來決定對策從而贏得比賽,人們卻無從得知。
這種不可解釋性對于非常重要的場景,比如交通、金融、醫(yī)療等,是一種巨大的安全隱患。人們無法從人工智能系統(tǒng)決策過程中獲取有效信息,進而也無法快速對系統(tǒng)進行優(yōu)化,避免可能導(dǎo)致的利益損失。
另一個重要的點:機器人在救人過程中是否涉嫌“算法歧視”?也就是人工智能系統(tǒng)的公平性問題。
人工智能算法會受到訓(xùn)練數(shù)據(jù)的影響,如果訓(xùn)練數(shù)據(jù)中存在偏見,那么其決策也會形成歧視。
電影里的機器人在面對男女性別差異時,作出的決策有沒有偏見,這一點無從得知。但現(xiàn)實生活中,美國芝加哥法院曾采用的犯罪風險評估系統(tǒng)(COMPAS)被證明對黑人存在歧視。
如果一個黑人犯了罪,他被該系統(tǒng)錯誤地標記為具有高犯罪風險的可能性更大,因此可能會被法官判處更長的刑期。
更為普遍的例子是,人們所熟知的大數(shù)據(jù)殺熟,實際上是根據(jù)用戶特征/偏好數(shù)據(jù)形成的價格歧視。
從經(jīng)濟學角度上講,價格歧視并非貶義,比如老人小孩乘坐公交車享受比成人更低的價格優(yōu)惠。
但對于人工智能系統(tǒng)而言,基于數(shù)據(jù)訓(xùn)練形成的價格歧視,根據(jù)用戶購買行為、性別等進行分層,從而給新用戶以優(yōu)惠,給老用戶「高貴」,這種歧視無法可依,本身影響了「消費者公平」。
除了可解釋性、公平性之外,AI的安全性、穩(wěn)健性等問題也引發(fā)人們對AI的信任危機。
安全性表現(xiàn)在AI如何保護數(shù)據(jù)安全。過去一段時間里,Google、Meta等公司先后被爆出數(shù)據(jù)泄露問題,引發(fā)全球?qū)?shù)據(jù)保護的關(guān)注,各國也加快了針對隱私、數(shù)據(jù)保護方面的立法。
穩(wěn)健性則是指人工智能系統(tǒng)在異常情況下,仍能保持正常運行,而不至于崩潰。例如,現(xiàn)在的智能駕駛都有一套「冗余」方案,目的是防止極端天氣、車輛碰撞等場景下,車輛失控的情況。
但目前人工智能系統(tǒng)的穩(wěn)健性,還有待增強。
基于不可解釋性、公平性、安全性、穩(wěn)定性等問題,AI需要面臨的最后一道門檻是:人工智能到底能不能成為責任主體?
也就是說,人工智能因技術(shù)缺陷帶來的不良后果,誰來背鍋?軟件開發(fā)商還是所有者?
《機械公敵》中,機器人桑尼殺死了自己的“父親”朗寧博士,真相大白以后主角史普納警官卻沒有對桑尼提起訴訟,因為桑尼并非人類,處于人類法律的界限之外。
電影《機械公敵》劇照
上述的問題實際上造成了普通大眾對于人工智能的「信任危機」,然而直到現(xiàn)在,尚且沒有一部成型的法律來對人工智能進行規(guī)制。
不過,從學界、產(chǎn)業(yè)界以及政府等多方的實踐之中,仍能看到有益的探索。
《機械公敵》里對機器人設(shè)置了三大法則:
1、機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;
2、機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;
3、機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。
這三條法則相互制約,但從規(guī)則內(nèi)容不難看出,「以人為本」是其根本精神。
這種精神從AI誕生元年就已經(jīng)存在,然而在漫長的AI發(fā)展年輪中,技術(shù)探索始終占據(jù)著主流,對AI的審視與反思,主要是近十年來的結(jié)果。
究其原因,是技術(shù)從實驗室或者小規(guī)模應(yīng)用場景,走向了大規(guī)模落地場景;人們對AI的認知也在逐漸深化,從“不可置信”到懷疑,再到建立信任,是一個螺旋式上升的過程。
雷峰網(wǎng)(公眾號:雷峰網(wǎng))了解到,對于人工智能的規(guī)范性研究,主要以2015年為爆發(fā)點。
2015年1月,歐盟議會法律事務(wù)委員會(JURI)決定成立專門小組,研究機器人和人工智能發(fā)展相關(guān)的法律問題。同年,聯(lián)合國教科文組織開啟關(guān)于機器人倫理方面的研究。
此后的幾年時間里,聯(lián)合國、歐盟、電氣和電子工程師協(xié)會(IEEE)等國際性組織先后開啟關(guān)于人工智能倫理方面的研究工作,并且發(fā)布了相應(yīng)的倫理準則。其中,影響較為廣泛的是2017年的“阿西洛馬人工智能原則”和IEEE倡議的人工智能倫理標準。
我國于2018年1月成立了“人工智能標準化總體組”,并發(fā)布《人工智能標準化白皮書2018》,論述了人工智能的安全、倫理、隱私等問題,并設(shè)定了相應(yīng)的倫理要求和共識原則。
可以看出,自2015年以來,不論是國家級別的頂層設(shè)計,還是專業(yè)組織的呼吁倡議,人工智能的研究主要集中在倫理方面。
但這些倫理準則在實操過程中卻面臨執(zhí)行困難問題,其根本原因在于,倫理準則屬于“軟性約束”,缺少相配套的落地機制,比如法律監(jiān)管、行業(yè)約束等等,容易形成道德漂白(ethics washing)。
因而,在倫理準則的基礎(chǔ)上,學術(shù)界開始了「可信AI」的討論與探索。
所謂「可信AI」,根據(jù)中國信通院發(fā)布的《可信人工智能白皮書》的定義,可以理解為一種方法論,即“從技術(shù)和工程實踐的角度,落實倫理治理要求。”
國內(nèi)關(guān)于可信AI的討論最早可追溯至2017年香山科學會議,由何積豐院士提出的“人工智能技術(shù)應(yīng)該具備可信的品質(zhì)?!辈膶W術(shù)研究角度,將可信AI的研究范圍放在安全性、公平性、可解釋性、隱私保護等方面。
國際上對于可信AI的研究在近幾年也呈爆發(fā)趨勢,2020年關(guān)于可信AI的研究論文比2017年增長近5倍,國際先進人工智能協(xié)會(AAAI)連續(xù)數(shù)年舉辦了 Explainable AI 研討會。
學術(shù)界的影響也蔓延至政府,后者開始在人工智能倫理準則之上,強調(diào)“治理”。
2020年,歐盟發(fā)布《人工智能白皮書》,提出人工智能“可信生態(tài)系統(tǒng)”,對高風險人工智能系統(tǒng)提出強制性監(jiān)管要求;同年,美國也發(fā)布了《促進政府使用可信人工智能》的行政命令。
我國在可信AI方面,先后發(fā)布了《國家新一代人工智能標準體系建設(shè)指南》《新一代人工智能倫理規(guī)范》等文件。
綜合人工智能倫理規(guī)范和可信AI相關(guān)的學術(shù)研究和行政文件,可以總結(jié)出,當前的AI治理「價值觀」體現(xiàn)在“以人為本,AI向善”,具體則表現(xiàn)為公平(無歧視)、透明(可解釋)、無害(不作惡)等等。
而在這種價值觀的指引下,作為AI落地的實際推動者,產(chǎn)業(yè)界也開始了關(guān)于AI治理的探索之路。
對于治理人工智能發(fā)展出現(xiàn)的的各種問題,企業(yè)作為直接相關(guān)方,起著不可或缺的作用。
一方面,在市場經(jīng)濟大環(huán)境下,需求對供給的反向作用非常明顯,大眾對于人工智能安全隱患的擔憂,實際上影響著企業(yè)的生存空間。
作為技術(shù)/產(chǎn)品供應(yīng)商,企業(yè)倘若不能深刻理解市場需求,只關(guān)注技術(shù)而忽略市場,必然遭遇獲取用戶信任的滑鐵盧,導(dǎo)致失去市場。
另一方面,企業(yè)作為整個經(jīng)濟活動中的一份子,必然要遵循「市場法則」(法律法規(guī)),在追求經(jīng)濟效益的同時,強化社會責任(Corporate social responsibility)。
因此,國內(nèi)外諸多互聯(lián)網(wǎng)、AI公司先后加入了對AI治理的探索,國外如微軟、亞馬遜,國內(nèi)如騰訊、京東、曠視等等。
雷峰網(wǎng)發(fā)現(xiàn),目前多數(shù)公司的AI治理主要分三個方面:頂層設(shè)計、內(nèi)部管理、技術(shù)攻關(guān)。
以人工智能公司曠視為例:
在頂層設(shè)計方面,2019年7月,曠視公布了基于企業(yè)自身管理標準的《人工智能應(yīng)用準則》,從正當性、人的監(jiān)督、技術(shù)可靠性和安全性、公平和多樣性、問責和及時修正、數(shù)據(jù)安全與隱私保護六個維度,對人工智能正確有序發(fā)展作出明確規(guī)范。
與此同時,曠視還參加了多個國家及行業(yè)規(guī)范標準制定,例如《新一代人工智能治理原則》、《新一代人工智能倫理規(guī)范》等,并成為國內(nèi)率先通過隱私保護國際標準ISO/IEC 27701的人工智能企業(yè)。
在內(nèi)部管理上,曠視主要從企業(yè)制度和架構(gòu)兩方面進行管理。
架構(gòu):2019年8月,作為業(yè)內(nèi)首個成立“人工智能道德委員會”的AI公司,曠視聚焦于研討、制定公司相關(guān)倫理道德治理的規(guī)章與管理機制,并對公司業(yè)務(wù)中涉及到的重大倫理問題進行決議;
2020年1月,曠視又成立AI治理研究院,旨在聯(lián)合國內(nèi)頂尖研究機構(gòu),積極探索AI道德倫理與治理工作的落地路徑。
制度:除了發(fā)布《人工智能應(yīng)用準則》這類綱領(lǐng)性文件,曠視還出臺了《數(shù)據(jù)分類分級管理規(guī)范》、《員工信息安全守則》等細則,在內(nèi)部形成規(guī)范化管理。
與此同時,曠視倡導(dǎo)客戶遵循《數(shù)據(jù)安全聲明》、《正確使用人工智能產(chǎn)品倡議書》,形成行業(yè)「合力」。
對于技術(shù)攻關(guān),曠視目前主要集中在數(shù)據(jù)安全和隱私保護、算法的安全性、穩(wěn)健性等問題。
例如,曠視研發(fā)的前端圖像脫敏方案,是目前業(yè)內(nèi)率先實現(xiàn)在采集端就能完成人臉圖像的不可逆脫敏,來加強個人信息保護。
而在AI基礎(chǔ)平臺研發(fā)上,曠視主張通過研發(fā)面向數(shù)據(jù)安全和隱私保護的AI平臺,實現(xiàn)從需求提出到交付的全流程一體化數(shù)據(jù)安全及隱私保護,相關(guān)成果將進行試點推廣。
值得一提的是,曠視還聯(lián)合人民智庫、中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟等專業(yè)機構(gòu)、組織,發(fā)布“全球十大人工智能治理事件”評選榜單,以議題設(shè)置的方式,聯(lián)動各方對AI治理進行持續(xù)關(guān)注與深度討論,通過多元交流,共同推動AI治理走向規(guī)范化。
目前,該榜單已持續(xù)三屆,針對2021年度全球十大人工智能治理事件,來自不同領(lǐng)域的專家表達了類似的觀點。
中國信息通信研究院副總工程師、中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟副秘書長王愛華認為,2021年是全球人工智能治理極具實質(zhì)性突破的一年,縱觀全年的治理事件,全球人工智能治理呈現(xiàn)出“趨實、趨嚴、趨細”三大特點。
清華大學公共管理學院教授、人工智能國際治理研究院副院長梁正同樣表示,人工智能治理已經(jīng)成為全球共識,且已從理念層面進入到建章立制、落地實施的階段。
從曠視的人工智能治理探索中不難發(fā)現(xiàn),多數(shù)企業(yè)采取的是自上而下的方式,即建立規(guī)章制度,先保證企業(yè)自身的技術(shù)、制度合規(guī)性,再通過企業(yè)實踐和行業(yè)研討來共識產(chǎn)業(yè)方向。
而在當下的人工智能治理中,自下而上的基于應(yīng)用主體和用戶選擇的參與,也成為人工智能治理的一個重要方法。
需要指明的是,當前的AI治理仍然處于探索期,如何引導(dǎo)人工智能進一步規(guī)范發(fā)展,仍有待市場經(jīng)濟環(huán)境下,供給、需求、監(jiān)管等多方在「磨合」后,達成「共識」。
正如曠視聯(lián)合創(chuàng)始人兼CEO印奇所言:“AI不僅要在技術(shù)創(chuàng)新和應(yīng)用落地上下功夫,也需在治理上使力氣,這離不開所有AI從業(yè)者和社會各界的共同努力?!?/p>
回到最初的「電車難題」,在這個場景中,人不得不面臨道德困境,AI或許能破解這個困局。但隨之而來的AI治理相關(guān)的難點,又成為AI發(fā)展過程中必須要回答的問題。
如今,AI行業(yè)在多方的努力下已邁出實質(zhì)性的一步:在規(guī)范中發(fā)展,在發(fā)展中規(guī)范。
在正確「價值觀」的引導(dǎo)下,作為改變世界的技術(shù),人工智能也將快速走進日常生活,造福大眾。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。