0
本文作者: 伍文靚 | 2019-04-09 13:55 |
雷鋒網(wǎng)注:【 圖片來(lái)源:The Verge 所有者:European Commission 】
歐盟(EU)近日發(fā)布了一套指南,指導(dǎo)企業(yè)和政府在開(kāi)發(fā)人工智能時(shí)遵循道德準(zhǔn)則。
這些道德準(zhǔn)則與艾薩克·阿西莫夫的“機(jī)器人三定律”不同,它們并沒(méi)有提供一個(gè)簡(jiǎn)單明了的道德框架來(lái)幫我們控制會(huì)殺人的機(jī)器人。相反,如果我們把AI整合到醫(yī)療保健、教育和消費(fèi)技術(shù)等領(lǐng)域,AI將解決那些將影響社會(huì)的棘手問(wèn)題。
例如,如果未來(lái)的AI系統(tǒng)診斷你患有癌癥,那么,歐盟就要確認(rèn)一些事情:該軟件沒(méi)有因?yàn)槟愕姆N族或性別而對(duì)你產(chǎn)生偏見(jiàn);它會(huì)遵從人類醫(yī)生的反對(duì)意見(jiàn);它可以向患者解釋診斷情況。所以,這些道德準(zhǔn)則確實(shí)旨在防止AI失控,但這是從管理和官僚層面來(lái)說(shuō),而不是類似阿西莫夫式的謀殺之論。
為了實(shí)現(xiàn)這一目標(biāo),歐盟召集了52名專家,他們提出了未來(lái)AI系統(tǒng)應(yīng)該滿足的7項(xiàng)要求。如下:
1.人道機(jī)構(gòu)的監(jiān)督:AI不應(yīng)該踐踏人類的自主性。人們不應(yīng)該被人工智能系統(tǒng)操縱或強(qiáng)迫,人類要有能力干預(yù)或監(jiān)督軟件所做的每一個(gè)決策。
2.技術(shù)穩(wěn)健性和安全性:AI應(yīng)該安全且準(zhǔn)確。它不應(yīng)該輕易受到外部攻擊的影響,即便受到攻擊,它也應(yīng)該十分可靠。
3.隱私和數(shù)據(jù)治理:AI系統(tǒng)收集的個(gè)人數(shù)據(jù)應(yīng)該是保持安全和隱私。它不應(yīng)該隨便讓人訪問(wèn),也不應(yīng)該輕易被盜取。
4.算法透明度:用于創(chuàng)建AI系統(tǒng)的數(shù)據(jù)和算法應(yīng)該是可訪問(wèn)的,軟件做出的決策應(yīng)該“被人類理解和跟蹤”。換句話說(shuō),運(yùn)營(yíng)商應(yīng)該能夠解釋自己的AI系統(tǒng)做出的決定。
5.多元化、非歧視和公平性:AI提供的服務(wù)應(yīng)該對(duì)所有人開(kāi)放,不分年齡、性別、種族或其他特征。同樣,系統(tǒng)也不應(yīng)該偏向于這些界限。
6.環(huán)境和社會(huì)福利:AI系統(tǒng)應(yīng)該是可持續(xù)的,也就是說(shuō)它們應(yīng)該對(duì)生態(tài)負(fù)責(zé),它們還應(yīng)該“促進(jìn)積極的社會(huì)變革”。
7.完善問(wèn)責(zé)制:AI系統(tǒng)應(yīng)該是可審計(jì)的,公司應(yīng)對(duì)其系統(tǒng)的負(fù)面影響應(yīng)事先作出承認(rèn)和報(bào)告。
我們可以看到,其中一些需求非常抽象,難以從客觀意義上進(jìn)行評(píng)估。例如,“積極的社會(huì)變革”,對(duì)于這個(gè)詞的理解要因人而異,或者說(shuō)因國(guó)而異。但其他方法則更為直接,可以通過(guò)政府監(jiān)督進(jìn)行檢驗(yàn)。例如,共享用于訓(xùn)練政府AI系統(tǒng)的數(shù)據(jù),這可能是對(duì)抗偏見(jiàn)算法的好方法。
雖然這些道德準(zhǔn)則沒(méi)有法律約束力,但它們可能會(huì)影響歐盟未來(lái)起草的法律。歐盟曾多次表示,它希望成為AI道德領(lǐng)域的領(lǐng)導(dǎo)者,并且已經(jīng)向GDPR表明,它愿意制定影響深遠(yuǎn)的法律來(lái)保護(hù)數(shù)字權(quán)利。
然而,從某種程度上來(lái)說(shuō),這一角色是環(huán)境強(qiáng)加給歐盟的,因?yàn)樵谕顿Y和前沿研究方面,它無(wú)法與美國(guó)和中國(guó)等世界AI領(lǐng)導(dǎo)者競(jìng)爭(zhēng)。因此,歐盟只能將道德作為其塑造該技術(shù)未來(lái)的最佳選擇。
歐盟的指南里還包括了一份“值得信賴的AI評(píng)估清單”,這份清單可以幫助專家找出AI軟件中的潛在弱點(diǎn)或危險(xiǎn)。清單還對(duì)軟件公司設(shè)置了很多問(wèn)題,包括“是否檢驗(yàn)了貴公司的AI系統(tǒng)在意外情況和環(huán)境中的表現(xiàn)?”以及“是否評(píng)估了軟件數(shù)據(jù)集中數(shù)據(jù)的類型和范圍?”
這些評(píng)估清單只是初步的,但歐盟將在未來(lái)幾年里收集公司的反饋意見(jiàn),并在2020年提交有關(guān)其效用的最終報(bào)告。數(shù)字權(quán)利組織Access Now的政策經(jīng)理范妮·希德維吉是幫助撰寫這份指南的專家之一,她表示,評(píng)估清單是指南中最重要的部分。
“這份清單為減輕AI的潛在危害提供了一個(gè)實(shí)用且具前瞻性的視角,”希德維吉告訴The Verge,“我們認(rèn)為,歐盟有潛力和責(zé)任走在這項(xiàng)工作的前列。但歐盟不應(yīng)止步于道德準(zhǔn)則,因?yàn)榈赖聹?zhǔn)則只有在法律的基礎(chǔ)上才能發(fā)揮更大的作用?!?/p>
其他人則懷疑,歐盟試圖通過(guò)道德研究來(lái)引導(dǎo)全球AI的發(fā)展,這會(huì)對(duì)AI界產(chǎn)生重大影響。
“我們對(duì)歐盟正在采取的方法持懷疑態(tài)度,為AI制定道德的黃金標(biāo)準(zhǔn)并不能讓歐盟在全球AI發(fā)展中站穩(wěn)腳跟,”數(shù)據(jù)創(chuàng)新中心的高級(jí)政策分析師埃利納·奇沃特對(duì)The Verge說(shuō)道,“要成為AI道德領(lǐng)域的領(lǐng)導(dǎo)者,你首先要成為全球AI的領(lǐng)導(dǎo)者?!?/p>
雷鋒網(wǎng)注:本文編譯自The Verge
雷鋒網(wǎng)注:【封面圖片來(lái)源:網(wǎng)站名The Verge,所有者:European Commission】
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。