丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給任然
發(fā)送

0

可解釋的人工智能:讓機(jī)器解釋自己,減少算法產(chǎn)生的偏見

本文作者: 任然 2018-05-22 18:38
導(dǎo)語(yǔ):為了開發(fā)公平和負(fù)責(zé)任的人工智能,技術(shù)人員需要社會(huì)學(xué)家,心理學(xué)家,人類學(xué)家和其他專家的幫助,他們能夠洞察偏見對(duì)人類生活的影響,并告訴人們?nèi)绾伪苊庾屍娪绊憴C(jī)器學(xué)習(xí)

2018年5月25日,“通用數(shù)據(jù)保護(hù)條例”(GDPR)在整個(gè)歐盟范圍內(nèi)生效,要求對(duì)組織如何處理個(gè)人數(shù)據(jù)進(jìn)行徹底改變。若違反GDPR條例的限制,相關(guān)組織必須支付高達(dá)2000萬(wàn)歐元或其全球收入4%的罰款(以較高者為準(zhǔn)),對(duì)威懾大多數(shù)違規(guī)行為具有很重要的意義。

由于不久前的劍橋分析丑聞鬧得人心惶惶,許多人希望GDPR將成為全球數(shù)據(jù)隱私新標(biāo)準(zhǔn)的典范。目前一些行業(yè)領(lǐng)導(dǎo)者正在呼吁Facebook將GDPR標(biāo)準(zhǔn)應(yīng)用于其在非歐盟國(guó)家的業(yè)務(wù)。

可解釋的人工智能:讓機(jī)器解釋自己,減少算法產(chǎn)生的偏見

但隱私只是圍關(guān)于數(shù)據(jù)驅(qū)動(dòng)系統(tǒng)之爭(zhēng)的一個(gè)方面,實(shí)際上機(jī)器學(xué)習(xí)支持系統(tǒng)的日益普及引發(fā)了一系列相關(guān)問題,包括一個(gè)對(duì)社會(huì)產(chǎn)生很大影響且無法量化的問題:偏見。

在我們的生活中,許多重要決策都是由某種系統(tǒng)做出的,很多系統(tǒng)都存在明顯的偏見,無論這系統(tǒng)是人、機(jī)器還是二者的組合。機(jī)器學(xué)習(xí)在決策制度中的作用越來越大,這為我們提供了一個(gè)建立更少偏見的系統(tǒng)的機(jī)會(huì),當(dāng)然也面臨著加劇這一問題的風(fēng)險(xiǎn)。

我們通常認(rèn)為計(jì)算機(jī)比人類更客觀、更公正。然而過去的幾年里,許多機(jī)器學(xué)習(xí)系統(tǒng)產(chǎn)生了帶有偏見或歧視的結(jié)果,人們對(duì)此也有著很多爭(zhēng)議。2016年時(shí)ProPublica曾報(bào)道,美國(guó)法院用來衡量被告再次犯罪可能性的機(jī)器學(xué)習(xí)算法,在對(duì)比背景相似的黑人與白人被告時(shí)會(huì)認(rèn)為黑人的“風(fēng)險(xiǎn)更高”,即使系統(tǒng)沒有提供有關(guān)被告種族的任何數(shù)據(jù)也依然如此。

雷鋒網(wǎng)不久前一篇名為《關(guān)于模型可解釋性的深入思考:從哪里來,到哪里去?》的文章中,曾詳細(xì)介紹了學(xué)習(xí)出一個(gè)通用智能行動(dòng)者的潛力和局限性,算法公平方面細(xì)微的以及可以被真正規(guī)范化的挑戰(zhàn)。人們使用機(jī)器學(xué)習(xí)系統(tǒng)的目的是希望世界更公平、更有效率,而不是進(jìn)一步放大人類的偏見。

這就是為什么GDPR允許用戶可以要求解釋機(jī)器任何“合法或類似重要”的決策,希望解釋的權(quán)利能夠使“算法歧視”的受害者訴諸人權(quán),從而減輕這種偏見的影響。

但是生成這些類型的解釋——即創(chuàng)造可解釋的人工智能——是非常復(fù)雜的,而且即便系統(tǒng)對(duì)決策做出了解釋,也有一些評(píng)論家認(rèn)為“無法分辨它們是真的反對(duì)偏見,還是僅僅是掩飾偏見。”

可解釋的人工智能以及GDPR是否會(huì)使技術(shù)更公平?如果不是,隨著機(jī)器學(xué)習(xí)的使用變得更加普遍,我們還有什么替代方法可以防范偏見?

機(jī)器學(xué)習(xí)中的偏見

關(guān)于偏見的討論常常被過分簡(jiǎn)化為諸如“種族主義算法”這樣的詞語(yǔ),但其實(shí)問題不在于算法本身,而是數(shù)據(jù)研究團(tuán)隊(duì)提供給機(jī)器的數(shù)據(jù)。

例如,收集以往的數(shù)據(jù)是數(shù)據(jù)科學(xué)項(xiàng)目的一個(gè)共同起點(diǎn),但“歷史數(shù)據(jù)往往偏向于我們不希望轉(zhuǎn)移到未來的方式,”加州大學(xué)伯克利分校電子工程與計(jì)算機(jī)科學(xué)學(xué)院助理教授、加州大學(xué)伯克利分校崛起實(shí)驗(yàn)室的創(chuàng)始人之一Joey Gonzalez說。

假設(shè)某公司建立了一個(gè)篩選求職者的機(jī)器學(xué)習(xí)模型,并基于公司過去篩選類似職位求職者的數(shù)據(jù)集對(duì)模型進(jìn)行培訓(xùn)。如果該公司的HR曾多次拒絕過那些試圖重返職場(chǎng)的前全職父母,則培訓(xùn)的結(jié)果很有可能會(huì)讓模型也將這些存在長(zhǎng)期就業(yè)缺口的人排除在外。

如果更進(jìn)一步,這將導(dǎo)致模型過多的拒絕女性求職者(全職父母多為女性)從而造成性別比例失調(diào),即使性別并不是模型培訓(xùn)數(shù)據(jù)集中的特征。因此在這一領(lǐng)域中,使用機(jī)器學(xué)習(xí)將進(jìn)一步放大人類的偏見。

可解釋的人工智能:讓機(jī)器解釋自己,減少算法產(chǎn)生的偏見

而這就是可解釋的人工智能的用武之地。如果操作人員能夠檢查“推理”算法,就有可能在算法產(chǎn)生嚴(yán)重偏差之前進(jìn)行糾正。

讓機(jī)器解釋自己

由于機(jī)器學(xué)習(xí)系統(tǒng)的行為由它學(xué)到的數(shù)據(jù)所驅(qū)動(dòng),所以它的工作方式與人們編寫的標(biāo)準(zhǔn)計(jì)算機(jī)程序有很大不同。人們可以測(cè)量一個(gè)機(jī)器學(xué)習(xí)系統(tǒng)的準(zhǔn)確性,但是對(duì)于這種系統(tǒng)實(shí)際做出決策的可見性是有限的。

(雷鋒網(wǎng)注:和人腦類似,人腦的思考是由特定區(qū)域內(nèi)神經(jīng)元的復(fù)雜放電而產(chǎn)生,但人們并不確切知道具體怎樣的神經(jīng)元活動(dòng)會(huì)得出怎樣的思考。所以當(dāng)人們想驗(yàn)證決策正確性時(shí)并不會(huì)去掃描大腦,而是通過相關(guān)數(shù)據(jù)以及過往的經(jīng)驗(yàn)判斷。

可解釋的人工智能要求機(jī)器學(xué)習(xí)算法可以自己證明決策的正確性。華盛頓大學(xué)的研究人員在2016年構(gòu)建了一種稱為L(zhǎng)IME的解釋技術(shù),并在由Google構(gòu)建的圖像分類神經(jīng)網(wǎng)絡(luò)Inception Network上進(jìn)行了測(cè)試。

LIME在做出圖像分類決策時(shí),不會(huì)考慮觸發(fā)神經(jīng)網(wǎng)絡(luò)中的哪個(gè)神經(jīng)元,而是在圖像本身中搜索解釋。它會(huì)將原始圖像的不同部分變黑,并通過Inception將產(chǎn)生的“擾動(dòng)”圖像反饋回來,以檢查哪些擾動(dòng)將算法拋離最遠(yuǎn)。

通過這種方法,LIME可以將初始網(wǎng)絡(luò)分類決策歸因于原始圖片的特定特征。例如對(duì)于青蛙的圖像,LIME發(fā)現(xiàn)抹除部分臉部會(huì)讓初始網(wǎng)絡(luò)很難識(shí)別圖像,這表明最初的分類決策大多是基于青蛙的臉。

可解釋的人工智能:讓機(jī)器解釋自己,減少算法產(chǎn)生的偏見

雖然像LIME這樣的特征歸屬方法并不能完全解釋算法的決策,并且在各種類型的機(jī)器學(xué)習(xí)模型上都不能工作的很好,但至少在圖像分類方面,它朝著正確方向邁出了一步。

據(jù)雷鋒網(wǎng)了解,美國(guó)的人臉識(shí)別系統(tǒng)對(duì)黑人的面部識(shí)別遠(yuǎn)不如對(duì)白人那般精確(訓(xùn)練算法時(shí)用的圖像多為白人),這增加了黑人被監(jiān)控?cái)z像誤認(rèn)導(dǎo)致被逮捕的可能性,嚴(yán)重者甚至?xí)a(chǎn)生誤判。更好的解釋這些算法決策并加以監(jiān)督,顯然將有助于避免此類不良結(jié)果。

人們還需要做什么

雖然可解釋的人工智能和神經(jīng)網(wǎng)絡(luò)的特征歸因很有發(fā)展前景,但消除人工智能的偏見最終會(huì)歸結(jié)為一件事:數(shù)據(jù)。

如果算法的訓(xùn)練數(shù)據(jù)不能公平的覆蓋開發(fā)者想要服務(wù)的人群,系統(tǒng)就很有可能出現(xiàn)偏差。如果訓(xùn)練數(shù)據(jù)隱含了歷史上的不公平現(xiàn)象,該算法就會(huì)學(xué)習(xí)進(jìn)而延續(xù)甚至放大這些問題。

雖然GDPR和類似的法規(guī)對(duì)組織如何使用數(shù)據(jù)進(jìn)行了一些控制,但它們也無法阻止這些組織使用已經(jīng)存在偏見的數(shù)據(jù)集。

算法的發(fā)展當(dāng)然對(duì)克服偏見有所幫助,但歸根結(jié)底責(zé)任并不在數(shù)學(xué)結(jié)構(gòu)、軟件或硬件,而是在于這些決策系統(tǒng)的設(shè)計(jì)者和操作者,人們有責(zé)任明智而公平地收集,存儲(chǔ)和使用這些數(shù)據(jù)。

從某種意義上說,減少機(jī)器學(xué)習(xí)算法中的偏見不僅需要人工智能的進(jìn)步,還需要我們對(duì)人類多樣性理解的進(jìn)步。

可解釋的人工智能:讓機(jī)器解釋自己,減少算法產(chǎn)生的偏見

為了開發(fā)公平和負(fù)責(zé)任的人工智能,技術(shù)人員需要社會(huì)學(xué)家,心理學(xué)家,人類學(xué)家和其他專家的幫助,他們能夠洞察偏見對(duì)人類生活的影響,并告訴人們?nèi)绾伪苊庾屍娪绊憴C(jī)器學(xué)習(xí)系統(tǒng)。

技術(shù)本身并不能解決社會(huì)問題,但是通過不同學(xué)科間的合作,研究者和開發(fā)者可以創(chuàng)建有利于更公平社會(huì)的機(jī)器學(xué)習(xí)技術(shù)。

via:venturebeat


現(xiàn)在關(guān)注“雷鋒網(wǎng)”微信公眾號(hào)(leiphone-sz),回復(fù)關(guān)鍵詞【2018】,隨機(jī)抽送價(jià)值 3999 元的參會(huì)門票 3 張

相關(guān)文章:

關(guān)于模型可解釋性的深入思考:從哪里來,到哪里去?

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

可解釋的人工智能:讓機(jī)器解釋自己,減少算法產(chǎn)生的偏見

分享:
相關(guān)文章

編輯

觀點(diǎn)離經(jīng)叛道的骨灰級(jí)硬件愛好者
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說