丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
國際 正文
發(fā)私信給Gavin.Z
發(fā)送

0

因為人類,人工智能其實戴著“有色眼鏡”

本文作者: Gavin.Z 2016-09-03 11:47
導語:原因很簡單:AI的老師是我們——人類。

因為人類,人工智能其實戴著“有色眼鏡”

Jeff J Mitchell/Getty Images

人們對現(xiàn)代科技持樂觀態(tài)度,部分原因在于大家相信這是一種民主化力量——不被人類長時間學到的狹隘偏見所限制。但是最新研究發(fā)現(xiàn),這只是海市蜃樓般的假象。

原因非常簡單:我們從周圍的世界學習到偏見,而AI則從我們這里學到偏見。

有很多原因讓我們認為AI是“公平”的。既然AI是基于數(shù)學算法,那么它就不會一開始帶有對聽起來像白人的名字的明顯偏好或者認為女人該待在家里。為了提防明顯的偏見——程序員不小心植入AI系統(tǒng)中的,比如說標準化測試如何偏袒白人——有些人建議采取透明算法,更加多樣的開發(fā)團隊等等。

但是盡管這些方法對此有幫助,普林斯頓大學計算機科學家Aylin Caliskan-Islam, Joanna Bryson和Arvind Narayanan認為這可能還不夠。他們表示,

“我們通過文件記錄的方式證明那些根本上源于人類文化的機器偏見不可能通過我們上面提到的策略來消除?!?/span>

我們從周圍的世界學到偏見。而和我們一樣,AI從我們身上學到偏見。計算機科學家通過采用新穎的方式得到這樣一個結論:從本質上來說,他們對計算機算法進行一系列的隱性關聯(lián)測試(評估種族和性別歧視的標準心理學方法),然后驗證對人類進行的隱性關聯(lián)測試。(點擊這里可以獲得更多關于隱性關聯(lián)測試的信息。)

選擇的算法是GloVe,這是目前根據(jù)上下文提取單詞意思最先進的方法,也就是通過這些單詞意思和其他單詞在文本中出現(xiàn)的頻率來進行判斷。根據(jù)GloVe和相關方法,在相似的文章中兩個單詞出現(xiàn)的頻率越高,他們關聯(lián)性越高。比如,如果“女人”這個詞經(jīng)常和與家庭有關的詞一起出現(xiàn),那么“女人”這個概念就和“家庭”關聯(lián)性非常高。

該團隊從網(wǎng)絡截取有著8400億個單詞的大量文章來檢驗GloVe,然后使用這個版本開始著手驗證一些人們最明顯的偏見。在這些偏見中有一個是使用隱性關聯(lián)測試進行的實驗。這個名為“2002實驗”的研究結果顯示,我們傾向于將女性名字和家庭聯(lián)系在一起,而將男性名字和事業(yè)聯(lián)系在一起——這也許并不令人感到驚訝。Caliskan-Islam, Bryson, 和Narayanan的單詞相似性比較也得到了相同的結果:像Amy、Joan和家、父母之類的詞更相似。相反,John、Paul和公司、薪水之類的詞更相似。

研究者也發(fā)現(xiàn),聽起來像白人的名字和歡樂、平靜等令人愉悅的詞更相似,然而聽起來像非洲裔美國人的名字和苦惱、戰(zhàn)爭等令人感到討厭的詞更相似——這從概念上驗證了2004實驗,該結果顯示公司更傾向于雇傭名字像白人的應聘者。

我們要指出,這些結果并不意味著GloVe或者相關的算法有固有的偏見,這點很重要。事實上,很難理解他們怎么會有偏見。然而實際上,是我們的文化和語言有偏見,只要這是真的,Caliskan-Islam, Bryson, and, Narayanan寫到,人工智能(AI)“就能夠從顯示歷史不公正的訓練數(shù)據(jù)中獲得有害的偏見。”

 via psmag

推薦閱讀:

計算機系統(tǒng)里的偏見和歧視:除了殺死,還有其他方法

致程序員:算法為何帶有偏見?

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。

分享:
相關文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說