0
本文作者: 楊波 | 2016-08-22 18:53 |
雷鋒網(wǎng)按:本文作者 Ryan O'Hare,來源Dailymail,由雷鋒網(wǎng)獨(dú)家編譯,未經(jīng)許可拒絕轉(zhuǎn)載!
毫無疑問,人類不自覺的性別偏見會影響對語言進(jìn)行分析的計算機(jī)算法。比如,當(dāng)用人單位在搜索簡歷輸入“程序員”這個崗位的時候,搜索結(jié)果會優(yōu)先顯示來自男性求職者的簡歷——因?yàn)椤俺绦騿T”這個詞與男性的關(guān)聯(lián)比女性更密切。同理,當(dāng)搜索目標(biāo)為“前臺”時,女性求職者的簡歷則會被優(yōu)先顯示出來。這樣帶有性別歧視的計算機(jī)算法對求職者而言是不公平的。
目前,來自微軟的程序員Adam Kalai正在與波士頓大學(xué)的科學(xué)家們合作,嘗試通過一種叫“詞向量”的技術(shù),瓦解計算機(jī)算法中反射出的人類社會的性別歧視。“詞向量”技術(shù)的基礎(chǔ)是教計算機(jī)通過發(fā)掘詞語之間的的關(guān)聯(lián)進(jìn)行語言處理。通過使用這個方法,計算機(jī)可以通過比較單詞 “她”和“他”來了解上下文的語境。在具體運(yùn)用時,計算機(jī)會找到諸如 “姐姐-弟弟”和“王后-國王”這樣合適的配對。
Kalai在接受美國國家公共電臺的采訪時表示,“我們試圖避免在新聞中體現(xiàn)與性別歧視相關(guān)的內(nèi)容……但是你會發(fā)現(xiàn),這些單詞配對存在赤裸裸的性別歧視意味?!?/span>
在網(wǎng)上最新公布的一篇研究報告中,該研究小組發(fā)現(xiàn),他們可以訓(xùn)練計算機(jī)忽略單詞的某些特定的關(guān)聯(lián),同時保留它們需要的關(guān)鍵信息。他們解釋道:“我們的目標(biāo)是減少單詞配對中的性格偏見,同時保留詞向量中有用的一些特征。”通過對算法的略微調(diào)整,他們可以消除 “前臺”和“女性”之間的聯(lián)系,同時保留合適的單詞配對,比如“王后”和“女性”。
雖然該算法基于性別產(chǎn)生配對,但還是忽略了其中潛在的某些聯(lián)系——有些單詞的性別特征的確比較鮮明。他們相信這個方法會讓計算機(jī)學(xué)習(xí)通過詞向量,在保留有效聯(lián)系的同時,擺脫固有的性格偏見。根據(jù)美國國家公共電臺的報道,問題是不一定要采用“詞向量”去處理語言。這種算法可以分辨性別和種族,但只有當(dāng)研究人員希望專注于某一特定性別或者族群時,才可能需要用到這種算法。
當(dāng)這種技術(shù)被用作毫無偏見地篩選數(shù)據(jù)的方法,而不考慮性別或種族偏見時,事情就會比較復(fù)雜了。對此,科學(xué)家們解釋道:“對基于種族、民族和文化的固有成見而產(chǎn)生的直接和間接偏見的理解是頗為微妙的。在未來,這項(xiàng)工作的一個重要方向是能夠量化并消除這些偏見。”
當(dāng)然,想要完全杜絕偏見是不可能的,配對的規(guī)則掌握在人類手中,只要人類的偏見還存在,機(jī)器人的偏見也不會消失。
via dailymail
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。