1
現(xiàn)如今,由算法和人工智能驅(qū)動的科技越來越多地進入到我們生活,而現(xiàn)在,我們面臨著一個相當諷刺的問題:這些程序的立場是非中立的嗎?它們總是帶有一些偏見嗎?誠然,答案是肯定的。
最近,F(xiàn)acebook的“流行話題”列表非常騷動,其反應出的對自由黨的偏見昭然若揭。之后,美國政府要求Facebook給出一個官方的解釋。本周,F(xiàn)acebook COO Sheryl Sandberg表示Facebook將會開始訓練員工,來辨別和控制他們的政治傾向。
其實,F(xiàn)acebook的做法正是Kickstarter的前數(shù)據(jù)執(zhí)行官Fred Benenson所說的"數(shù)學洗腦”:我們讓諸如Facebook的算法程序變得完全客觀、完全中立,是因為算法核心基于數(shù)學。
而現(xiàn)如今的算法之所以懷有偏見,很大程度上是因為很多程序員(特別是機器學習程序員)為男性。在最近《彭博社》發(fā)布的文章中,微軟研究員Margaret Mitchell呼吁更多女性參與到編程中來。
哈佛教授 Latanya Sweeney表示:在一次關于谷歌AdSense廣告的研究中,他在搜索了白人典型人名(如Geoffrey, Jill, Emma)和黑人典型人名(如DeShawn, Darnell, Jermaine),發(fā)現(xiàn)含有“逮捕(arrest)”這個字眼的詞語廣告時,出現(xiàn)的黑人人名超過80%,但出現(xiàn)的白人人名只有不到30%。
Sweeney擔心谷歌的這種廣告技術會帶來種族偏見,讓黑人在比賽、工作、約會等情況下比白人略遜一籌。
同時,借貸和信用等領域一直以來被冠以種族偏見的帽子,因此必須在此敏感問題上分外小心。
在線借貸公司ZestFinance在建立之初就認同這樣一種思想:機器學習項目可以讓那些被認為是“有價值的借貸者”的數(shù)量增多,從而會陷入借貸歧視的危險境地。而為了阻止這種情況發(fā)生,ZestFinance已經(jīng)建立了某種特定工具來測試結(jié)果。
不過,這種情況的危險之處在于:這種不言而喻的偏見(不僅存在于算法程序中,還存在于其中的數(shù)據(jù)中)可以一不小心就讓任何程序編程腹黑的偏見者。對于不能分別程序復雜性的用戶來說,要弄清程序是否是公平的,是非常困難的。
Benenson在最近Technical.ly Brooklyn舉行的問答大會上表示:“算法和數(shù)據(jù)驅(qū)動產(chǎn)品總是會反映其建造者的設計選擇,如若程序員們本身帶有偏見,那么編寫出來的程序帶有偏見就不足為奇了?!?/p>
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。