1

現(xiàn)如今,由算法和人工智能驅(qū)動(dòng)的科技越來(lái)越多地進(jìn)入到我們生活,而現(xiàn)在,我們面臨著一個(gè)相當(dāng)諷刺的問(wèn)題:這些程序的立場(chǎng)是非中立的嗎?它們總是帶有一些偏見(jiàn)嗎?誠(chéng)然,答案是肯定的。
最近,F(xiàn)acebook的“流行話題”列表非常騷動(dòng),其反應(yīng)出的對(duì)自由黨的偏見(jiàn)昭然若揭。之后,美國(guó)政府要求Facebook給出一個(gè)官方的解釋。本周,F(xiàn)acebook COO Sheryl Sandberg表示Facebook將會(huì)開(kāi)始訓(xùn)練員工,來(lái)辨別和控制他們的政治傾向。
其實(shí),F(xiàn)acebook的做法正是Kickstarter的前數(shù)據(jù)執(zhí)行官Fred Benenson所說(shuō)的"數(shù)學(xué)洗腦”:我們讓諸如Facebook的算法程序變得完全客觀、完全中立,是因?yàn)樗惴ê诵幕跀?shù)學(xué)。
而現(xiàn)如今的算法之所以懷有偏見(jiàn),很大程度上是因?yàn)楹芏喑绦騿T(特別是機(jī)器學(xué)習(xí)程序員)為男性。在最近《彭博社》發(fā)布的文章中,微軟研究員Margaret Mitchell呼吁更多女性參與到編程中來(lái)。
哈佛教授 Latanya Sweeney表示:在一次關(guān)于谷歌AdSense廣告的研究中,他在搜索了白人典型人名(如Geoffrey, Jill, Emma)和黑人典型人名(如DeShawn, Darnell, Jermaine),發(fā)現(xiàn)含有“逮捕(arrest)”這個(gè)字眼的詞語(yǔ)廣告時(shí),出現(xiàn)的黑人人名超過(guò)80%,但出現(xiàn)的白人人名只有不到30%。
Sweeney擔(dān)心谷歌的這種廣告技術(shù)會(huì)帶來(lái)種族偏見(jiàn),讓黑人在比賽、工作、約會(huì)等情況下比白人略遜一籌。
同時(shí),借貸和信用等領(lǐng)域一直以來(lái)被冠以種族偏見(jiàn)的帽子,因此必須在此敏感問(wèn)題上分外小心。
在線借貸公司ZestFinance在建立之初就認(rèn)同這樣一種思想:機(jī)器學(xué)習(xí)項(xiàng)目可以讓那些被認(rèn)為是“有價(jià)值的借貸者”的數(shù)量增多,從而會(huì)陷入借貸歧視的危險(xiǎn)境地。而為了阻止這種情況發(fā)生,ZestFinance已經(jīng)建立了某種特定工具來(lái)測(cè)試結(jié)果。
不過(guò),這種情況的危險(xiǎn)之處在于:這種不言而喻的偏見(jiàn)(不僅存在于算法程序中,還存在于其中的數(shù)據(jù)中)可以一不小心就讓任何程序編程腹黑的偏見(jiàn)者。對(duì)于不能分別程序復(fù)雜性的用戶來(lái)說(shuō),要弄清程序是否是公平的,是非常困難的。
Benenson在最近Technical.ly Brooklyn舉行的問(wèn)答大會(huì)上表示:“算法和數(shù)據(jù)驅(qū)動(dòng)產(chǎn)品總是會(huì)反映其建造者的設(shè)計(jì)選擇,如若程序員們本身帶有偏見(jiàn),那么編寫出來(lái)的程序帶有偏見(jiàn)就不足為奇了?!?/p>
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。