1
現(xiàn)如今,由算法和人工智能驅(qū)動(dòng)的科技越來越多地進(jìn)入到我們生活,而現(xiàn)在,我們面臨著一個(gè)相當(dāng)諷刺的問題:這些程序的立場(chǎng)是非中立的嗎?它們總是帶有一些偏見嗎?誠(chéng)然,答案是肯定的。
最近,F(xiàn)acebook的“流行話題”列表非常騷動(dòng),其反應(yīng)出的對(duì)自由黨的偏見昭然若揭。之后,美國(guó)政府要求Facebook給出一個(gè)官方的解釋。本周,F(xiàn)acebook COO Sheryl Sandberg表示Facebook將會(huì)開始訓(xùn)練員工,來辨別和控制他們的政治傾向。
其實(shí),F(xiàn)acebook的做法正是Kickstarter的前數(shù)據(jù)執(zhí)行官Fred Benenson所說的"數(shù)學(xué)洗腦”:我們讓諸如Facebook的算法程序變得完全客觀、完全中立,是因?yàn)樗惴ê诵幕跀?shù)學(xué)。
而現(xiàn)如今的算法之所以懷有偏見,很大程度上是因?yàn)楹芏喑绦騿T(特別是機(jī)器學(xué)習(xí)程序員)為男性。在最近《彭博社》發(fā)布的文章中,微軟研究員Margaret Mitchell呼吁更多女性參與到編程中來。
哈佛教授 Latanya Sweeney表示:在一次關(guān)于谷歌AdSense廣告的研究中,他在搜索了白人典型人名(如Geoffrey, Jill, Emma)和黑人典型人名(如DeShawn, Darnell, Jermaine),發(fā)現(xiàn)含有“逮捕(arrest)”這個(gè)字眼的詞語廣告時(shí),出現(xiàn)的黑人人名超過80%,但出現(xiàn)的白人人名只有不到30%。
Sweeney擔(dān)心谷歌的這種廣告技術(shù)會(huì)帶來種族偏見,讓黑人在比賽、工作、約會(huì)等情況下比白人略遜一籌。
同時(shí),借貸和信用等領(lǐng)域一直以來被冠以種族偏見的帽子,因此必須在此敏感問題上分外小心。
在線借貸公司ZestFinance在建立之初就認(rèn)同這樣一種思想:機(jī)器學(xué)習(xí)項(xiàng)目可以讓那些被認(rèn)為是“有價(jià)值的借貸者”的數(shù)量增多,從而會(huì)陷入借貸歧視的危險(xiǎn)境地。而為了阻止這種情況發(fā)生,ZestFinance已經(jīng)建立了某種特定工具來測(cè)試結(jié)果。
不過,這種情況的危險(xiǎn)之處在于:這種不言而喻的偏見(不僅存在于算法程序中,還存在于其中的數(shù)據(jù)中)可以一不小心就讓任何程序編程腹黑的偏見者。對(duì)于不能分別程序復(fù)雜性的用戶來說,要弄清程序是否是公平的,是非常困難的。
Benenson在最近Technical.ly Brooklyn舉行的問答大會(huì)上表示:“算法和數(shù)據(jù)驅(qū)動(dòng)產(chǎn)品總是會(huì)反映其建造者的設(shè)計(jì)選擇,如若程序員們本身帶有偏見,那么編寫出來的程序帶有偏見就不足為奇了?!?/p>
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。