丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
國際 正文
發(fā)私信給Misty
發(fā)送

1

致程序員:算法為何帶有偏見?

本文作者: Misty 2016-06-27 10:26
導語:我們總是希望,算法比人類更客觀,然而......

致程序員:算法為何帶有偏見?

現(xiàn)如今,由算法和人工智能驅(qū)動的科技越來越多地進入到我們生活,而現(xiàn)在,我們面臨著一個相當諷刺的問題:這些程序的立場是非中立的嗎?它們總是帶有一些偏見嗎?誠然,答案是肯定的。

最近,F(xiàn)acebook的“流行話題”列表非常騷動,其反應出的對自由黨的偏見昭然若揭。之后,美國政府要求Facebook給出一個官方的解釋。本周,F(xiàn)acebook COO Sheryl Sandberg表示Facebook將會開始訓練員工,來辨別和控制他們的政治傾向。

其實,F(xiàn)acebook的做法正是Kickstarter的前數(shù)據(jù)執(zhí)行官Fred Benenson所說的"數(shù)學洗腦”:我們讓諸如Facebook的算法程序變得完全客觀、完全中立,是因為算法核心基于數(shù)學。

而現(xiàn)如今的算法之所以懷有偏見,很大程度上是因為很多程序員(特別是機器學習程序員)為男性。在最近《彭博社》發(fā)布的文章中,微軟研究員Margaret Mitchell呼吁更多女性參與到編程中來。

哈佛教授 Latanya Sweeney表示:在一次關于谷歌AdSense廣告的研究中,他在搜索了白人典型人名(如Geoffrey, Jill, Emma)和黑人典型人名(如DeShawn, Darnell, Jermaine),發(fā)現(xiàn)含有“逮捕(arrest)”這個字眼的詞語廣告時,出現(xiàn)的黑人人名超過80%,但出現(xiàn)的白人人名只有不到30%。

Sweeney擔心谷歌的這種廣告技術會帶來種族偏見,讓黑人在比賽、工作、約會等情況下比白人略遜一籌。

同時,借貸和信用等領域一直以來被冠以種族偏見的帽子,因此必須在此敏感問題上分外小心。

在線借貸公司ZestFinance在建立之初就認同這樣一種思想:機器學習項目可以讓那些被認為是“有價值的借貸者”的數(shù)量增多,從而會陷入借貸歧視的危險境地。而為了阻止這種情況發(fā)生,ZestFinance已經(jīng)建立了某種特定工具來測試結(jié)果。

不過,這種情況的危險之處在于:這種不言而喻的偏見(不僅存在于算法程序中,還存在于其中的數(shù)據(jù)中)可以一不小心就讓任何程序編程腹黑的偏見者。對于不能分別程序復雜性的用戶來說,要弄清程序是否是公平的,是非常困難的。

Benenson在最近Technical.ly Brooklyn舉行的問答大會上表示:“算法和數(shù)據(jù)驅(qū)動產(chǎn)品總是會反映其建造者的設計選擇,如若程序員們本身帶有偏見,那么編寫出來的程序帶有偏見就不足為奇了?!?/p>

Via:MIT Technology Review

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關文章

編輯

歡迎合作,歡迎來撩。 微信號:Misty_Yoong
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說