0
Twitter宣布了一項新計劃。
該計劃被稱為“負責任的機器學習”,主要研究Twitter所采用的算法的公平性。
計劃的內容之一,就是由來自公司內部的數(shù)據(jù)科學家和工程師們,研究Twitter對機器學習的使用如何導致算法偏差,并評估其算法可能造成的“無意傷害”,再將研究結果公之于眾。
“我們正在進行深入的分析和研究,以評估我們使用的算法是否存在潛在危害,” Twitter在官方文件中寫道。
首要任務之一是評估Twitter圖像裁剪算法中的種族和性別偏見。隨著越來越多的新聞網(wǎng)站和社交媒體采用AI識別、提取圖片,人們開始注意到許多算法,尤其是面部識別中存在的種族偏見。
此前有Twitter用戶指出,在有不同人種的照片中,Twitter的自動圖像裁剪算法會在選擇預覽推文呈現(xiàn)的縮略圖區(qū)域時,更加突出膚色更淺的人像區(qū)域。
去年9月,有研究人員發(fā)現(xiàn),點擊這些原始圖片,可以看到其中包含更多其他膚色的人群,但即使改變了原圖中深色人種和淺色人種出現(xiàn)的位置,預覽結果也不會改變。
也有網(wǎng)友認為,出現(xiàn)這一情況是因為算法更傾向于提取圖像中的亮度高和色彩密度大的區(qū)域,并不是“歧視”。
針對算法被指控種族歧視一事,Twitter當時回應稱,將展開更多調查,并承諾將其圖像裁剪的機器學習算法開源,接受更多用戶的審查和建議。
首席技術官Parag Agarwal表示,該算法需要不斷改進,團隊也渴望從經(jīng)驗中學習。
從上個月起,Twitter開始測試顯示完整圖像而不是裁剪預覽。
但就算Twitter的算法并非“故意”種族歧視,但研發(fā)過程中很可能會有一些缺陷導致種族歧視的出現(xiàn)。
NVIDIA的AI研究總監(jiān)Anima Anandkumar就曾指出,顯著性算法采用的訓練集,是異性戀男性的眼球追蹤的數(shù)據(jù),這顯然會將受試者的種族偏見轉移給算法。
此外,Twitter還將研究其內容建議,包括時間線信息流在不同種族群體中的差異性等。
Twitter表示將與第三方學術研究人員“緊密合作”,分析結果后續(xù)將會分享出來,并征詢公眾的反饋。
目前尚不清楚這一計劃將產(chǎn)生多大影響。Twitter表示,這些研究成果不一定會體現(xiàn)在肉眼可見的產(chǎn)品變化是,更多時候是圍繞他們構建和應用機器學習的方式進行重要討論。
Twitter首席執(zhí)行官杰克?多西(Jack Dorsey)也曾表示,他希望創(chuàng)建一個算法市場,類似應用商店的形式,讓用戶能夠控制自己使用的算法。該公司在其最新的博客文章中說,他們正處于探索“算法選擇”的早期階段。
不只是Twitter,其實對各大社交媒體平臺來說,這是一個迫在眉睫的問題。
受美國國內一些社會事件的影響,立法者向Twitter、YouTube和Facebook施壓,要求他們提高算法的透明度。一些立法者提議立法,要求巨頭們評估算法是否存在偏見。
Twitter決定要分析自己的“算法偏見”,是在Facebook等其他社交網(wǎng)絡之后做出的——Facebook在2020年成立了類似的團隊。
此前微軟也曾發(fā)生類似事件:早在2018年,微軟在識別膚色較淺的男性時,準確性就已達到了100%,但在識別深色皮膚女性時,準確率僅為79.2%。
去年六月初,微軟也同樣因為面部識別涉及種族歧視,引起了輿論風波。
英國知名女團Little Mix成員Jade Thirlwall發(fā)文,猛烈抨擊微軟新聞網(wǎng)站MSN在關于自己的報道中混淆使用了團內另一位成員的照片。
該篇報道證實是由AI抓取并生成,卻在尋找配圖時把黑皮膚的Leigh和阿拉伯裔的Jade弄混了。
在收到越來越多的的用戶投訴,以及反種族歧視浪潮的升溫之后,許多包括IBM和Amazon在內的一大批科技公司被迫反思系統(tǒng),尤其是面部識別技術中存在的偏見。
雷鋒網(wǎng)編譯,來源:The Verge
雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。