2
昨天,微軟CEO Satya Nadella在Slate上表示:計算機行業(yè)必須開始思考如何讓智能軟件尊重人類。這表明:他非常擔(dān)心AI對人類生活的影響。
他寫道:“科技行業(yè)不應(yīng)該扭曲未來的價值觀,我們應(yīng)該教會AI樹立正確的價值觀。”
Nadella呼吁:“算法有責(zé)任擁有一個正確的三觀,這樣人類才不會受到傷害?!彼硎局悄苘浖仨氝@樣設(shè)計:我們必須檢閱算法的工作方式,讓它不歧視某類人群,或者用暗黑的方式使用私人數(shù)據(jù)。
其實,Nadella的建議是明智而中肯的。一直以來,AI總是被指控腹黑,存在著性別或者種族歧視。我們現(xiàn)在正在努力擺正AI的三觀,讓人們不會為AI的此問題困擾。
聯(lián)邦貿(mào)易委員會的研究發(fā)現(xiàn):在互聯(lián)網(wǎng)時代早期出現(xiàn)的網(wǎng)絡(luò)種族和經(jīng)濟歧視現(xiàn)在又卷土而來了,出現(xiàn)在廣告或者其他的網(wǎng)上服務(wù)之中。
毋庸置疑,Nadella說的一些問題確實存在。近日,微軟研究員Kate Crawford在《紐約時報》總結(jié)了現(xiàn)在AI的歧視現(xiàn)象:現(xiàn)在,工作場所、家庭、法律系統(tǒng)中使用的微軟都不公平。
關(guān)于未來AI的發(fā)展方向,Nadella是這樣說的:AI的下一步發(fā)展,便是尊重種族和性別平等。
正如沒有哪個孩子天生就是一個性別歧視者或種族歧視者,那些都是被教出來的。AI也是這樣,而人類就是最好的老師。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。