8
本文作者: 訾竣喆 | 2015-12-02 14:13 |
人工智能的進一步發(fā)展往往會導(dǎo)致人類勞動力變得更為廉價,但維基百科總部最近推行的做法卻并不會帶來這個問題。
據(jù)計算機科學(xué)家Aaron Halfaker介紹,維基百科最近開始使用一套由其自己開發(fā)的人工智能系統(tǒng),該系統(tǒng)可以在文章中檢測出惡意破壞或虛假編輯等行為。這將能夠幫助維基百科清除掉用戶編輯入門的屏障。
該項目的一大動機在于,英語版維基百科的活躍貢獻者數(shù)量出現(xiàn)了大幅下滑:過去8年間,這一數(shù)字萎縮了40%,目前僅為3萬人。研究表明,該問題源自維基百科復(fù)雜的官僚體系,以及他們對新人所犯錯誤的苛刻態(tài)度。
由于維基百科采用的是“群眾眾包文章”的編輯模式,所以它必須要對編輯的內(nèi)容進行嚴格的審查,防止文章內(nèi)容被蓄意地曲解或破壞。但與此同時,這讓很多本懷著善意且?guī)в锌煽啃畔⒌挠脩粢查_始不再選擇在維基百科中編輯詞條。為此,維基百科希望利用這套更為智能的AI系統(tǒng)來幫助他們篩選出內(nèi)容,并等到系統(tǒng)足夠強大的時候?qū)τ脩舴艑捑庉嫍l件。
維基傳媒基金會高級研究員阿隆·哈爾法克(Aaron Halfaker)幫助該組織發(fā)現(xiàn)了這一問題,他目前還在領(lǐng)導(dǎo)一個算法開發(fā)項目,以應(yīng)對這一問題。這套名為“客觀修正評估服務(wù)”(ORES)的系統(tǒng)可以通過訓(xùn)練對維基百科上新增的改動進行評估,并判斷某項改動究竟是善意還是惡意。
不過,仍然有許多人對于現(xiàn)在這套系統(tǒng)是否能夠具備永遠取代人類進行審查的能力表示懷疑。
Via thenextweb&wired
相關(guān)閱讀:
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。