1
本文作者: 柏蓉 | 2015-05-08 14:20 |
互聯(lián)網(wǎng)的發(fā)展信息的爆發(fā),會(huì)不會(huì)加速“回音室”(echo chamber)效應(yīng)?在這個(gè)時(shí)代,我們每天都會(huì)獲得很多信息,而信息過(guò)濾機(jī)制,具體地說(shuō)是那些看不見(jiàn)的算法,讓我們只跟政見(jiàn)相同的人交朋友,只看到我們想看到的東西,只聽(tīng)到自己認(rèn)同的觀點(diǎn),似乎這個(gè)世界就是我們想得那樣,不斷重復(fù)之后,那些觀點(diǎn)不斷加深,最終變成一個(gè)只能聽(tīng)到自己聲音的“密室”。這就是回音室效應(yīng)(echo chamber effect)??膳碌氖?,像Facebook和Google這樣的巨頭,它們一直在努力改進(jìn)算法,讓我們深陷其中。
而今天發(fā)表在《科學(xué)》雜志上一篇名為《Exposure to ideologically diverse news and opinion on Facebook(Facebook的消息和觀點(diǎn)呈現(xiàn)意識(shí)形態(tài)多樣化)》的論文則得出了不同的觀點(diǎn)。在這篇論文中,F(xiàn)acebook數(shù)據(jù)科學(xué)家們首次嘗試量化社交網(wǎng)絡(luò)的信息流(News Feed)群分用戶(hù)的程度。根據(jù)該論文的研究結(jié)果,回音室效應(yīng)的直接原因并非Facebook的算法,而是用戶(hù)本身。
在過(guò)去6個(gè)月的時(shí)間里,F(xiàn)acebook的研究人員回顧了1010萬(wàn)個(gè)美國(guó)的匿名賬戶(hù),收集這些用戶(hù)的網(wǎng)友信息和反應(yīng)意識(shí)形態(tài)偏好的狀態(tài)。結(jié)果發(fā)現(xiàn),這些人不會(huì)總是處于觀點(diǎn)相同的環(huán)境中,而是大部分時(shí)間出現(xiàn)在觀點(diǎn)不同的地方。研究人員表示,F(xiàn)acebook的算法讓自由派有8%的時(shí)間存在于單一的觀點(diǎn)中,而保守派則是5%的時(shí)間。這說(shuō)明在大部分時(shí)間里,F(xiàn)acebook沒(méi)有讓用戶(hù)局限接受同類(lèi)的信息,而是多元化的信息。
Facebook的算法會(huì)通過(guò)用戶(hù)的個(gè)人喜好決定News Feed信息流的鏈接,而該研究發(fā)現(xiàn),信息的接受不完全決定于算法,還有很大一部分原因是用戶(hù)本身是否點(diǎn)擊。這個(gè)的意思是,算法只是決定信息的呈現(xiàn),是否接受,還是由用戶(hù)自身決定。
以上研究的結(jié)果,換句話(huà)來(lái)說(shuō)就是,F(xiàn)acebook的算法阻礙用戶(hù)接受多元化的觀點(diǎn)的程度遠(yuǎn)遠(yuǎn)比不上用戶(hù)本身。就是說(shuō),用戶(hù)應(yīng)該為只有單一意識(shí)形態(tài)而且“活在自己的世界”負(fù)責(zé)。
對(duì)此,有批評(píng)人士指出,這份研究論文有嚴(yán)重的邏輯缺陷。首先是Facebook的算法已經(jīng)過(guò)濾了一些消息,用戶(hù)看到的是Facebook自以為用戶(hù)喜歡的,而后的不斷重復(fù)操作更是加深了這種“自以為是”和“單一觀點(diǎn)”。而且還有一些訂閱功能,這兩方因素不斷加強(qiáng)“錯(cuò)誤”。在這樣的輪回中,被算法過(guò)濾的信息、用戶(hù)不去點(diǎn)擊某個(gè)鏈接查看某些消息,并不等于用戶(hù)不接受,不認(rèn)同。
需要提出的是,在Facebook的這次研究中,用戶(hù)的樣本選擇有偏差,局限于把定義自己為自由派或者保守派的用戶(hù)。而且研究樣本量?jī)H占14億用戶(hù)一小部分。
事實(shí)上,這不是Facebook第一次進(jìn)行用戶(hù)研究了。早前,該公司還進(jìn)行了一項(xiàng)關(guān)于用戶(hù)情緒與Facebook信息的關(guān)系,因?yàn)橛杏^點(diǎn)認(rèn)為Facebook在操縱用戶(hù)的情緒。如果這一次Facebook的研究數(shù)據(jù)是正確的,那么,形成回音室的真正原因是我們本身。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。