0
本文作者: 六爺 | 2014-11-13 08:47 |
行為會產(chǎn)生數(shù)據(jù),在互聯(lián)網(wǎng)普及之前,除了算命先生,很少有人純粹地將這些數(shù)據(jù)變成真金白銀。當(dāng)麥肯錫在2012年第一次提出“大數(shù)據(jù)”時代已經(jīng)到來,人們似乎終于站到了所謂的上帝視角。只不過看到的不是螻蟻般的蕓蕓眾生,而是一連串不明覺厲的數(shù)據(jù)。
在普通人看來,數(shù)據(jù)永遠(yuǎn)是簡單直白的。就好像你根本不需要知道,為什么一個童年打過蛔蟲疫苗的肯尼亞孩子,比不打蛔蟲疫苗的孩子長大后多賺了20%。作為國家領(lǐng)導(dǎo)人,你需要做的無非是給國家每個適齡兒童打疫苗。
當(dāng)然,現(xiàn)在很難有人會毫無原則地相信數(shù)據(jù)。更重要的是,那些站在風(fēng)口的人,用數(shù)據(jù)打開了一扇財富寶藏之后,他們心里想的不僅是如何累積更多信息,而是怎樣靠數(shù)據(jù)去挖掘行為本身的邏輯。然后在用戶做選擇的前一秒,貼心地給出選項預(yù)判。這種如先知般的技術(shù)手段,就是推薦引擎。
道可道,非常道
Netflix是一家在線影片租賃提供商,其核心競爭力是一種命名為Cinematch的推薦引擎。為了提高影片推薦引擎的效率,Netflix在06年發(fā)起了一場世界級的大獎賽,參賽者需要根據(jù)Netflix公開的大約1億個匿名影片評級,將推薦引擎的效率提高10%以上。看上去很像一個加強(qiáng)版的豆瓣電影,但這還不是見證奇跡的時刻。
隨著第一次大獎賽的結(jié)束,Netflix只是能夠準(zhǔn)確地預(yù)測到,提供了50個以上評級的觀眾的觀影口味。第二次大獎賽的目標(biāo)則是,為那些不經(jīng)常做影片評級或者根本不做評級的顧客推薦影片。提供給參賽者們的數(shù)據(jù)加入了顧客年齡,性別,居住地區(qū)郵編。游戲突然變得有趣起來。
弗洛伊德在《夢的解析》里的觀點是,人每一個下意識的行為都是有意義的,被忽略的細(xì)節(jié)背后,往往有著千絲萬縷的聯(lián)系。所以從理論上講,一個由工程師,統(tǒng)計學(xué)家,行為學(xué)家,心理專家組成的團(tuán)隊,可能真的會比我們更了解自己需要什么。
監(jiān)控是為了控制
如果不從營銷角度去惡意揣測數(shù)據(jù)公司們的動機(jī),推薦引擎無孔不入,的確為我們的生活帶來了前所未有的便利。至少是給那些有選擇困難癥的人,提供了各種橫向的比較標(biāo)準(zhǔn)。但在一個缺乏監(jiān)管和控制的環(huán)境下,很難保障的是,會不會同樣把潘多拉魔盒打開。
2013年的“棱鏡門”事件,斯諾登一直站在輿論的風(fēng)口浪尖。其實令人驚訝的不僅僅是人們的行為被監(jiān)控,畢竟這不是一種常人很難理解的技術(shù)手段。在接受NBC采訪時,斯諾登透露,NSA的分析員可以觀察人們在網(wǎng)絡(luò)行為的過程中,了解并改變?nèi)藗兊乃季S模式。這樣的侵入已經(jīng)不再是簡單的達(dá)到監(jiān)控目的,更多是為了左右你的思考。這讓我想起了一部電影中經(jīng)典的臺詞。
即便是你身上這身廉價的藍(lán)色條紋毛衣,你以為是你選擇了它,但其實2002年Oscar de la Rent 的發(fā)布會才第一次出現(xiàn)了天藍(lán)色禮服,然后圣羅蘭也隨之展示了天藍(lán)色的軍服系列,天藍(lán)色很快就出現(xiàn)在隨后8個設(shè)計師的發(fā)布會里,然后,它就風(fēng)行全世界各大高級賣場,最后大面積流行到街頭,甚至在那些骯臟的拾荒者的身上?;氖牵阋詾槟阕龅倪x擇,把你與時尚業(yè)區(qū)分開來,而事實上,你所穿的毛衣正是這間房子里的人為你挑選出來的。
——《穿Prada的女魔頭》
還有誰在意隱私
這個時候總有人會站出來表示,為了消滅社會的毒瘤,人們不應(yīng)該抗拒組織的監(jiān)控。即使不這么上綱上線,為了換取更好的用戶體驗,公開某些數(shù)據(jù)也是情理之中。但不應(yīng)該忘記的是,推薦算法的核心是精準(zhǔn)。為了達(dá)到這個目的,“某些”和“重要”都是很難鑒定越線與否的變量標(biāo)準(zhǔn)。如果還有人粗暴地將這理解為民意,我想Snapchat的火爆就是對此言論的有力回應(yīng)。
Snapchat作為一款社交軟件,用“閱后即焚”的方式虜獲不少用戶的芳心。如果說每天2000萬張的圖片上傳量還不足以與Facebook媲美的話,Snapchat每天消除的圖片量肯定是有過之而無不及。然而劇情沒有按人們想象中的發(fā)展,從2012年1月到2014年10月,Snapchat已經(jīng)出現(xiàn)兩次大面積的信息泄露事件。
對于商業(yè)模式還在摸索階段的Snapchat來說,暫時不可能為了將數(shù)據(jù)套現(xiàn)而自廢武功。要知道在理論上,沒有任何系統(tǒng)是絕對安全的,所以相對于人們普遍的憤怒,我們更應(yīng)該對此表示遺憾。
推薦引擎的原罪
在《機(jī)器的力量與人類的理性:從判斷到計算》一書中,MIT的科學(xué)家喬瑟夫.魏澤保認(rèn)為,人類永遠(yuǎn)不應(yīng)該允許計算機(jī)為我們做出重要的決定,因為它缺乏某些至關(guān)重要的人類特性,比如同情心與智慧。
對此,我更愿意理解為,推薦引擎并非生來就注定一半天使一半魔鬼,在計算與算計之間,即使沒有技術(shù)上的界限,也應(yīng)該存在道德上的約束。人們在享受互聯(lián)網(wǎng)帶來的快感時,依舊有權(quán)利捍衛(wèi)自己的隱私。如果說哪一天,科技能給人帶來一個智能“朋友”,我想那肯定不會是一臺背后藏著各種心懷鬼胎的機(jī)器。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。