0
昨天吃著炸雞喝著喜茶在電腦前等315晚會,本以為近期事故頻發(fā)的特斯拉應(yīng)該會與今年的315晚會撞個滿懷,沒想到這一次特斯拉躲過了雷神之捶,被人臉識別截了胡。
整個晚會,宛如“隱私專場”,人臉識別濫用、簡歷流入黑市,我一個激靈,炸雞不香了。
特斯拉我買不起,人臉我有的是!
據(jù)報(bào)道,只要安裝了具有人臉識別功能的攝像頭,消費(fèi)者只要進(jìn)了其中一家店,在不知情的情況下,就會被攝像頭抓取臉部信息并自動生成編號,以后顧客進(jìn)入去過哪家分店,去過幾次,商家都可以快速得知。
讓我康康,是哪些商戶安裝了人臉識別系統(tǒng)。
寶馬汽車 4S 店、Max Mara 專賣店、科勒衛(wèi)浴,江蘇大劇院、喜茶、老百姓大藥房、良品鋪?zhàn)印⑺羌壹?、九芝堂、晨光玩?.....
此次披露的攝像頭公司包括蘇州萬店掌、悠絡(luò)客電子科技、廣州雅量智能、深圳瑞為信息。
看得小編直呼好家伙,躲過了房子、寶馬的高奢消費(fèi),沒躲過喜茶、藥房等日常場景。
百年老品牌科勒衛(wèi)浴倒是乖巧,麻利地公告道歉,連夜拆除攝像頭,無法連夜拆除攝像頭做斷電下線處理,一系列動作行云流水,算是稍稍平息了公眾的怒火。
各門店紛紛表示,對于該設(shè)備的使用,僅作到店人數(shù)統(tǒng)計(jì);對該設(shè)備所采集的信息不做保存、分析及轉(zhuǎn)移。
被曝光的企業(yè)陸續(xù)發(fā)表聲明致歉。但是不少網(wǎng)友并不買賬。
還有什么場景是沒有人臉識別的?我們只能被“裸奔”嗎?
看著手里的喜茶,我坐不住了,難道我只能戴頭盔,穿臉基尼嗎?
大家還記得去年一男子戴著頭盔看樓盤的照片吧。
看來為了信息不被泄露,上到各界大佬,下至群眾百姓都使出了渾身解數(shù)。
大佬怎么玩?
不少藝術(shù)家和時裝設(shè)計(jì)師發(fā)揮特長,試圖與人臉識別技術(shù)一較高下。
藝術(shù)家亞當(dāng)·哈維(Adam Harvey)開發(fā)了CV Dazzle 反人臉識別妝容,使用戲劇性的化妝和動態(tài)發(fā)型來打斷臉部識別的算法。
計(jì)算機(jī)視覺炫目:CV Dazzle
甚至,在倫敦,藝術(shù)家組織了炫目俱樂部成員,酷炫著裝,按計(jì)劃游行。
有理由懷疑他們只是想開爬梯。
后來,連字符實(shí)驗(yàn)室與亞當(dāng)?哈維又突發(fā)奇想,不如給AI很多人臉呢?
于是就有了超臉HyperFace,與炫目妝容相反,他們在服裝上展示許多虛假的人臉,以此迷惑算法。
很可惜,藝術(shù)家的奇思妙想甚至連iPhone都騙不過。
因?yàn)楹芏嗝娌孔R別技術(shù)使用紅外(不可見)光識別,它們通過突出紅外點(diǎn)映射網(wǎng)格,這些算法創(chuàng)建一個人臉的3D模型,像一個雷達(dá)地形圖。
它不在乎你用什么顏色的化妝品,或是穿著印有2D人臉的衣服。
莫斯科國立大學(xué)和華為莫斯科研究院的科學(xué)家們提出“腦門貼紙”。
他們研發(fā)出一種具有特殊紋路的紙符,在紙片上生成了一種對抗攻擊圖像,讓其不再是一張平面的紙了,而是三維立體,能直接干擾和欺騙AI的紙。
人們將該紙貼在腦門上,迷惑AI。
理論上可行,只是感覺貼上會變成不太聰明的亞子。
中國一股曾消失的組織表示so easy,直接上造型。
這場“文藝復(fù)興”最終只停留在字面上,畢竟這不符合我們都市麗人的風(fēng)格,如此花容月貌怎能不見天日。
我覺得不行,有必找到到一個靠譜的、體面的反人臉識別方法。
物理遮擋無效,能否用紅外對抗紅外呢?
腦海里突然想起《甄嬛傳》中安陵容的經(jīng)典臺詞:“是皇后殺了皇后?!?/p>
對,用AI來對付AI,用魔法對抗魔法!
由香港中文大學(xué)、復(fù)旦大學(xué)、印第安納大學(xué)組成的一個研究小組想到了這一點(diǎn)。
他們研發(fā)出一款能發(fā)出紅外線的球帽,采用了“對抗模式”的反人臉識
別設(shè)計(jì)。據(jù)悉,這款球帽曾在阿里出售。
有不少學(xué)者從眼鏡上做文章。
2015年,日本國立情報(bào)學(xué)研究所發(fā)明出高科技眼鏡Privacy Visor,利用紅外發(fā)射技術(shù),通過在眼鏡框架上安裝11個近紅外發(fā)光二極管,使攝像頭無法檢測到人的面部特征。
攝像頭通過檢測眼睛和鼻子部位的光線對比判斷面部,面部的明暗對比特征消失,攝像頭也就無法識別到人臉了。
據(jù)悉,該款眼鏡當(dāng)初擬定售價(jià)為240美元,約合1490元人民幣。
emmmmmm,效果嘛,大家看圖理解,反正我是不會買這款售價(jià)不菲的眼鏡。
2016年,美國卡耐基梅隆大學(xué)和北卡羅來納大學(xué)的研究人員也開發(fā)出一款反人臉識別眼鏡。
該種眼鏡可以讓攝像頭前的人顯示成為另一個人,在對商用級別面不是軟件的測試中,其誤認(rèn)人臉的成功率為100%。
左邊男性在佩戴后被識別成了女演員米拉 · 喬沃維奇,右邊的女性被識別成一個中東男人。
研究人員Mahmood Sharif曾表示,不少面部識別軟件的神經(jīng)網(wǎng)絡(luò)是基于對人臉像素顏色的分析來猜測一個人的身份的,被測者臉上任何輕微的變化都會影響到整個識別系統(tǒng)。
他們通過優(yōu)化算法找到了可以躲過系統(tǒng)識別的眼鏡顏色,并且保證顏色可以平滑過渡(類似于自然圖像)。這些圖案會擾亂面部識別系統(tǒng)的感知,影響AI讀取它們的準(zhǔn)確性。
但是,不法分子或許能通過眼鏡輕而易舉地逃過安全監(jiān)控或者以別人的身份進(jìn)入某些區(qū)域??紤]到這一點(diǎn),開發(fā)者將研究結(jié)果提交給本國的運(yùn)輸安全管理局(TSA)。
此外,你還可以試試Reflectacles的強(qiáng)力反光眼鏡/墨鏡:IRpair和Phantom。
它們的原理十分簡單,在太陽眼鏡的鏡框上貼上高反光率的材料。這種材料能反射大部分可見光和攝像頭發(fā)射出的紅外線,從而“亮瞎”攝像頭。
另外,這款售價(jià)95美元的眼鏡還會有意向不到的效果。
由于光線反射,能夠提高夜晚的可見度,用戶在夜晚戴著它,能夠最大程度的降低被過路車輛誤撞的幾率,提升安全性。
與此同時,你需要接受的是,攝像頭里的你會擁有《X-Men》的鐳射眼,自帶圣光,目光炯炯。
眼鏡之外,更多的人還是在算法上下功夫,他們多采用“對抗訓(xùn)練”的方法,給人臉施加“隱私濾鏡”。
2018年,多倫多大學(xué)研究人員設(shè)計(jì)新算法,動態(tài)地破壞人臉識別系統(tǒng)。他們的解決方案利用了一種叫做對抗訓(xùn)練(adversarial training)的深度學(xué)習(xí)技術(shù),這種技術(shù)讓兩種人工智能算法相互對抗。
簡單來說,該算法通過改變一些人眼幾乎不可識別的微小像素來改變識別器的檢測結(jié)果。
盡管算法對于像素的修改十分微小,但對于檢測器來說卻是致命的。
結(jié)果表明,他們的系統(tǒng)可以將原本可檢測到的人臉比例從接近 100% 降低到 0.5% 。
據(jù)悉,這個反人臉識別系統(tǒng)具有神經(jīng)網(wǎng)絡(luò)自主學(xué)習(xí)能力,可以隨著人臉識別系統(tǒng)的進(jìn)化而不斷改變自己。
2019年,來自挪威科技大學(xué)的《DeepPrivacy:A Generative Adversarial Network for Face Anonymization》一篇論文中稱用新的更有挑戰(zhàn)表示的方法欺騙了人臉識別系統(tǒng)。
在不改變原來的數(shù)據(jù)分布的前提下把人臉匿名化,更通俗來講,就是輸出一張逼真的人臉,但是不改變原圖人的姿態(tài)和背景。
在這種技術(shù)的加持下,人臉識別系統(tǒng)依舊能夠正常運(yùn)行,但是完全無法識別出原來的人臉身份。
根據(jù)作者們的測試,經(jīng)過他們匿名化的人臉仍然保持了接近于原圖的人臉可識別性,普通的人臉識別對于匿名化后的圖像,識別出人臉的平均準(zhǔn)確率只下降了 0.7% 。而人臉含有的自然信息自然是 100% 不重合的。
但這項(xiàng)技術(shù)同樣存在風(fēng)險(xiǎn),比如偽造者冒充他人自由出入具有人臉識別系統(tǒng)的設(shè)施。
同年,F(xiàn)acebook 的人工智能實(shí)驗(yàn)室 Facebook AI Research(FAIR)開發(fā)出一種“去識別”系統(tǒng),該系統(tǒng)可以欺騙面部識別系統(tǒng),例如,讓面部識別系統(tǒng)將你識別為一位女明星。
該技術(shù)使用機(jī)器學(xué)習(xí)實(shí)時地改變視頻中人物的關(guān)鍵面部特征,誘使面部識別系統(tǒng)錯誤地識別對象。
據(jù)稱,該技術(shù)將一個對抗自編碼器與一個訓(xùn)練過的面部分類器配對,以使人的面部稍微扭曲,從而在迷惑面部識別系統(tǒng)的同時,又能維持一個人們可以認(rèn)出來的自然樣貌,它可以用在視頻,甚至是實(shí)時視頻中。
Facebook表示,為了控制人臉識別技術(shù)的濫用,才推出了對視頻進(jìn)行去識別的方法,考慮到這項(xiàng)研究可能會對未來的個人隱私保護(hù)工具產(chǎn)生影響,F(xiàn)acebook 并不打算在任何商業(yè)產(chǎn)品中使用這個反人臉識別技術(shù)。
2020年,芝加哥大學(xué)Sand Lab團(tuán)隊(duì)創(chuàng)建了“??怂埂?Fawkes技術(shù)。與上述技術(shù)原理相似,主要通過AI技術(shù),神不知鬼不覺地修改你的照片,以欺騙面部識別系統(tǒng)。
福克斯的運(yùn)行原理比較復(fù)雜,簡單來講,它通過代碼對像素進(jìn)行一些微調(diào),普通人很難看出兩者的區(qū)別,但對于人臉識別系統(tǒng)來說,這就是天壤之別。
具體來說,F(xiàn)awkes將A改造成B,盡管A圖和B圖的差別非常細(xì)微,但是當(dāng)前廠商的人臉識別系統(tǒng),會認(rèn)為A圖和B圖不是同一個人,這樣就可以保護(hù)用戶隱私。
而且,F(xiàn)wkes的處理速度很快,單個圖像僅需要幾分鐘。經(jīng)過Fawks快速處理的圖像,可以在不改變原貌的基礎(chǔ)上,隨意分享在各大社交媒體平臺,而不用擔(dān)心照片被相關(guān)公司隨意抓取或用于非法途徑。
不難發(fā)現(xiàn),技術(shù)上,大家的途徑不謀而合,即利用AI系統(tǒng)的神經(jīng)網(wǎng)絡(luò)漏洞,設(shè)計(jì)算法與之對抗,或進(jìn)行攻擊,從而起到干擾、誤導(dǎo)和欺騙識別系統(tǒng)的效果。
人臉識別,從移動支付到手機(jī)解鎖,從交通出行到旅游檢票,從門禁打卡到關(guān)卡安防,從銀行辦理到政務(wù)協(xié)助,人們從好奇,到不以為然,到接受,到習(xí)以為常。
它給人們帶來了便捷、安全和智能,也會帶來隱私、安全和不安。
但人臉識別技術(shù)本身,不是原罪。
“人臉識別技術(shù)是無罪的,鋼鐵可以被用來制造槍支,也可以被用于制造嬰兒保育箱?!?/p>
對于人臉識別技術(shù)落地所遭遇的困境,亞馬遜 CTO Werner Vogels如是說。
刀可以傷人,也可以做出溫馨的晚餐。有人用人臉識別技術(shù)牟利犯罪,也有上述人士為技術(shù)的安全使用殫精竭慮。
決定技術(shù)發(fā)展的走向,取決于監(jiān)管部門的選擇。
過去一段時間,以人臉識別為代表的AI技術(shù)在部分地區(qū)的發(fā)展的確遭遇了一些挑戰(zhàn),但我們也絕不能因此去否定它所有的光環(huán)。
畢竟技術(shù)的正向革新往往都是伴隨著陣痛匍匐前行的。
本文圖片均來源于網(wǎng)絡(luò)雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。