0
你的手機有沒有一些不可描述的照片?
比如,聚眾YP?
圍觀“藝術(shù)”
3D裸男?
女王調(diào)教?
總之,這些照片可能是自己,也可能是別人的,但統(tǒng)統(tǒng)都是不安全的,難道你沒有遭遇過爸媽隨便翻翻相冊的尷尬嗎?
更何況還有好萊塢明星頻頻傳出裸照被公開事件,以及國內(nèi)多起艷照門等前車之鑒,存在手機上的果照被修電腦、iCloud 被黑、Instagram 賬戶密碼被撞庫等姿勢花式泄露。
這里要給大家安利一款最近雷鋒網(wǎng)宅客頻道(微信公眾號:letshome)編輯在外網(wǎng)發(fā)現(xiàn)的某自動隱藏果照神器,麻麻再也不用擔心看到熊孩子裸照了。
“裸體”構(gòu)想
這款軟件的名字是“Nude”(裸體),可以說相當直白了。
創(chuàng)造這款軟件的是兩位來自加州大學伯克利分校的年輕人——Jessica Chiu and Y.C. Chen。他們在最近的 TechCrunch Disrupt 大會上推廣這款應(yīng)用程序時特意做了一個小測試:詢問人們對這款A(yù)PP功能是否感興趣。
基本上每個人都是一臉正直,“I don’t have nudes.”
我沒有艷照,我可是純真的小公舉,怎么會拍那種東西呢?
我是一個很自律的人,并不喜歡拍一些私密的照片自我欣賞。
裸照是什么?
然而,每個人也會在后面加上一句,要不你再多說說?
身體說不要,嘴上卻很誠實嘛~
Chiu還提到,她與一些好萊塢演員或幕后人員談過,在這些人的電腦或者手機上都存有電影中某些隱私照片,而朋友在互相翻看最近照片時很容易手滑看到不該看的。
制造一個隱私照片保險箱,除了自己之外沒人能進得去似乎是個不錯的想法。
實際上,主打隱私照片保險庫的應(yīng)用程序有很多,比如之前曾被多家媒體安利過的“KeepSafe”,它可以安全存儲手機上不想讓人看到的照片、視頻,但這一切都需要手動操作,不但麻煩,而且極有可能出現(xiàn)人為疏忽,遺漏一些“私密”文件。
所以,有沒有可能自動隱藏手機上的敏感照片?
識別然后鎖起來
這就是 Nude 要做的,利用人工智能自動識別手機圖冊中的裸照,隨后把這些照片移到手機上一個私密的“保險箱”中,相當于一個隱身的加密文件夾。此時這張照片仍然在手機里,但卻讓人看不見。如果你把手機相冊中的照片刪除,也不會影響 Nude 中保存的照片。
作為隱私照片所有者,你如果想要訪問這些照片也要輸入預(yù)設(shè)密碼, 并且支持 Touch ID。
另外,雷鋒網(wǎng)了解到,Nude 設(shè)置了闖入警報的功能,如果有人想要進入APP輸錯密碼,前置攝像頭連賊是誰都能拍下來,你可以查看是誰在何時動了你的隱私。
除了個人疏忽造成的果照泄露事件,“好萊塢艷照門”則是黑客的針對性攻擊。照片上傳到云端就意味著不再由自己掌控,Nude 也考慮到這一點。所以在掃描照片時,Nude 使用了蘋果在今年 6 月份 WWDC(全球開發(fā)者大會)上新推出了面向開發(fā)者的機器學習框架——CoreML。Core ML 讓所有的機器學習計算都在 iOS 設(shè)備本地進行,意味著數(shù)據(jù)可以不離開設(shè)備直接被分析。
整個圖像識別不需要將照片上傳云端,在手機上就可以完成圖像掃描,簡直是為羞羞的照片量身打造。
眾所周知,系統(tǒng)版本在 iOS 10 以下的手機不支持 CoreML,對于這些設(shè)備,Nude 使用的是另一個在手機端運行的框架:Facebook Caffe2。
實際上,要做出這樣一個App,最為關(guān)鍵的是用大量裸照訓(xùn)練算法。
一開始還想省事的幾位開發(fā)者發(fā)現(xiàn)直接從開源數(shù)據(jù)集訓(xùn)練檢測裸照,效果差強人意。后來他們干脆寫了個腳本從 PornHub 上爬取“具有代表性”的照片,最終收集了3000萬張照片來訓(xùn)練算法。
總之,面對次元壁越來越被打破,人們對“性”的態(tài)度會越來越開放,所以這個工具還是很實用的。幾位開發(fā)者也表示,Nude是存放用戶護照、駕駛執(zhí)照和其他敏感文件以及照片的好地方,但最重要的還是把裸照放進去??梢哉f,很耿直了。
據(jù)雷鋒網(wǎng)了解,目前,這個App還只有iOS版,Nude 的 Android 版本還在開發(fā)中,理論上也可以使用 Tensorflow 實現(xiàn)本地識別。
參考鏈接:https://www.theverge.com/2017/10/17/16414822/nude-app-photo-vault-sexting
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。