0
雷鋒網(wǎng)按:雷鋒字幕組出品系列短視頻《 2 分鐘論文 》,帶大家用碎片時間閱覽前沿技術,了解 AI 領域的最新研究成果。
翻譯 | 于澤平 字幕 | 凡江 整理 | 吳璇
本期論文:對抗樣本同時騙過人類和計算機視覺
Adversarial Examples that Fool both Human and Computer Vision
? ?每周一篇2分鐘論文視頻解讀
我們都知道,機器學習模型容易受到對抗樣本的影響。
比如,稍稍修改一點圖像,就會導致計算機視覺模型出現(xiàn)錯誤,像是把校車認成鴕鳥。
然而,人類是否容易出現(xiàn)類相似的錯誤呢?
圖片加入干擾能讓貓看起來像狗
在這里,谷歌大腦的研究人員通過利用最近的技術創(chuàng)造了第一個欺騙人類的對抗樣本,這些技術將具有已知參數(shù)和體系結構的計算機視覺模型的對抗樣本,轉換為其他具有未知參數(shù)和體系結構的模型,并且通過修改模型更加有效地匹配初始處理的人類視覺系統(tǒng)。
不同擾動方式對圖片進行處理
研究發(fā)現(xiàn),在人類觀察時間有限的情況下,這些在計算機視覺模型之間進行重度遷移的對抗樣本,已經(jīng)干擾了人類對圖像的分類。
論文原址 https://arxiv.org/abs/1802.08195
雷鋒字幕組正在招募中
掃描下方二維碼
備注“雷鋒字幕組+姓名”加入我們吧
雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。