0
本文作者: AI研習(xí)社-譯站 | 2018-01-29 11:10 |
喜歡機(jī)器學(xué)習(xí)和人工智能,卻發(fā)現(xiàn)埋頭苦練枯燥乏味還殺時間?這里是,雷鋒字幕組編譯的Arxiv Insights專欄,從技術(shù)角度出發(fā),帶你輕松深度學(xué)習(xí)。
原標(biāo)題 'How neural networks learn' - Part II: Adversarial Attacks
翻譯 | 劉寧 校對 | 凡江 整理 | 吳璇
?每周一條油管頻道 Arxiv Insights 視頻
當(dāng)下的圖像識別技術(shù)看似愈發(fā)成熟了,但神經(jīng)網(wǎng)絡(luò)還是會犯錯,特別是碰到人為偽造圖片時,神經(jīng)網(wǎng)絡(luò)基本識別無能:
比如你只要帶上這幅特制3D眼睛,在神經(jīng)網(wǎng)絡(luò)的眼里,你就算已經(jīng)化成灰了,他根本識別不出來你是誰。
再比如你偽造個車牌,神經(jīng)網(wǎng)絡(luò)直接就懵了,基本上全世界的交通攝像頭都識別不出來你是真是假。
想要騙過神經(jīng)網(wǎng)絡(luò),也不要什么超高伎倆,隨便動動手腳,在原圖上增加一點(diǎn)噪音,或是更改一些像素點(diǎn)就成了。但是想騙過人類就難了,我們通常都能知道某張圖是偽造的或是人為制作出來的。
假如我們輸入一張熊貓的圖片,通過卷積神經(jīng)網(wǎng)絡(luò)的計算,它被歸類為是熊貓。神經(jīng)網(wǎng)絡(luò)的運(yùn)作過程是:在神經(jīng)網(wǎng)絡(luò)輸出層中隨機(jī)選擇輸出神經(jīng)元(并非代表熊貓的神經(jīng)元)→將梯度下降法運(yùn)用于輸入熊貓圖片的像素點(diǎn)→最大限度地激活目標(biāo)神經(jīng)元。但是,如果我們采用調(diào)整輸入圖片像素值,就能騙過神經(jīng)網(wǎng)絡(luò),從而得到錯誤的分類。
對抗樣本不僅可以用于計算機(jī)視覺領(lǐng)域,還可以用于自然語言處理領(lǐng)域。像在Amazon,booking,TripAdvisor等網(wǎng)站的信息,大多源于用戶在網(wǎng)站上反饋的評價,評價通常會用感情分析來處理和匯總。僅僅修改評價中的幾個字,就能完全反轉(zhuǎn)模型對情感的判斷。
本視頻將介紹對抗攻擊及其防御的相關(guān)知識,并從以下幾個方面介紹:
什么是對抗樣本?
對抗樣本出現(xiàn)在哪些場合?
對抗樣本有什么特性?
如何防御對抗樣本?
視頻講解通俗易懂,有興趣鉆研的童鞋可以參考 產(chǎn)生和防御對抗樣本的新方法 | 分享總結(jié)。
視頻原址 https://www.youtube.com/watch?v=4rFOkpI0Lcg&t=902s
更多文章,關(guān)注雷鋒網(wǎng),添加雷鋒字幕組微信號(leiphonefansub)為好友
備注「我要加入」,To be a AI Volunteer !
雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
時間序列預(yù)測教程;OpenAI 談對抗樣本:自然語言處理入門 | AI 開發(fā)者日報
OpenAI最新研究:“對抗樣本”能輕易黑掉AI系統(tǒng),如何抵御?
一文詳解深度神經(jīng)網(wǎng)絡(luò)中的對抗樣本與學(xué)習(xí)
如何用 Caffe 生成對抗樣本?這篇文章告訴你一個更高效的算法
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。