0
雷鋒網(wǎng)消息,1 月 23 日,雷鋒網(wǎng)從阿里安全獲悉,阿里安全、阿里云天池平臺聯(lián)合人工智能領(lǐng)域國際會議 IJCAI(International Joint Conference on Artificial Intelligence),發(fā)起人工智能對抗算法競賽,探索對抗攻擊時,如何解決 AI 模型的安全性問題。目前,賽題和日程已在天池平臺公布。
這次比賽主要針對圖像分類,包括模型攻擊與模型防御,阿里公開 110 個類目,共計 11 萬張左右圖片,供選手使用。參賽選手可以作為攻擊方,對圖片進(jìn)行輕微擾動生成對抗樣本,使模型識別錯誤,或識別成指定的錯誤類別,也可以作為防御方,構(gòu)建一個更加魯棒的模型,準(zhǔn)確識別對抗樣本。
為強(qiáng)調(diào)面向真實場景,這次競賽采用的是實際場景的圖片識別任務(wù)進(jìn)行攻防對抗。除真實數(shù)據(jù)外,還包括對計算量的嚴(yán)格限制,以及對擾動噪音的限制,這更能還原真實的安全與黑灰產(chǎn)的攻防。
在國際知名頂會 NIPS2017 年和 2018 年會議上,谷歌大腦曾連續(xù)舉辦對抗樣本攻防競賽,普及對抗樣本攻擊的課題。不過,與阿里聯(lián)合 IJCAI 舉辦的這次競賽不同的是,他們利用的樣本集均來自學(xué)術(shù)數(shù)據(jù)集 ImageNet。
“未來的安全能力一定是建立在智能與算法基礎(chǔ)之上,我們希望提供真實的、對抗的場景,建立前沿研究和具體業(yè)務(wù)之間的橋梁, 進(jìn)而反哺和促進(jìn)整個人工智能的發(fā)展?!卑⒗锇踩珗D靈實驗室負(fù)責(zé)人、資深專家薛暉稱,這也是阿里首次提出“安全 AI ”概念的初衷。
阿里安全稱,通過大賽發(fā)掘安全 AI 人才也是預(yù)期目標(biāo)之一。
經(jīng)過初賽、復(fù)賽和答辯,排名前三甲的隊伍,除獲得 1000 至 5000 美元不等的獎金外,還會被邀請參加今年 8 月在澳門舉辦的 IJCAI 會議。清華大學(xué)教授朱軍、中國科學(xué)技術(shù)大學(xué)教授張衛(wèi)明、浙江大學(xué)研究員紀(jì)守領(lǐng)、阿里達(dá)摩院高級研究員華先勝等在內(nèi)的 AI 安全領(lǐng)域?qū)<覍?dān)任競賽評審。
朱軍等指導(dǎo)的清華大學(xué)團(tuán)隊曾在 NIPS2017 對抗樣本攻防競賽中奪冠,紀(jì)守領(lǐng)所在的 NESA Lab 提出了一種新型的對抗性驗證碼,能防范來自打碼平臺等黑灰產(chǎn)的破解。
IJCAI 被中國計算機(jī)學(xué)會推薦為計算機(jī)學(xué)科領(lǐng)域 A 類國際會議,從 1969 年開始每兩年舉辦一次,自 2016 年起改為每年一次。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。