0
本文作者: AI研習(xí)社 | 2020-02-12 16:47 |
提高小樣本學(xué)習(xí)對(duì)全新分類的識(shí)別能力
機(jī)器學(xué)習(xí)的“學(xué)習(xí)如何遺忘”
復(fù)雜城市背后簡(jiǎn)單的空間尺度規(guī)則
FD-GAN:具有融合鑒別器的生成對(duì)抗網(wǎng)絡(luò)用于單幅圖像去霧
GTNet:用于零樣本目標(biāo)檢測(cè)的生成遷移網(wǎng)絡(luò)
論文名稱:Cross-Domain Few-Shot Classification via Learned Feature-Wise Transformation
作者:Hung-Yu Tseng /Hsin-Ying Lee /Jia-Bin Huang /Ming-Hsuan Yang
發(fā)表時(shí)間:2019/9/26
論文鏈接:https://paper.yanxishe.com/review/10295?from=leiphonecolumn_paperreview0212
推薦原因
這篇論文研究的是小樣本學(xué)習(xí),也就是如何在每個(gè)類別只有幾個(gè)、甚至一個(gè)樣本的情況下學(xué)習(xí)如何分類。現(xiàn)有的基于指標(biāo)的小樣本分類算法,都是通過一個(gè)學(xué)習(xí)到的指標(biāo)函數(shù),把要預(yù)測(cè)的樣本的特征嵌入和給定的樣本進(jìn)行對(duì)比。雖然這些方法已經(jīng)展示出了可喜的效果,但由于不同類別的特征分布有很大的差異,所以這樣的方法并不能很好地分辨來自新的分類(與給定的樣本不同的分類)的樣本。
在這篇論文中,作者們?cè)诨谥笜?biāo)的方法基礎(chǔ)上又加入了領(lǐng)域遷移的思路,他們用特征級(jí)別的變換層+仿形變換來增強(qiáng)圖像特征,作用是在訓(xùn)練過程中模擬不同領(lǐng)域的不同特征分布。作者們還設(shè)計(jì)了一個(gè)“學(xué)習(xí)如何學(xué)習(xí)”的模塊,為變換層學(xué)習(xí)超參數(shù)。作者們的大量實(shí)驗(yàn)表明他們的方法可以作用于各種各樣的基于指標(biāo)的方法,并帶來穩(wěn)定的表現(xiàn)提高。
論文名稱:Machine Unlearning
作者:Bourtoule Lucas /Chandrasekaran Varun /Choquette-Choo Christopher /Jia Hengrui /Travers Adelin /Zhang Baiwu /Lie David /Papernot Nicolas
發(fā)表時(shí)間:2019/12/9
https://paper.yanxishe.com/review/10275?from=leiphonecolumn_paperreview0212
假設(shè)你用一百萬(wàn)條數(shù)據(jù)訓(xùn)練了一個(gè)機(jī)器學(xué)習(xí)模型,然后數(shù)據(jù)提供方有一天突然告訴你,其中有幾條數(shù)據(jù)是有問題的、或者現(xiàn)在不允許使用了,現(xiàn)在要把這幾條數(shù)據(jù)對(duì)模型的影響取消掉。除了從頭訓(xùn)練一個(gè)新模型,還有什么辦法嗎?這個(gè)問題就是機(jī)器學(xué)習(xí)的“反學(xué)習(xí)”,Machine Unlearning,“學(xué)習(xí)如何遺忘”。
在傳統(tǒng)搜索中,想刪除某條數(shù)據(jù)很容易;但在機(jī)器學(xué)習(xí)模型中,數(shù)據(jù)會(huì)被模型記住,存在被攻擊者還原、獲取的風(fēng)險(xiǎn);即便采用一些保護(hù)方式,數(shù)據(jù)的影響也成為了模型參數(shù)的一部分,難以單獨(dú)解耦,從而難以單獨(dú)消除。所以想要?jiǎng)h除數(shù)據(jù),常見做法基本上只能是重新訓(xùn)練模型。
在這篇論文中,作者們提出了一種新的訓(xùn)練框架來解決這個(gè)問題。他們的方法可以減少受到刪除數(shù)據(jù)影響的參數(shù)的數(shù)量,而且會(huì)對(duì)訓(xùn)練算法中間階段的輸出做一些緩存,以減少遺忘這些數(shù)據(jù)的過程中對(duì)整個(gè)模型的更新次數(shù)。依靠這樣的設(shè)計(jì),他們的方法減少了數(shù)據(jù)遺忘過程中的計(jì)算開銷,即便在最差情況下也有效。如果用戶能夠提供先驗(yàn),他們的方法還能獲得更好的效果。作者們的這項(xiàng)研究能對(duì)機(jī)器學(xué)習(xí)模型實(shí)際應(yīng)用中的數(shù)據(jù)治理起到幫助。
論文名稱:Simple spatial scaling rules behind complex cities
作者:Ruiqi Li /LeiDong /JiangZhang /Xinran Wang /WenXu Wang /Zengru Di /H.Eugene Stanley
發(fā)表時(shí)間:2017/11/28
論文鏈接:https://paper.yanxishe.com/review/10274?from=leiphonecolumn_paperreview0212
推薦原因
文章通過一個(gè)基于空間吸引和匹配生長(zhǎng)機(jī)制的簡(jiǎn)單模型,提供一個(gè)普遍的超線性和亞線性總體尺度律的起源的一般性解釋,并準(zhǔn)確地預(yù)測(cè)千米級(jí)的社會(huì)經(jīng)濟(jì)活動(dòng)。為從城市元素之間的相互作用的角度揭示城市的演變開辟了一條新的途徑,有著廣泛的應(yīng)用
論文名稱:FD-GAN: Generative Adversarial Networks with Fusion-discriminator for Single Image Dehazing
作者:Dong Yu /Liu Yihao /Zhang He /Chen Shifeng /Qiao Yu
發(fā)表時(shí)間:2020/1/20
論文鏈接:https://paper.yanxishe.com/review/9629?from=leiphonecolumn_paperreview0212
推薦原因
這篇論文被AAAI 2020接收,考慮的是圖像去霧問題。
大部分現(xiàn)有的基于學(xué)習(xí)的圖像去霧方法并非完全端到端的,而是遵循傳統(tǒng)的去霧步驟:首先評(píng)估傳輸介質(zhì)和大氣光線,隨后恢復(fù)基于大氣散射模型的無霧圖像。但是在實(shí)踐中,由于缺乏先驗(yàn)信息和約束條件,很難精準(zhǔn)估計(jì)出中間參數(shù),而不精確的估計(jì)則削弱了去霧的效果,結(jié)果導(dǎo)致偽影、色彩失真和霧霾去除效果不足。為解決這些問題,這篇論文提出一個(gè)完全端到端的具有融合判別器的生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks with Fusion-discriminator,F(xiàn)D-GAN)進(jìn)行圖像去霧。FD-GAN將頻率信息作為附加先驗(yàn)知識(shí),以生成更自然、逼真的除霧圖像。進(jìn)一步,這篇論文合成大尺寸訓(xùn)練數(shù)據(jù),包含不同的室內(nèi)與戶外霧化圖,以促進(jìn)模型表現(xiàn)。實(shí)驗(yàn)表明,F(xiàn)D-GAN在公共合成數(shù)據(jù)集和真實(shí)世界圖像上均達(dá)到了當(dāng)前最佳的性能。
論文名稱:GTNet: Generative Transfer Network for Zero-Shot Object Detection
作者:Zhao Shizhen /Gao Changxin /Shao Yuanjie /Li Lerenhan /Yu Changqian /Ji Zhong /Sang Nong
發(fā)表時(shí)間:2020/1/19
論文鏈接:https://paper.yanxishe.com/review/9628?from=leiphonecolumn_paperreview0212
推薦原因
這篇論文提出了一種生成遷移網(wǎng)絡(luò)(Generative Transfer Network,GTNet)來用于零樣本目標(biāo)檢測(cè)。GTNet包含一個(gè)目標(biāo)檢測(cè)模塊和一個(gè)知識(shí)遷移模塊。前者可學(xué)習(xí)大量已知領(lǐng)域知識(shí),而后者利用合成的特征來生成未知類型的特征,這些特征則被用于訓(xùn)練目標(biāo)檢測(cè)模塊中新的分類層。為了使用類內(nèi)方差和IoU方差為每個(gè)未知類合成特征,這篇論文設(shè)計(jì)了一個(gè)基于IoU的生成對(duì)抗網(wǎng)絡(luò)IoUGAN作為特征合成器,包含三個(gè)單元模型:類特征生成單元,前景特征生成單元和背景特征生成單元。類特征生成單元利用以類語(yǔ)義嵌入為條件的類內(nèi)方差信息生成位置特征,前景特征生成單元和背景特征生成單元將IoU方差加入到類特征生成單元的結(jié)果中,分別得到指定類前景與背景特征。在公共數(shù)據(jù)集上的評(píng)估表明這篇論文提出的GTNet優(yōu)于當(dāng)前最佳的零樣本目標(biāo)檢測(cè)方法。
為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國(guó)內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。
我們希望熱愛學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。
加入論文作者團(tuán)隊(duì)你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會(huì)門票福利、獨(dú)家周邊紀(jì)念品等等等。
加入論文作者團(tuán)隊(duì)你需要:
1.將你喜歡的論文推薦給廣大的研習(xí)社社友
2.撰寫論文解讀
如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營(yíng)小姐姐的微信,備注“論文兼職作者”
相關(guān)文章:
今日 Paper | 可視問答模型;神經(jīng)風(fēng)格差異轉(zhuǎn)移;圖像壓縮系統(tǒng) ;K-SVD圖像去噪等
今日 Paper | 依賴性解析器;DNNs對(duì)圖像損壞;高效人臉特征學(xué)習(xí) ;虛擬試穿統(tǒng)一框架等
今日 Paper | 模態(tài)平衡模型;組合語(yǔ)義分析;高表達(dá)性SQL查詢;多人姿態(tài)估計(jì)模型等
今日 Paper | 多人姿勢(shì)估計(jì);對(duì)話框語(yǔ)義分析;無監(jiān)督語(yǔ)義分析;自然語(yǔ)言處理工具包等
今日 Paper | 多人線性模型;身體捕捉;會(huì)話問答;自然語(yǔ)言解析;神經(jīng)語(yǔ)義
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 動(dòng)態(tài)手勢(shì)識(shí)別;領(lǐng)域獨(dú)立無監(jiān)督學(xué)習(xí);基于BERT的在線金融文本情感分析等
今日 Paper | 新聞推薦系統(tǒng);多路編碼;知識(shí)增強(qiáng)型預(yù)訓(xùn)練模型等
今日 Paper | 小樣本學(xué)習(xí);視覺情感分類;神經(jīng)架構(gòu)搜索;自然圖像摳像等
今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等
今日 Paper | 人臉數(shù)據(jù)隱私;神經(jīng)符號(hào)推理;深度學(xué)習(xí)聊天機(jī)器人等
今日 Paper | 虛擬試穿網(wǎng)絡(luò);人群計(jì)數(shù)基準(zhǔn);聯(lián)邦元學(xué)習(xí);目標(biāo)檢測(cè)等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 隨機(jī)微分方程;流式自動(dòng)語(yǔ)音識(shí)別;圖像分類等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 3D手勢(shì)估計(jì);自學(xué)習(xí)機(jī)器人;魯棒語(yǔ)義分割;卷積神經(jīng)網(wǎng)絡(luò);混合高斯過程等
今日 Paper | 精簡(jiǎn)BERT;面部交換;三維點(diǎn)云;DeepFakes 及 5G 等
今日 Paper | 虛假新聞檢測(cè);馬爾可夫決策過程;場(chǎng)景文本識(shí)別;博弈論框架等
今日 Paper | 問答系統(tǒng);3D人體形狀和姿勢(shì);面部偽造檢測(cè);AdderNet等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。