0
本文作者: AI研習(xí)社 | 2020-01-16 14:22 |
為了幫助各位學(xué)術(shù)青年更好地學(xué)習(xí)前沿研究成果和技術(shù),AI 研習(xí)社重磅推出【今日 Paper】欄目, 每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你學(xué)習(xí)參考。以下是今日的精選內(nèi)容——
提高有噪聲情況下的語音識別準(zhǔn)確率——而且用常見工具就可以
基于對偶圖注意力網(wǎng)絡(luò)多方面社交影響的推薦系統(tǒng)
想研究蚊子、阻止瘧疾,你需要一個蚊子叫聲數(shù)據(jù)集
用于類遞增目標(biāo)檢測的交叉數(shù)據(jù)集訓(xùn)練
卷積均值:一種簡單的用于照度估計(jì)的卷積神經(jīng)網(wǎng)絡(luò)
論文名稱:Improved Robust ASR for Social Robots in Public Spaces
作者:Charles Jankowski /Vishwas Mruthyunjaya /Ruixi Lin
發(fā)表時間:2020/1/14
論文鏈接:https://paper.yanxishe.com/review/8973?from=leiphonecolumn_paperreview0116
推薦原因:帶有社交功能的、仿人類外型的機(jī)器人如今越來越多出現(xiàn)在酒店、銀行、展廳等場合,大家也很喜歡和它們聊天。不過,這種公共、開放場景中的自動語音識別(ASR)仍然是有一定難度的,尤其是環(huán)境噪音?,F(xiàn)有的ASR模型通常在噪音較小、說話人聲音信噪比較高的情況下有不錯的表現(xiàn),但一旦噪音增大,模型的表現(xiàn)就會有顯著下降。
這篇論文重點(diǎn)針對的就是有噪聲的環(huán)境下的ASR。作者們在AiShell-1中文語音數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),不僅在噪聲較高的情況下獲得了新的最好成績,同時也表明了用很容易找到的開源的工具包+幾百個小時的訓(xùn)練數(shù)據(jù)就可以獲得相對高的準(zhǔn)確率。這個結(jié)果對其他的開發(fā)者、初學(xué)者也很有借鑒意義。
論文名稱:Dual Graph Attention Networks for Deep Latent Representation of Multifaceted Social Effects in Recommender Systems
作者:Wu Qitian /Zhang Hengrui /Gao Xiaofeng /He Peng /Weng Paul /Gao Han /Chen Guihai
發(fā)表時間:2019/3/25
論文鏈接:https://paper.yanxishe.com/review/8984?from=leiphonecolumn_paperreview0116
推薦原因:圖神經(jīng)網(wǎng)絡(luò)已經(jīng)取得了巨大的成功現(xiàn)在很多領(lǐng)域得到了應(yīng)用。作為與圖最相關(guān)的推薦,很多工作也嘗試引入GNN來更好的學(xué)習(xí)節(jié)點(diǎn)表示。本文算是比較早的引入GNN來進(jìn)行推薦的論文,發(fā)表在WWW2019上。作者探索了社交影響中在user-item二部圖上影響,總共定義了4種社交影響,在通過GNN學(xué)習(xí)到表示之后,作者利用了強(qiáng)化學(xué)習(xí)技術(shù)來實(shí)現(xiàn)動態(tài)融合。實(shí)驗(yàn)結(jié)果驗(yàn)證了本文算法的有效性。
論文名稱:HumBug Zooniverse: a crowd-sourced acoustic mosquito dataset
作者:Ivan Kiskin /Adam D. Cobb /Lawrence Wang /Stephen Roberts
發(fā)表時間:2020/1/14
論文鏈接:https://paper.yanxishe.com/review/8954?from=leiphonecolumn_paperreview0116
推薦原因:深度學(xué)習(xí)的應(yīng)用越來越廣,尤其是研究生物的人開始用上深度學(xué)習(xí)之后,我們就開始看到一些好笑的、出人意料的研究和數(shù)據(jù)集。
前不久四川瀕危野生動物保護(hù)國家重點(diǎn)實(shí)驗(yàn)室 - 成都大熊貓繁育研究基地剛剛發(fā)布了一個大熊貓聲音的數(shù)據(jù)集,今天我們又看到了一個蚊子聲音的數(shù)據(jù)集。沒錯,就是那個會叮人、會傳播疾病的蚊子的數(shù)據(jù)集。
這些來自牛津大學(xué)的研究人員的收集了超過19萬段2秒長的蚊子錄音并進(jìn)行了標(biāo)注,其中大約有10%的數(shù)據(jù)樣本對應(yīng)了蚊子的某種行為。他們希望這個數(shù)據(jù)集可以幫助更好地研究蚊子的分布和行為,他們也在論文中提供了用CNN進(jìn)行分類的樣例。
這個論文還是 2019 NeurIPS ML4D workshop 的最佳論文獎得主。ML4D workshop 的主旨就是利用機(jī)器學(xué)習(xí)技術(shù)幫助發(fā)展中國家,這篇論文研究的蚊子正是發(fā)展中國家中尚未完全得到控制的瘧疾的重要傳染途徑,和workshop的目標(biāo)非常吻合,也有開拓和啟發(fā)意義,得到這個最佳論文獎可謂恰如其分。
論文名稱:Cross-dataset Training for Class Increasing Object Detection
作者:Yao Yongqiang /Wang Yan /Guo Yu /Lin Jiaojiao /Qin Hongwei /Yan Junjie
發(fā)表時間:2020/1/14
論文鏈接:https://paper.yanxishe.com/review/8985?from=leiphonecolumn_paperreview0116
推薦原因:這篇論文考慮的是跨數(shù)據(jù)集訓(xùn)練的目標(biāo)分類任務(wù)。
給定不同的數(shù)據(jù)集,跨數(shù)據(jù)集訓(xùn)練的目標(biāo)是檢測不同類別的并集,而不需要為所有數(shù)據(jù)集標(biāo)記所有類別。通過這種方式,可以利用現(xiàn)有的數(shù)據(jù)集來訓(xùn)練模型,然后應(yīng)用于合并之后的數(shù)據(jù)集,并且避免了在新數(shù)據(jù)集上進(jìn)行標(biāo)記。這篇論文在PASCAL VOC、 COCO、 WIDER FACE和WIDER Pedestrian這些數(shù)據(jù)集上實(shí)驗(yàn)了單數(shù)據(jù)集和跨數(shù)據(jù)集這兩種訓(xùn)練模式。實(shí)驗(yàn)結(jié)果表明與獨(dú)立訓(xùn)練相比,這篇論文提出的跨數(shù)據(jù)集訓(xùn)練框架可以同時在這些數(shù)據(jù)集上實(shí)現(xiàn)類似的性能表現(xiàn)。
論文名稱:Convolutional Mean: A Simple Convolutional Neural Network for Illuminant Estimation
作者:Gong Han
發(fā)表時間:2020/1/14
論文鏈接:https://paper.yanxishe.com/review/8986?from=leiphonecolumn_paperreview0116
推薦原因:這篇論文提出了一種名為卷積均值的用于照度估計(jì)的卷積神經(jīng)網(wǎng)絡(luò)。
這種卷積均值方法只要求一個包含大約1100參數(shù)量的小網(wǎng)絡(luò)模型,以及一個48x32的縮略輸入圖。該方法在沒有優(yōu)化的Python實(shí)現(xiàn)中處理速度是1毫秒1張圖片,并且在保持相同準(zhǔn)確率的前提下,遠(yuǎn)遠(yuǎn)快于當(dāng)前的其他方案。在兩個公共數(shù)據(jù)集上的實(shí)驗(yàn)也表明了這種方法在多個度量上的準(zhǔn)確性可與當(dāng)前的最優(yōu)算法相媲美。
為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過論文整理推薦、點(diǎn)評解讀、代碼復(fù)現(xiàn)。致力成為國內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。
我們希望熱愛學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。
入論文作者團(tuán)隊(duì)你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會門票福利、獨(dú)家周邊紀(jì)念品等等等。
加入論文作者團(tuán)隊(duì)你需要:
1.將你喜歡的論文推薦給廣大的研習(xí)社社友
2.撰寫論文解讀
如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營小姐姐的微,備注“論文兼職作者”
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 人臉數(shù)據(jù)隱私;神經(jīng)符號推理;深度學(xué)習(xí)聊天機(jī)器人等
今日 Paper | 虛擬試穿網(wǎng)絡(luò);人群計(jì)數(shù)基準(zhǔn);聯(lián)邦元學(xué)習(xí);目標(biāo)檢測等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 隨機(jī)微分方程;流式自動語音識別;圖像分類等
今日 Paper | 高維感官空間機(jī)器人;主動人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識別等
今日 Paper | 3D手勢估計(jì);自學(xué)習(xí)機(jī)器人;魯棒語義分割;卷積神經(jīng)網(wǎng)絡(luò);混合高斯過程等
今日 Paper | 精簡BERT;面部交換;三維點(diǎn)云;DeepFakes 及 5G 等
今日 Paper | 虛假新聞檢測;馬爾可夫決策過程;場景文本識別;博弈論框架等
今日 Paper | 問答系統(tǒng);3D人體形狀和姿勢;面部偽造檢測;AdderNet等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。