丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能學術 正文
發(fā)私信給AI研習社
發(fā)送

0

今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等

本文作者: AI研習社 2020-01-16 14:22
導語:每天都為你精選關于人工智能的前沿學術論文供你學習參考。

為了幫助各位學術青年更好地學習前沿研究成果和技術,AI 研習社重磅推出【今日 Paper】欄目, 每天都為你精選關于人工智能的前沿學術論文供你學習參考。以下是今日的精選內容——

  目錄

  • 提高有噪聲情況下的語音識別準確率——而且用常見工具就可以

  • 基于對偶圖注意力網絡多方面社交影響的推薦系統(tǒng)

  • 想研究蚊子、阻止瘧疾,你需要一個蚊子叫聲數(shù)據集

  • 用于類遞增目標檢測的交叉數(shù)據集訓練

  • 卷積均值:一種簡單的用于照度估計的卷積神經網絡


  提高有噪聲情況下的語音識別準確率——而且用常見工具就可以

論文名稱:Improved Robust ASR for Social Robots in Public Spaces

作者:Charles Jankowski /Vishwas Mruthyunjaya /Ruixi Lin

發(fā)表時間:2020/1/14

論文鏈接:https://paper.yanxishe.com/review/8973?from=leiphonecolumn_paperreview0116

推薦原因:帶有社交功能的、仿人類外型的機器人如今越來越多出現(xiàn)在酒店、銀行、展廳等場合,大家也很喜歡和它們聊天。不過,這種公共、開放場景中的自動語音識別(ASR)仍然是有一定難度的,尤其是環(huán)境噪音?,F(xiàn)有的ASR模型通常在噪音較小、說話人聲音信噪比較高的情況下有不錯的表現(xiàn),但一旦噪音增大,模型的表現(xiàn)就會有顯著下降。

這篇論文重點針對的就是有噪聲的環(huán)境下的ASR。作者們在AiShell-1中文語音數(shù)據集上進行了實驗,不僅在噪聲較高的情況下獲得了新的最好成績,同時也表明了用很容易找到的開源的工具包+幾百個小時的訓練數(shù)據就可以獲得相對高的準確率。這個結果對其他的開發(fā)者、初學者也很有借鑒意義。

今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等

  基于對偶圖注意力網絡多方面社交影響的推薦系統(tǒng)

論文名稱:Dual Graph Attention Networks for Deep Latent Representation of Multifaceted Social Effects in Recommender Systems

作者:Wu Qitian /Zhang Hengrui /Gao Xiaofeng /He Peng /Weng Paul /Gao Han /Chen Guihai

發(fā)表時間:2019/3/25

論文鏈接:https://paper.yanxishe.com/review/8984?from=leiphonecolumn_paperreview0116

推薦原因:圖神經網絡已經取得了巨大的成功現(xiàn)在很多領域得到了應用。作為與圖最相關的推薦,很多工作也嘗試引入GNN來更好的學習節(jié)點表示。本文算是比較早的引入GNN來進行推薦的論文,發(fā)表在WWW2019上。作者探索了社交影響中在user-item二部圖上影響,總共定義了4種社交影響,在通過GNN學習到表示之后,作者利用了強化學習技術來實現(xiàn)動態(tài)融合。實驗結果驗證了本文算法的有效性。

今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等
今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等

  想研究蚊子、阻止瘧疾,你需要一個蚊子叫聲數(shù)據集

論文名稱:HumBug Zooniverse: a crowd-sourced acoustic mosquito dataset

作者:Ivan Kiskin /Adam D. Cobb /Lawrence Wang /Stephen Roberts

發(fā)表時間:2020/1/14

論文鏈接:https://paper.yanxishe.com/review/8954?from=leiphonecolumn_paperreview0116

推薦原因:深度學習的應用越來越廣,尤其是研究生物的人開始用上深度學習之后,我們就開始看到一些好笑的、出人意料的研究和數(shù)據集。

前不久四川瀕危野生動物保護國家重點實驗室 - 成都大熊貓繁育研究基地剛剛發(fā)布了一個大熊貓聲音的數(shù)據集,今天我們又看到了一個蚊子聲音的數(shù)據集。沒錯,就是那個會叮人、會傳播疾病的蚊子的數(shù)據集。

這些來自牛津大學的研究人員的收集了超過19萬段2秒長的蚊子錄音并進行了標注,其中大約有10%的數(shù)據樣本對應了蚊子的某種行為。他們希望這個數(shù)據集可以幫助更好地研究蚊子的分布和行為,他們也在論文中提供了用CNN進行分類的樣例。

這個論文還是 2019 NeurIPS ML4D workshop 的最佳論文獎得主。ML4D workshop 的主旨就是利用機器學習技術幫助發(fā)展中國家,這篇論文研究的蚊子正是發(fā)展中國家中尚未完全得到控制的瘧疾的重要傳染途徑,和workshop的目標非常吻合,也有開拓和啟發(fā)意義,得到這個最佳論文獎可謂恰如其分。

今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等
今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等

  用于類遞增目標檢測的交叉數(shù)據集訓練

論文名稱:Cross-dataset Training for Class Increasing Object Detection

作者:Yao Yongqiang /Wang Yan /Guo Yu /Lin Jiaojiao /Qin Hongwei /Yan Junjie

發(fā)表時間:2020/1/14

論文鏈接:https://paper.yanxishe.com/review/8985?from=leiphonecolumn_paperreview0116

推薦原因:這篇論文考慮的是跨數(shù)據集訓練的目標分類任務。

給定不同的數(shù)據集,跨數(shù)據集訓練的目標是檢測不同類別的并集,而不需要為所有數(shù)據集標記所有類別。通過這種方式,可以利用現(xiàn)有的數(shù)據集來訓練模型,然后應用于合并之后的數(shù)據集,并且避免了在新數(shù)據集上進行標記。這篇論文在PASCAL VOC、 COCO、 WIDER FACE和WIDER Pedestrian這些數(shù)據集上實驗了單數(shù)據集和跨數(shù)據集這兩種訓練模式。實驗結果表明與獨立訓練相比,這篇論文提出的跨數(shù)據集訓練框架可以同時在這些數(shù)據集上實現(xiàn)類似的性能表現(xiàn)。

今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等
今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等
今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等

  卷積均值:一種簡單的用于照度估計的卷積神經網絡

論文名稱:Convolutional Mean: A Simple Convolutional Neural Network for Illuminant Estimation

作者:Gong Han

發(fā)表時間:2020/1/14

論文鏈接:https://paper.yanxishe.com/review/8986?from=leiphonecolumn_paperreview0116

推薦原因:這篇論文提出了一種名為卷積均值的用于照度估計的卷積神經網絡。

這種卷積均值方法只要求一個包含大約1100參數(shù)量的小網絡模型,以及一個48x32的縮略輸入圖。該方法在沒有優(yōu)化的Python實現(xiàn)中處理速度是1毫秒1張圖片,并且在保持相同準確率的前提下,遠遠快于當前的其他方案。在兩個公共數(shù)據集上的實驗也表明了這種方法在多個度量上的準確性可與當前的最優(yōu)算法相媲美。

今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等

  論文作者團隊招募

為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學生青年的「興趣點」,通過論文整理推薦、點評解讀、代碼復現(xiàn)。致力成為國內外前沿研究成果學習討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認可。

我們希望熱愛學術的你,可以加入我們的論文作者團隊。

入論文作者團隊你可以獲得

    1.署著你名字的文章,將你打造成最耀眼的學術明星

    2.豐厚的稿酬

    3.AI 名企內推、大會門票福利、獨家周邊紀念品等等等。

加入論文作者團隊你需要:

    1.將你喜歡的論文推薦給廣大的研習社社友

    2.撰寫論文解讀

如果你已經準備好加入 AI 研習社的論文兼職作者團隊,可以添加運營小姐姐的微,備注“論文兼職作者”


今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等

雷鋒網雷鋒網雷鋒網

相關文章:

今日 Paper | 人臉數(shù)據隱私;神經符號推理;深度學習聊天機器人等

今日 Paper | 虛擬試穿網絡;人群計數(shù)基準;聯(lián)邦元學習;目標檢測等

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

今日 Paper | 隨機微分方程;流式自動語音識別;圖像分類等

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

今日 Paper | 3D手勢估計;自學習機器人;魯棒語義分割;卷積神經網絡;混合高斯過程等

今日 Paper | 精簡BERT;面部交換;三維點云;DeepFakes 及 5G 等

今日 Paper | 虛假新聞檢測;馬爾可夫決策過程;場景文本識別;博弈論框架等

今日 Paper | 問答系統(tǒng);3D人體形狀和姿勢;面部偽造檢測;AdderNet等

雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。

今日 Paper | 蚊子叫聲數(shù)據集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等

分享:
相關文章

編輯

聚焦數(shù)據科學,連接 AI 開發(fā)者。更多精彩內容,請訪問:yanxishe.com
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說