丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等

本文作者: AI研習(xí)社 2020-02-19 15:34
導(dǎo)語(yǔ):為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊
今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等

  目錄

  • 用綜合方法預(yù)測(cè)2019-nCoV傳播的結(jié)束 

  • 通過(guò)被動(dòng)WiFi傳感和數(shù)據(jù)挖掘了解社會(huì)事件中的人群行為

  • 用于RGB-紅外行人重識(shí)別的交叉模態(tài)配對(duì)圖像生成

  • CTM:面向動(dòng)作識(shí)別的協(xié)同時(shí)態(tài)建模

  • Music2Dance:使用WaveNet的音樂(lè)驅(qū)動(dòng)的舞蹈生成

  用綜合方法預(yù)測(cè)2019-nCoV傳播的結(jié)束                     

論文名稱(chēng):Predictions of 2019-nCoV Transmission Ending via Comprehensive Methods

作者:Zeng Tianyu /Zhang Yunong /Li Zhenyu /Liu Xiao /Qiu Binbin

發(fā)表時(shí)間:2020/2/12

論文鏈接:https://paper.yanxishe.com/review/11431?from=leiphonecolumn_paperreview0219

推薦原因

這篇論文試圖預(yù)測(cè)新型冠狀病毒的傳播,提出了一種多模態(tài)常微分方程神經(jīng)網(wǎng)絡(luò)(Multi-Model Ordinary Differential Equation set Neural Network,MMODEs-NN)以及無(wú)模型方法,來(lái)預(yù)測(cè)疫情在中國(guó)大陸尤其是湖北省的擴(kuò)散情況。與現(xiàn)有流行病學(xué)模型相比,這篇論文提出的方法可以使用常微分方程激活法來(lái)模擬傳播,而基于S形函數(shù)、高斯函數(shù)和Poisson分布的無(wú)模型方法是線性的,因而非常高效。根據(jù)數(shù)值實(shí)驗(yàn)與實(shí)情,為了控制疫情擴(kuò)散的特別政策在一些省取得效果,目前預(yù)測(cè)這股疫情可能在2月18日之前減速并在2020年4月之前結(jié)束。這篇論文所提的數(shù)學(xué)和人工智能方法可以對(duì)2019-nCoV的結(jié)束給出一致且合理的預(yù)測(cè)。

今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等

  通過(guò)被動(dòng)WiFi傳感和數(shù)據(jù)挖掘了解社會(huì)事件中的人群行為                     

論文名稱(chēng):Understanding Crowd Behaviors in a Social Event by Passive WiFi Sensing and Data Mining

作者:Zhou Yuren /Lau Billy Pik Lik /Koh Zann /Yuen Chau /Ng Benny Kai Kiat

發(fā)表時(shí)間:2020/2/5

論文鏈接:https://paper.yanxishe.com/review/11308?from=leiphonecolumn_paperreview0219

推薦原因

這篇論文通過(guò)WiFi傳感數(shù)據(jù)進(jìn)行人群行為分析。

通過(guò)收集從移動(dòng)設(shè)備發(fā)送的WiFi請(qǐng)求,無(wú)源WiFi感測(cè)提供了一種比人群計(jì)數(shù)器和攝像機(jī)更好的監(jiān)控人群的方法。在現(xiàn)有研究中,對(duì)收集數(shù)據(jù)的全面分析和挖掘沒(méi)有給予足夠重視。這篇論文提出一個(gè)全面的數(shù)據(jù)分析框架,以在統(tǒng)計(jì)、可視化和無(wú)監(jiān)督機(jī)器學(xué)習(xí)幫助下,全面分析收集的探測(cè)請(qǐng)求,以提取與大型社交事件中的人群行為相關(guān)的三種類(lèi)型模式。這個(gè)分析框架首先從探測(cè)請(qǐng)求中提取移動(dòng)設(shè)備的軌跡并進(jìn)行分析,以揭示人群運(yùn)動(dòng)的空間模式。然后采用分層聚集聚類(lèi)法來(lái)查找不同位置之間的互連。接下來(lái)應(yīng)用K均值和K聚類(lèi)算法分別按天數(shù)和位置提取人群的時(shí)間訪問(wèn)模式。最后通過(guò)與時(shí)間結(jié)合,軌跡被轉(zhuǎn)換為時(shí)空模式,揭示了軌跡持續(xù)時(shí)間如何隨長(zhǎng)度變化,以及人群運(yùn)動(dòng)的總體趨勢(shì)如何隨時(shí)間變化。這個(gè)數(shù)據(jù)分析框架通過(guò)在大型社交事件中收集的真實(shí)數(shù)據(jù)進(jìn)行了驗(yàn)證。

今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等

  用于RGB-紅外行人重識(shí)別的交叉模態(tài)配對(duì)圖像生成

論文名稱(chēng):Cross-Modality Paired-Images Generation for RGB-Infrared Person Re-Identification

作者:Wang Guan-An /Yang Tianzhu Zhang. Yang /Cheng Jian /Chang Jianlong /Liang Xu /Hou Zengguang

發(fā)表時(shí)間:2020/2/10

論文鏈接:https://paper.yanxishe.com/review/11306?from=leiphonecolumn_paperreview0219

推薦原因

這篇論文要解決的是行人重識(shí)別問(wèn)題。

RGB和IR圖像之間缺少對(duì)應(yīng)標(biāo)簽,會(huì)導(dǎo)致某些實(shí)例的對(duì)齊錯(cuò)誤,從而限制RGB-IR Re-ID的性能。與現(xiàn)有方法不同,這篇論文提出生成跨模態(tài)配對(duì)圖像,并執(zhí)行全局集合級(jí)和細(xì)粒度實(shí)例級(jí)對(duì)齊。這種方法可以通過(guò)解開(kāi)特定于模態(tài)和模態(tài)不變的特征來(lái)執(zhí)行集合級(jí)對(duì)齊。與傳統(tǒng)方法相比,所提方法可以顯式刪除特定于模態(tài)的特征,并且可以更好地減少模態(tài)變化。給定一個(gè)人的跨模態(tài)不成對(duì)圖像,所提方法可以從交換的圖像生成跨模態(tài)成對(duì)圖像,通過(guò)最小化每對(duì)圖像的距離直接執(zhí)行實(shí)例級(jí)對(duì)齊。在兩個(gè)標(biāo)準(zhǔn)基準(zhǔn)上的大量實(shí)驗(yàn)結(jié)果表明,所提模型有利于抗衡當(dāng)前最佳方法,特別是在SYSU-MM01數(shù)據(jù)集上,所提模型在Rank-1和mAP方面可以實(shí)現(xiàn)9.2%和7.7%的提升。

今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等

  CTM:面向動(dòng)作識(shí)別的協(xié)同時(shí)態(tài)建模                     

論文名稱(chēng):CTM: Collaborative Temporal Modeling for Action Recognition

作者:Liu Qian /Wang Tao /Liu Jie /Guan Yang /Bu Qi /Yang Longfei

發(fā)表時(shí)間:2020/2/8

論文鏈接:https://paper.yanxishe.com/review/11182?from=leiphonecolumn_paperreview0219

推薦原因

這篇論文要解決的是動(dòng)作識(shí)別問(wèn)題。

與圖像識(shí)別任務(wù)不同,動(dòng)作識(shí)別任務(wù)對(duì)于時(shí)間維度的要求更高。為了學(xué)習(xí)到視頻的強(qiáng)大特征,這篇論文提出了一個(gè)名為CTM的協(xié)同時(shí)間模型來(lái)學(xué)習(xí)時(shí)間信息。CTM作為一個(gè)單獨(dú)的時(shí)間建模模塊,包括了兩條協(xié)作路徑:一個(gè)空間感知的時(shí)間建模路徑和一個(gè)無(wú)空間感知的時(shí)間建模路徑。CTM模型可以無(wú)縫地插入許多流行的神經(jīng)網(wǎng)絡(luò)模型中以生成CTM網(wǎng)絡(luò),可以將學(xué)習(xí)時(shí)間信息的能力帶給僅捕獲了空間信息的2D CNN骨干網(wǎng)絡(luò)中。在幾個(gè)流行的動(dòng)作識(shí)別數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明,CTM塊在2D CNN基線模型上帶來(lái)了性能提升。

今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等

  Music2Dance:使用WaveNet的音樂(lè)驅(qū)動(dòng)的舞蹈生成                     

論文名稱(chēng):Music2Dance: Music-driven Dance Generation using WaveNet

作者:Zhuang Wenlin /Wang Congyi /Xia Siyu /Chai Jinxiang /Wang Yangang

發(fā)表時(shí)間:2020/2/2

論文鏈接:https://paper.yanxishe.com/review/11181?from=leiphonecolumn_paperreview0219

推薦原因

這篇論文提出了一個(gè)名為Music2Dance的模型,用于解決全自動(dòng)音樂(lè)編排的問(wèn)題。

Music2Dance的主要思想是將最初為語(yǔ)音生成而設(shè)計(jì)的WaveNet轉(zhuǎn)變?yōu)槿梭w運(yùn)動(dòng)合成,首先通過(guò)考慮節(jié)奏和旋律的特征來(lái)提取音樂(lè)特征,接著將舞蹈的類(lèi)型設(shè)計(jì)為網(wǎng)絡(luò)的全局條件。為了解決數(shù)據(jù)缺乏的挑戰(zhàn),這篇論文收集捕捉了專(zhuān)業(yè)舞者同步的音樂(lè)舞蹈對(duì),從而建立了高質(zhì)量的音樂(lè)舞蹈對(duì)數(shù)據(jù)集。這個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)表明了Music2Dance的有效性。

今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等

  論文作者團(tuán)隊(duì)招募

為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過(guò)論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國(guó)內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。

我們希望熱愛(ài)學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。

加入論文作者團(tuán)隊(duì)你可以獲得

    1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星

    2.豐厚的稿酬

    3.AI 名企內(nèi)推、大會(huì)門(mén)票福利、獨(dú)家周邊紀(jì)念品等等等。

加入論文作者團(tuán)隊(duì)你需要:

    1.將你喜歡的論文推薦給廣大的研習(xí)社社友

    2.撰寫(xiě)論文解讀

如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營(yíng)小姐姐的微信,備注“論文兼職作者”

今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 社交媒體謠言檢測(cè);連續(xù)手語(yǔ)識(shí)別;細(xì)粒度服裝相似性學(xué)習(xí);混合圖神經(jīng)網(wǎng)絡(luò)等

今日 Paper | 旋轉(zhuǎn)不變混合圖形模型網(wǎng)絡(luò);人體移動(dòng)軌跡;行人再識(shí)別;基準(zhǔn)成像系統(tǒng)等

今日 Paper | 從純圖像重建世界;層次遞歸網(wǎng)絡(luò)序列;注意力神經(jīng)網(wǎng)絡(luò);命名實(shí)體識(shí)別等

今日 Paper | 梯度剪切;命名實(shí)體識(shí)別;自然語(yǔ)言處理;免強(qiáng)度函數(shù)學(xué)習(xí)等

今日 Paper | 小樣本學(xué)習(xí);機(jī)器學(xué)習(xí);單幅圖像去霧 ;零樣本目標(biāo)檢測(cè)等

今日 Paper | 可視問(wèn)答模型;神經(jīng)風(fēng)格差異轉(zhuǎn)移;圖像壓縮系統(tǒng) ;K-SVD圖像去噪等

今日 Paper | 依賴(lài)性解析器;DNNs對(duì)圖像損壞;高效人臉特征學(xué)習(xí) ;虛擬試穿統(tǒng)一框架等

今日 Paper | 模態(tài)平衡模型;組合語(yǔ)義分析;高表達(dá)性SQL查詢(xún);多人姿態(tài)估計(jì)模型等

今日 Paper | 多人姿勢(shì)估計(jì);對(duì)話框語(yǔ)義分析;無(wú)監(jiān)督語(yǔ)義分析;自然語(yǔ)言處理工具包等

今日 Paper | 多人線性模型;身體捕捉;會(huì)話問(wèn)答;自然語(yǔ)言解析;神經(jīng)語(yǔ)義

今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等

今日 Paper | 動(dòng)態(tài)手勢(shì)識(shí)別;領(lǐng)域獨(dú)立無(wú)監(jiān)督學(xué)習(xí);基于BERT的在線金融文本情感分析等

今日 Paper | 新聞推薦系統(tǒng);多路編碼;知識(shí)增強(qiáng)型預(yù)訓(xùn)練模型等

今日 Paper | 小樣本學(xué)習(xí);視覺(jué)情感分類(lèi);神經(jīng)架構(gòu)搜索;自然圖像摳像等

今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等

今日 Paper | 人臉數(shù)據(jù)隱私;神經(jīng)符號(hào)推理;深度學(xué)習(xí)聊天機(jī)器人等

今日 Paper | 虛擬試穿網(wǎng)絡(luò);人群計(jì)數(shù)基準(zhǔn);聯(lián)邦元學(xué)習(xí);目標(biāo)檢測(cè)等

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

今日 Paper | 隨機(jī)微分方程;流式自動(dòng)語(yǔ)音識(shí)別;圖像分類(lèi)等

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

今日 Paper | 2019-nCoV傳播預(yù)測(cè);行人重識(shí)別;協(xié)同時(shí)態(tài)建模;舞蹈生成等

分享:

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開(kāi)發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶(hù)安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)