0
本文作者: AI研習(xí)社 | 2020-02-05 15:04 |
對話到行動:大型知識庫的會話問答
從用戶反饋學(xué)習(xí)的自然語言解析
神經(jīng)語義的數(shù)據(jù)重組模型
SMPL-X: 表現(xiàn)力身體捕捉: 從一個單一的形象獲取手,臉,和身體
SMPL: 一個蒙皮的多人線性模型
論文名稱:Dialog-to-Action: ConversationalQuestion Answering Over a Large-Scale Knowledge Base
作者:DayaGuo /DuyuTang /NanDuan /MingZhou /JianYin
發(fā)表時間:2018/9/13
論文鏈接:https://paper.yanxishe.com/review/9232
推薦原因:核心問題:本文構(gòu)建了一個對話管理系統(tǒng),是一個基于知識圖譜的問答系統(tǒng)。
創(chuàng)新點:對話管理中的一個核心就是語義解析,本文提出了一種將自然語言轉(zhuǎn)成邏輯表達形式的方法,引入了一個對話框內(nèi)存管理組件,該組件在為當(dāng)前對話生成邏輯表單時利用歷史實體、謂詞和操作子序列。為了避免訓(xùn)練期間在大規(guī)模知識庫上重復(fù)執(zhí)行的耗時情況,提前進行廣度優(yōu)先搜索算法,以獲得能夠產(chǎn)生正確答案的話語對及其動作序列,通過最大化產(chǎn)生預(yù)期動作序列的可能性來學(xué)習(xí)該模型。它可以很好的解決上下指代以及外來詞的情況
研究意義:這種模型和其它的模型比較有很大的優(yōu)勢,取得了很好的效果,這里給我的啟發(fā)還有一點就是要融入更多的信息來做下游的任務(wù)。
論文名稱:Learning a Neural Semantic Parser from User Feedback
作者:SrinivasanIyer /IoannisKonstas /AlvinCheung
發(fā)表時間:2017/4/27
論文鏈接:https://paper.yanxishe.com/review/9231
推薦原因
核心問題:這篇論文是做語義解析的,核心是將自然語言轉(zhuǎn)成計算機可以理解并執(zhí)行的SQL語言的生成
創(chuàng)新點:本論文提出了一種快速而容易地為新域構(gòu)建數(shù)據(jù)庫自然語言接口的方法,搭建了一個端到端的神經(jīng)序列模型,將自然語言直接轉(zhuǎn)換為SQL表示。然后將模型進行在線學(xué)習(xí),通過線上部署,從而直接獲取到用戶的反饋,之后使用這個反饋來改善模型的效果
研究意義:實驗表明,這種方法可以快速部署到任何一個新的目標(biāo)域,比如從頭開始為在線學(xué)術(shù)數(shù)據(jù)庫獲取語義解析器。
論文名稱:Data Recombination for Neural Semantic Parsing
作者:Robin Jia /Percy Liang
發(fā)表時間:2016/6/11
論文鏈接:https://paper.yanxishe.com/review/9230
推薦原因
核心問題:這是一篇做語義解析的任務(wù),這也是nlp領(lǐng)域中最重要的領(lǐng)域之一,如何理解一句話,從而完成下游的任務(wù)是解決問題的關(guān)鍵所在。
創(chuàng)新點:這篇論文中作者提出了一種新的框架模型,為了建立清晰的邏輯規(guī)則,它將先驗知識注入到模型中,從而得到高精度的語義表示,然后促進下游任務(wù),下游是一個通用模型,基于注意力的復(fù)制機制的RNN模型。
研究意義:數(shù)據(jù)重組提高了作者的RNN模型在三個語義分析數(shù)據(jù)集上的準(zhǔn)確性,從而使具有可比監(jiān)督的模型在標(biāo)準(zhǔn)GeoQuery數(shù)據(jù)集上獲得了最新的性能。
論文名稱:Expressive Body Capture: 3D Hands, Face, and Body from a Single Image
作者:Pavlakos Georgios /Choutas Vasileios /Ghorbani Nima /Bolkart Timo /Osman Ahmed A. A. /Tzionas Dimitrios /Black Michael J.
發(fā)表時間:2019/4/11
論文鏈接:https://paper.yanxishe.com/review/9227
推薦原因
SMPL-X: 從單個單眼圖像中計算出人體姿勢,手勢和面部表情的3D模型。該模型可以通過完整細節(jié)的手和表情豐富的面孔來擴展SMPL。
該論文通過以下幾種重要方式對SMPLify進行了改進:
該論文檢測與臉部,手部和腳部相對應(yīng)的2D特征,并將完整的SMPL-X模型擬合到這些特征上;
該論文使用大型MoCap數(shù)據(jù)集訓(xùn)練新的神經(jīng)網(wǎng)絡(luò)姿態(tài);
該論文定義了一種既快速又準(zhǔn)確的互穿罰分;
該論文自動檢測性別和適當(dāng)?shù)纳眢w模型(男性,女性或中性);
評估了一個新的策劃數(shù)據(jù)集的3D準(zhǔn)確性
https://smpl-x.is.tue.mpg.de上獲取模型,代碼和數(shù)據(jù)以用于研究。
論文名稱:SMPL: A Skinned Multi-Person Linear Model
作者:Matthew Loper /Naureen Mahmood /Javier Romero /Gerard Pons-Moll /Michael J. Black
發(fā)表時間:2015/10/1
論文鏈接:https://paper.yanxishe.com/review/9226
推薦原因
提出了一種新的人體形狀和位置相關(guān)形狀變化的學(xué)習(xí)模型,該模型比以前的模型更精確,并且與現(xiàn)有的圖形管道兼容。蒙皮多人線性模型(SMPL)是一種基于蒙皮頂點的模型,它可以準(zhǔn)確地表示人體自然姿態(tài)中的各種體型。模型的參數(shù)從數(shù)據(jù)中學(xué)習(xí),包括rest位姿模板、混合權(quán)重、位置相關(guān)混合形狀、身份相關(guān)混合形狀和從頂點到關(guān)節(jié)位置的回歸器。與以往的模型不同,與位置相關(guān)的混合形狀是位姿旋轉(zhuǎn)矩陣元素的線性函數(shù)。這個簡單的公式使訓(xùn)練整個模型從一個相對較大的不同的人在不同的姿勢對齊的3D網(wǎng)格。使用線性或雙四元數(shù)混合皮膚定量評估SMPL的變體,并表明兩者都比基于相同數(shù)據(jù)的BlendSCAPE模型更準(zhǔn)確。還將SMPL擴展到動態(tài)軟組織變形的真實模型中。因為它是基于混合皮膚的,所以SMPL與現(xiàn)有的渲染引擎兼容,可以將其用于研究目的。
SMPL是當(dāng)前3D建模的非?;鸬捻椖?,很多研究都基于此技術(shù)。
并且還開發(fā)出了SMPL-X(主要優(yōu)化了面部的建模),SMPL-H(優(yōu)化了手的細節(jié)建模), SMPLify(2D照片的固定POSE建模) 等幾個版本。
源碼需要注冊下載。
官網(wǎng):https://smpl.is.tue.mpg.de/
為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點」,通過論文整理推薦、點評解讀、代碼復(fù)現(xiàn)。致力成為國內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。
我們希望熱愛學(xué)術(shù)的你,可以加入我們的論文作者團隊。
加入論文作者團隊你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會門票福利、獨家周邊紀(jì)念品等等等。
加入論文作者團隊你需要:
1.將你喜歡的論文推薦給廣大的研習(xí)社社友
2.撰寫論文解讀
如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團隊,可以添加運營小姐姐的微信,備注“論文兼職作者”
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計;圖像到圖像變換等
今日 Paper | 動態(tài)手勢識別;領(lǐng)域獨立無監(jiān)督學(xué)習(xí);基于BERT的在線金融文本情感分析等
今日 Paper | 新聞推薦系統(tǒng);多路編碼;知識增強型預(yù)訓(xùn)練模型等
今日 Paper | 小樣本學(xué)習(xí);視覺情感分類;神經(jīng)架構(gòu)搜索;自然圖像摳像等
今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語音識別準(zhǔn)確率;對偶注意力推薦系統(tǒng)等
今日 Paper | 人臉數(shù)據(jù)隱私;神經(jīng)符號推理;深度學(xué)習(xí)聊天機器人等
今日 Paper | 虛擬試穿網(wǎng)絡(luò);人群計數(shù)基準(zhǔn);聯(lián)邦元學(xué)習(xí);目標(biāo)檢測等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 隨機微分方程;流式自動語音識別;圖像分類等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 3D手勢估計;自學(xué)習(xí)機器人;魯棒語義分割;卷積神經(jīng)網(wǎng)絡(luò);混合高斯過程等
今日 Paper | 精簡BERT;面部交換;三維點云;DeepFakes 及 5G 等
今日 Paper | 虛假新聞檢測;馬爾可夫決策過程;場景文本識別;博弈論框架等
今日 Paper | 問答系統(tǒng);3D人體形狀和姿勢;面部偽造檢測;AdderNet等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。