丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
國(guó)際 正文
發(fā)私信給Misty
發(fā)送

1

ICML神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)日程表(周二)

本文作者: Misty 2016-06-20 16:13
導(dǎo)語(yǔ):關(guān)于神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí),ICML大會(huì)上到底會(huì)講些什么,雷鋒網(wǎng)與你分享。

神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)

大會(huì)主席:Hal Daume III

地點(diǎn): Ballroom 1+2+Juliard

10:30– 強(qiáng)類型遞歸神經(jīng)網(wǎng)絡(luò) Strongly-Typed Recurrent Neural Network)  

             David Balduzzi、 Muhammad Ghifary 惠靈頓維多利亞大學(xué)

10:47– 源代碼極端總結(jié)卷積關(guān)注網(wǎng)絡(luò) (A Convolutional Attention Network for Extreme Summarization of Source Code)

               Miltiadis Allamanis 愛丁堡大學(xué);Hao Peng 北京大學(xué)

11:04– 問我任何事:自然語(yǔ)言程序動(dòng)態(tài)記憶網(wǎng)絡(luò)(Ask Me Anything: Dynamic Memory Networks for Natural Language Processing )

              Ankit Kumar、 Ozan Irsoy 、 Peter Ondruska、 Mohit Iyyer 、James Bradbury、 Ishaan Gulrajani、Victor Zhong、Romain Paulus   MetaMind公司

11:40– 視覺動(dòng)態(tài)記憶網(wǎng)絡(luò)和文字問題問答(Dynamic Memory Networks for Visual and Textual Question Answering)  

            Caiming Xiong、Stephen Merity MetaMind公司

11:57– 使用LSTM地區(qū)嵌入的監(jiān)督和半監(jiān)督文字分類 (Supervised and Semi-Supervised Text Categorization using LSTM for Region Embeddings)

            Rie Johnson RJ調(diào)查咨詢公司

12:14– PHOG:代碼概率模型 (PHOG: Probabilistic Model for Code)

             Pavol Bielik、Veselin Raychev、Martin Vechev  蘇黎世聯(lián)邦理工學(xué)院

增強(qiáng)式學(xué)習(xí)

會(huì)議主席: Tom Erez

地點(diǎn): Ballroom 3+4

 10:30 –  關(guān)于 蒙特卡洛樹搜索復(fù)雜支撐戰(zhàn)略的分析(On the Analysis of Complex Backup Strategies in Monte Carlo Tree Search) 

             Piyush Khandelwal、Elad Liebman 、Peter Stone U 德克薩斯大學(xué)奧斯汀分校

10:47 –  隨機(jī)化價(jià)值功能歸納和探索 (Generalization and Exploration via Randomized Value Functions ) 

            Ian Osband 、 Benjamin Van Roy 斯坦福大學(xué);Zheng Wen Adobe 研究所

11:04 – 增強(qiáng)式學(xué)習(xí)價(jià)值評(píng)估策略  (Doubly Robust Off-policy Value Evaluation for Reinforcement Learning) 

            Nan Jiang密歇根大學(xué); Lihong Li 微軟

11:40 – 通過近似狀態(tài)抽象的最優(yōu)行為(Near Optimal Behavior via Approximate State Abstraction)

            David Abel 、 David Hershkowitz、 Michael Littman 布朗大學(xué)

11:57 –  增強(qiáng)式學(xué)習(xí)自由模式軌道優(yōu)化 (Model-Free Trajectory Optimization\\ for Reinforcement Learning )

              Riad Akrour 、 Gerhard Neumann 、 Hany Abdulsamad、Abbas Abdolmaleki 達(dá)姆施塔特工業(yè)大學(xué)

12:14 –  政策優(yōu)化自由模式限制學(xué)習(xí)(Model-Free Imitation Learning with Policy Optimization) 

             Jonathan Ho 、Jayesh Gupta、 Stefano Ermon 斯坦福大學(xué)

會(huì)議主席:Lihong Li

地點(diǎn): Marquis

03:40 – 指導(dǎo)成本學(xué)習(xí): 通過策略最優(yōu)化的深度逆向優(yōu)化控制(Guided Cost Learning: Deep Inverse Optimal Control via Policy Optimization)

            Chelsea Finn、 Sergey Levine 、Pieter Abbeel  加州大學(xué)伯克利分校

03:57 –  在線后果預(yù)測(cè)的模仿學(xué)習(xí) (Smooth Imitation Learning for Online Sequence Prediction)                Hoang Le、Andrew Kang、 Andrew Kang , Yisong Yue 加州理工學(xué)院

04:14 –  基于模型積累的連續(xù)深度Q-Learning(Continuous Deep Q-Learning with Model-based Acceleration) 

             Shixiang Gu劍橋大學(xué); Timothy Lillicrap Google DeepMind; Ilya Sutskever OpenAI; Sergey Levine 谷歌

04:31 –  深度增強(qiáng)式學(xué)習(xí)的異步方法 (Asynchronous Methods for Deep Reinforcement Learning)              Volodymyr Mnih Google、Adria Puigdomenech Badia、Mehdi Mirza、Alex Graves 、Timothy Lillicrap、Tim Harley、David , Koray Kavukcuoglu 谷歌Deepmind

會(huì)議主席: Tom Erez

地點(diǎn) : Marquis

05:10 –  通過高斯近似原理預(yù)測(cè)最大期待價(jià)值(Estimating Maximum Expected Value through Gaussian Approximation) 

            Carlo D’Eramo、 Marcello Restelli、 Alessandro Nuara 米蘭理工大學(xué)

05:27 – 增強(qiáng)式學(xué)習(xí)數(shù)據(jù)效率政策評(píng)估 (Data-Efficient Off-Policy Policy Evaluation for Reinforcement Learning)

             Philip Thomas 、 Emma卡內(nèi)基梅隆大學(xué)

05:44 – 積累前景理論遇上增強(qiáng)式學(xué)習(xí):預(yù)測(cè)和控制 (Cumulative Prospect Theory Meets Reinforcement Learning: Prediction and Control )

             Prashanth L.A、Cheng Jie, Michael Fu 、Steve Marcus馬里蘭大學(xué)

06:01 – Softened Approximate Policy Iteration for Markov Games Maekov(對(duì)策軟化近似戰(zhàn)略迭代)Julien Pérolat、Bilal Piot 、Matthieu Geist 、Bruno Scherrer 、Olivier Pietquin里爾大學(xué)

組合最優(yōu)化

會(huì)議主席: Andreas Krause

地點(diǎn): Marquis

10:30 – 子模塊功能概率的算法優(yōu)化(Algorithms for Optimizing the Ratio of Submodular Functions ) 

            Wenruo Bai、Rishabh Iyer、Kai Wei、Jeff Bilmes 華盛頓大學(xué)

10:47 – 水平擴(kuò)展子模塊最大化(Horizontally Scalable Submodular Maximization)

             Mario Lucic 、Olivier Bachem 蘇黎世理工學(xué)院;Morteza Zadimoghaddam 、Andreas Krause 谷歌研究院

11:04 –  通過兩層子模塊最大化學(xué)習(xí)稀疏組合代表(Learning Sparse Combinatorial Representations via Two-stage Submodular Maximization)

             Eric Balkanski 、Baharan Mirzasoleiman、Andreas Krause 、Yaron Singer 蘇黎世理工學(xué)院

11:40 – 速度限制子模塊最大化:個(gè)性化數(shù)據(jù)總結(jié)(Fast Constrained Submodular Maximization: Personalized Data Summarization )

             Baharan Mirzasoleiman蘇黎世理工學(xué)院; Ashwinkumar Badanidiyuru 谷歌研究院; Amin Karbasi 耶魯大學(xué)

11:57 – 困難排列問題的簡(jiǎn)單界約束解決方案(A Box-Constrained Approach for Hard Permutation Problems )

            Cong Han Lim 、Madison、Steve Wright 威斯康辛大學(xué)

12:14 – 多序列比對(duì)和模體識(shí)別的凸面原子解決方案(A Convex Atomic-Norm Approach to Multiple Sequence Alignment and Motif Discovery)

             Ian En-Hsu Yen 、Xin Lin 、Jiong Zhang 、Pradeep Ravikumar 特克薩斯大學(xué)奧斯丁分校

無(wú)監(jiān)督學(xué)習(xí)/表征學(xué)

 會(huì)議主席: Jennifer Dy

 地點(diǎn): Lyceum

10:30 – 非參數(shù)標(biāo)準(zhǔn)相關(guān)分析(Nonparametric Canonical Correlation Analysis)

             Tomer Michaeli 以色列理工學(xué)院; Weiran Wang 、 Karen Livescu TTI Chicago

10:47 – 信息篩The Information Sieve)

           Greg Ver Steeg、Aram Galstyan 信息科技研究所

11:04 – 核心和距離矩陣平均值 (Gromov-Wasserstein Averaging of Kernel and Distance Matrices Gromov-Wasserstein

            Gabriel Peyré、Justin Solomon 京都Marco Cuturi

11:40 – 反事實(shí)推理的學(xué)習(xí)代表 Learning Representations for Counterfactual Inference)

            Fredrik Johansson哥德堡科技大學(xué);Uri Shalit 、David Sontag 紐約大學(xué)

11:57 – 為什么正規(guī)化自動(dòng)編碼器學(xué)習(xí)稀疏表示?  (Why Regularized Auto-Encoders learn Sparse Representation?為什么正規(guī)化自動(dòng)編碼器學(xué)習(xí)稀疏表示?) 

           Devansh Arpit 、Yingbo Zhou、Hung Ngo、Venu Govindaraju 紐約州立大學(xué)

12:14 – 隨機(jī)森林砍伐的數(shù)據(jù)流異常檢測(cè)(Robust Random Cut Forest Based Anomaly Detection on Streams) 

            Sudipto Guha 賓夕法尼亞大學(xué); Nina Mishra、Gourav Roy Amazon、Okke Schrijvers 斯坦福大學(xué)

分樣/內(nèi)核方法

會(huì)議主席: Marius Kloft

地點(diǎn): Empire

10:30 – 受限玻爾茲曼機(jī)和朋友的混合交替吉布斯采樣法(Mixing Rates for the Alternating Gibbs Sampler over Restricted Boltzmann Machines and Friends ) 

             Christopher Tosh 加州大學(xué)圣地亞哥分校

10:47 – 柔軟拒絕采樣 (Pliable Rejection Sampling)

            Akram Erraqabi Inria、 Michal Valko、Alexandra Carpentier 、Odalric Maillard 歐洲北部里爾

11:04 – 內(nèi)核擬合優(yōu)化檢驗(yàn)(A Kernel Test of Goodness of Fit)

             Kacper Chwialkowski 、Heiko Strathman、 Arthur Gretton、 Gatsby 倫敦大學(xué)學(xué)院

11:40 – 擬合優(yōu)度檢驗(yàn)的Kernelized Stein差異(A Kernelized Stein Discrepancy for Goodness-of-fit Tests ) 

            Qiang Liu 、Jason Lee、 Michael 加州大學(xué)伯克利分校

11:57 – 通過SALSA的高維非參數(shù)回歸添加劑近似(Additive Approximations in High Dimensional Nonparametric Regression via the SALSA)

            Kirthevasan Kandasamy、 Yaoliang Yu卡內(nèi)基梅隆大學(xué)

12:14 – 雙非參數(shù)張量分解回歸(Doubly Decomposing Nonparametric Tensor Regression)

            Masaaki Imaizumi、Kohei Hayashi 東京大學(xué)

稀疏和壓縮傳感

大會(huì)主席:Gal Chechik

地點(diǎn): Soho

10:30 – 數(shù)據(jù)缺失子空間聚類的信息理論要求(The Information-Theoretic Requirements of Subspace Clustering with Missing Data)

            Daniel Pimentel-Alarcon 、Robert Nowak 麥迪遜大學(xué)

10:47 – 穩(wěn)健的邊信息主成分分析(Robust Principal Component Analysis with Side Information)

            Kai-Yang Chiang德州大學(xué)奧斯丁分校; Cho-Jui Hsieh加州大學(xué)戴維斯分校

11:04 – 通過基礎(chǔ)字典追蹤的在線低秩子空間聚類(Online Low-Rank Subspace Clustering by Basis Dictionary Pursuit)

            Jie Shen、Ping Li、Huan Xu 羅格斯大學(xué)

11:40 – 可證明的非凸和離群值相位檢索:中位數(shù)TruncatedWirtinger流(Provable Non-convex Phase Retrieval with Outliers: Median TruncatedWirtinger Flow)

            Huishuai Zhan、Yingbin Liang 雪城大學(xué); Yuejie Chi 俄亥俄州立大學(xué)

11:57 – 估算結(jié)構(gòu)向量自回歸模型(Estimating Structured Vector Autoregressive Models)

            Igor Melnyk、Arindam Banerjee 明尼蘇達(dá)州

12:14 – 關(guān)于低質(zhì)矩陣估計(jì)更快的效率和Oracle財(cái)產(chǎn) (Towards Faster Rates and Oracle Property for Low-Rank Matrix Estimati)

             Huan Gui、Jiawei Han 伊利諾伊大學(xué)

近似推理

會(huì)議主席: Jon Mcauliffe

地點(diǎn): Liberty

10:30 –分層變分模型(Hierarchical Variational Models)

           Rajesh Ranganath , Dustin Tran 、Blei David 哥倫比亞大學(xué)

10:47 – 變分分析隨機(jī)梯度算法(A Variational Analysis of Stochastic Gradient Algorithms)

             Stephan Mandt、Blei David哥倫比亞大學(xué);Matthew Hoffman Adobe研究所

11:04 – 黑盒α差異最小化 (Black-Box Alpha Divergence Minimization)

            Jose miguel Hernandez-Lobato , Yingzhen Li、 Mark Rowland、Thang Bui、Daniel Hernandez-Lobato 、Richard Turner 劍橋大學(xué)

11:40 – 蒙特卡羅目標(biāo)變分推理(Variational Inference for Monte Carlo Objectives)

            Andriy Mnih , Danilo Rezende 谷歌 DeepMind

11:57 – 作為貝葉斯估計(jì)的Dropout:代表深度學(xué)習(xí)模塊的不確定性(Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning) 

             Yarin Gal 劍橋大學(xué)

12:14 – 輔助深度生成模型 (Auxiliary Deep Generative Models)

             Lars Maal?e、Ole Winther 丹麥技術(shù)大學(xué), Casper Kaae S?nderby 、S?ren Kaae S?nderby 哥本哈根大學(xué)

神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)I

會(huì)議主席: Nicolas Le Roux

地點(diǎn): Ballroom 1+2+Juliard

03:40 – 序列學(xué)習(xí)因式分解函數(shù)信念網(wǎng)絡(luò)(Factored Temporal Sigmoid Belief Networks for Sequence Learning)

           Jiaming Song清華大學(xué); Zhe Gan、Lawrence Carin 杜克大學(xué)

03:57 – 雙向亥姆霍茲?rùn)C(jī)器(Bidirectional Helmholtz Machines)

            Jorg Bornschein、Samira Shabanian 、Asja Fischer 、Yoshua Bengio 蒙特利爾大學(xué)

04:14 – 結(jié)構(gòu)化和有效的變分矩陣高斯后驗(yàn)深度學(xué)習(xí)(Structured and Efficient Variational Deep Learning with Matrix Gaussian Posteriors )

            Christos Louizos、Max Welling 阿姆斯特丹大學(xué)

04:31 – Dropout蒸餾(Dropout distillation)

             Samuel Rota Bulò FBK, Lorenzo Porzi FBK, Peter Kontschieder 劍橋微軟研究院

 會(huì)議主席: Yoshua Bengio

 地點(diǎn): Ballroom 1+2+Juliard

05:10 – 整流器網(wǎng)絡(luò)的表達(dá)(Expressiveness of Rectifier Network)

            Xingyuan Pan、Vivek Srikumar 猶他大學(xué)

05:27 – 卷積整流器網(wǎng)絡(luò)廣義張量分解(Convolutional Rectifier Networks as Generalized Tensor Decompositions)

            Nadav Cohen、Amnon Shashua Mobileye耶路撒冷希伯來(lái)大學(xué)

05:44 – 深度卷積網(wǎng)絡(luò)的點(diǎn)定量化(Fixed Point Quantization of Deep Convolutional Networks)

            Darryl Lin、Sachin Talathi 高通研究所;Sreekanth Annapureddy NetraDyne公司

06:01 –  CryptoNets::將神經(jīng)網(wǎng)絡(luò)運(yùn)用于高生產(chǎn)量和準(zhǔn)確度的加密數(shù)據(jù)(CryptoNets: Applying Neural Networks to Encrypted Data with High Throughput and Accuracy ) 

              Ran Gilad-Bachrach、Nathan Dowlin Princeton、Kim Laine、Kristin Lauter、Michael Naehrig 、John Wernsing 微軟研究所

神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)II

會(huì)議主席: Alexandru Niculescu-Mizil

地點(diǎn): Ballroom 3+4

03:40 – 圖形嵌入半監(jiān)督學(xué)習(xí)回顧(Revisiting Semi-Supervised Learning with Graph Embeddings )             Zhilin Yang、William Cohen卡耐基梅隆大學(xué)Ruslan Salakhudinov 多倫多大學(xué)

03:57 –  ADIOS: 輸出空間架構(gòu)深度(ADIOS: Architectures Deep In Output Space)

             Moustapha Cisse 、 Maruan Al-Shedivat卡耐基梅隆大學(xué); Samy Bengio 谷歌

04:14 – 深度嵌入的無(wú)監(jiān)督聚類分析(Unsupervised Deep Embedding for Clustering Analysis)

            Junyuan Xie、Ali Farhadi 華盛頓大學(xué); Ross Girshick Facebook;

04:31 – 卷積神經(jīng)網(wǎng)絡(luò)圖學(xué)習(xí)(Learning Convolutional Neural Networks for Graphs)

             Mathias Niepert 、Mohamed Ahmed ;Konstantin Kutzkov NEC 歐洲實(shí)驗(yàn)室

會(huì)議主席: David Sontag

地點(diǎn): Ballroom 3+4

05:10 –  多因子神經(jīng)關(guān)注糾正預(yù)測(cè)(Correcting Forecasts with Multifactor Neural Attention )

             Matthew Riemer、 Aditya Vempaty、Flavio Calmon、Fenno Heath、Richard Hull、Elham Khabiri IBM

05:27 – 神經(jīng)網(wǎng)絡(luò)元學(xué)習(xí)(Meta-Learning with Memory-Augmented Neural Networks Memory-Augmented)

            Adam Santoro、Matthew Botvinick 、Daan Wierstra、Timothy Lillicrap 谷歌DeepMind Sergey Bartunov 高級(jí)經(jīng)濟(jì)學(xué)院

05:44 – 簡(jiǎn)單算法的示例學(xué)習(xí)(Learning Simple Algorithms from Examples) 

            Wojciech Zaremba , Tomas , Armand Joulin , Rob Fergus Facebook AI研究所

06:01 – 長(zhǎng)短期記憶聯(lián)想(Associative Long Short-Term Memory) 

             Ivo Danihelka 、Greg Wayne 、Benigno Uria 、 Nal Kalchbrenner 、Alex Graves 谷歌DeepMind

Via:ICML@NYC

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章

編輯

歡迎合作,歡迎來(lái)撩。 微信號(hào):Misty_Yoong
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說