1
本文作者: Misty | 2016-06-20 16:13 |
大會(huì)主席:Hal Daume III
地點(diǎn): Ballroom 1+2+Juliard
10:30– 強(qiáng)類型遞歸神經(jīng)網(wǎng)絡(luò) (Strongly-Typed Recurrent Neural Network)
David Balduzzi、 Muhammad Ghifary 惠靈頓維多利亞大學(xué)
10:47– 源代碼極端總結(jié)卷積關(guān)注網(wǎng)絡(luò) (A Convolutional Attention Network for Extreme Summarization of Source Code)
Miltiadis Allamanis 愛丁堡大學(xué);Hao Peng 北京大學(xué)
11:04– 問我任何事:自然語(yǔ)言程序動(dòng)態(tài)記憶網(wǎng)絡(luò)(Ask Me Anything: Dynamic Memory Networks for Natural Language Processing )
Ankit Kumar、 Ozan Irsoy 、 Peter Ondruska、 Mohit Iyyer 、James Bradbury、 Ishaan Gulrajani、Victor Zhong、Romain Paulus MetaMind公司
11:40– 視覺動(dòng)態(tài)記憶網(wǎng)絡(luò)和文字問題問答(Dynamic Memory Networks for Visual and Textual Question Answering)
Caiming Xiong、Stephen Merity MetaMind公司
11:57– 使用LSTM地區(qū)嵌入的監(jiān)督和半監(jiān)督文字分類 (Supervised and Semi-Supervised Text Categorization using LSTM for Region Embeddings)
Rie Johnson RJ調(diào)查咨詢公司
12:14– PHOG:代碼概率模型 (PHOG: Probabilistic Model for Code)
Pavol Bielik、Veselin Raychev、Martin Vechev 蘇黎世聯(lián)邦理工學(xué)院
增強(qiáng)式學(xué)習(xí)
會(huì)議主席: Tom Erez
地點(diǎn): Ballroom 3+4
10:30 – 關(guān)于 蒙特卡洛樹搜索復(fù)雜支撐戰(zhàn)略的分析(On the Analysis of Complex Backup Strategies in Monte Carlo Tree Search)
Piyush Khandelwal、Elad Liebman 、Peter Stone U 德克薩斯大學(xué)奧斯汀分校
10:47 – 隨機(jī)化價(jià)值功能歸納和探索 (Generalization and Exploration via Randomized Value Functions )
Ian Osband 、 Benjamin Van Roy 斯坦福大學(xué);Zheng Wen Adobe 研究所
11:04 – 增強(qiáng)式學(xué)習(xí)價(jià)值評(píng)估策略 (Doubly Robust Off-policy Value Evaluation for Reinforcement Learning)
Nan Jiang密歇根大學(xué); Lihong Li 微軟
11:40 – 通過近似狀態(tài)抽象的最優(yōu)行為(Near Optimal Behavior via Approximate State Abstraction)
David Abel 、 David Hershkowitz、 Michael Littman 布朗大學(xué)
11:57 – 增強(qiáng)式學(xué)習(xí)自由模式軌道優(yōu)化 (Model-Free Trajectory Optimization\\ for Reinforcement Learning )
Riad Akrour 、 Gerhard Neumann 、 Hany Abdulsamad、Abbas Abdolmaleki 達(dá)姆施塔特工業(yè)大學(xué)
12:14 – 政策優(yōu)化自由模式限制學(xué)習(xí)(Model-Free Imitation Learning with Policy Optimization)
Jonathan Ho 、Jayesh Gupta、 Stefano Ermon 斯坦福大學(xué)
會(huì)議主席:Lihong Li
地點(diǎn): Marquis
03:40 – 指導(dǎo)成本學(xué)習(xí): 通過策略最優(yōu)化的深度逆向優(yōu)化控制(Guided Cost Learning: Deep Inverse Optimal Control via Policy Optimization)
Chelsea Finn、 Sergey Levine 、Pieter Abbeel 加州大學(xué)伯克利分校
03:57 – 在線后果預(yù)測(cè)的模仿學(xué)習(xí) (Smooth Imitation Learning for Online Sequence Prediction) Hoang Le、Andrew Kang、 Andrew Kang , Yisong Yue 加州理工學(xué)院
04:14 – 基于模型積累的連續(xù)深度Q-Learning(Continuous Deep Q-Learning with Model-based Acceleration)
Shixiang Gu劍橋大學(xué); Timothy Lillicrap Google DeepMind; Ilya Sutskever OpenAI; Sergey Levine 谷歌
04:31 – 深度增強(qiáng)式學(xué)習(xí)的異步方法 (Asynchronous Methods for Deep Reinforcement Learning) Volodymyr Mnih Google、Adria Puigdomenech Badia、Mehdi Mirza、Alex Graves 、Timothy Lillicrap、Tim Harley、David , Koray Kavukcuoglu 谷歌Deepmind
會(huì)議主席: Tom Erez
地點(diǎn) : Marquis
05:10 – 通過高斯近似原理預(yù)測(cè)最大期待價(jià)值(Estimating Maximum Expected Value through Gaussian Approximation)
Carlo D’Eramo、 Marcello Restelli、 Alessandro Nuara 米蘭理工大學(xué)
05:27 – 增強(qiáng)式學(xué)習(xí)數(shù)據(jù)效率政策評(píng)估 (Data-Efficient Off-Policy Policy Evaluation for Reinforcement Learning)
Philip Thomas 、 Emma卡內(nèi)基梅隆大學(xué)
05:44 – 積累前景理論遇上增強(qiáng)式學(xué)習(xí):預(yù)測(cè)和控制 (Cumulative Prospect Theory Meets Reinforcement Learning: Prediction and Control )
Prashanth L.A、Cheng Jie, Michael Fu 、Steve Marcus馬里蘭大學(xué)
06:01 – Softened Approximate Policy Iteration for Markov Games Maekov(對(duì)策軟化近似戰(zhàn)略迭代)Julien Pérolat、Bilal Piot 、Matthieu Geist 、Bruno Scherrer 、Olivier Pietquin里爾大學(xué)
組合最優(yōu)化
會(huì)議主席: Andreas Krause
地點(diǎn): Marquis
10:30 – 子模塊功能概率的算法優(yōu)化(Algorithms for Optimizing the Ratio of Submodular Functions )
Wenruo Bai、Rishabh Iyer、Kai Wei、Jeff Bilmes 華盛頓大學(xué)
10:47 – 水平擴(kuò)展子模塊最大化(Horizontally Scalable Submodular Maximization)
Mario Lucic 、Olivier Bachem 蘇黎世理工學(xué)院;Morteza Zadimoghaddam 、Andreas Krause 谷歌研究院
11:04 – 通過兩層子模塊最大化學(xué)習(xí)稀疏組合代表(Learning Sparse Combinatorial Representations via Two-stage Submodular Maximization)
Eric Balkanski 、Baharan Mirzasoleiman、Andreas Krause 、Yaron Singer 蘇黎世理工學(xué)院
11:40 – 速度限制子模塊最大化:個(gè)性化數(shù)據(jù)總結(jié)(Fast Constrained Submodular Maximization: Personalized Data Summarization )
Baharan Mirzasoleiman蘇黎世理工學(xué)院; Ashwinkumar Badanidiyuru 谷歌研究院; Amin Karbasi 耶魯大學(xué)
11:57 – 困難排列問題的簡(jiǎn)單界約束解決方案(A Box-Constrained Approach for Hard Permutation Problems )
Cong Han Lim 、Madison、Steve Wright 威斯康辛大學(xué)
12:14 – 多序列比對(duì)和模體識(shí)別的凸面原子解決方案(A Convex Atomic-Norm Approach to Multiple Sequence Alignment and Motif Discovery)
Ian En-Hsu Yen 、Xin Lin 、Jiong Zhang 、Pradeep Ravikumar 特克薩斯大學(xué)奧斯丁分校
會(huì)議主席: Jennifer Dy
地點(diǎn): Lyceum
10:30 – 非參數(shù)標(biāo)準(zhǔn)相關(guān)分析(Nonparametric Canonical Correlation Analysis)
Tomer Michaeli 以色列理工學(xué)院; Weiran Wang 、 Karen Livescu TTI Chicago
10:47 – 信息篩(The Information Sieve)
Greg Ver Steeg、Aram Galstyan 信息科技研究所
11:04 – 核心和距離矩陣平均值 (Gromov-Wasserstein Averaging of Kernel and Distance Matrices Gromov-Wasserstein)
Gabriel Peyré、Justin Solomon 京都Marco Cuturi
11:40 – 反事實(shí)推理的學(xué)習(xí)代表( Learning Representations for Counterfactual Inference)
Fredrik Johansson哥德堡科技大學(xué);Uri Shalit 、David Sontag 紐約大學(xué)
11:57 – 為什么正規(guī)化自動(dòng)編碼器學(xué)習(xí)稀疏表示? (Why Regularized Auto-Encoders learn Sparse Representation?為什么正規(guī)化自動(dòng)編碼器學(xué)習(xí)稀疏表示?)
Devansh Arpit 、Yingbo Zhou、Hung Ngo、Venu Govindaraju 紐約州立大學(xué)
12:14 – 隨機(jī)森林砍伐的數(shù)據(jù)流異常檢測(cè)(Robust Random Cut Forest Based Anomaly Detection on Streams)
Sudipto Guha 賓夕法尼亞大學(xué); Nina Mishra、Gourav Roy Amazon、Okke Schrijvers 斯坦福大學(xué)
會(huì)議主席: Marius Kloft
地點(diǎn): Empire
10:30 – 受限玻爾茲曼機(jī)和朋友的混合交替吉布斯采樣法(Mixing Rates for the Alternating Gibbs Sampler over Restricted Boltzmann Machines and Friends )
Christopher Tosh 加州大學(xué)圣地亞哥分校
10:47 – 柔軟拒絕采樣 (Pliable Rejection Sampling)
Akram Erraqabi Inria、 Michal Valko、Alexandra Carpentier 、Odalric Maillard 歐洲北部里爾
11:04 – 內(nèi)核擬合優(yōu)化檢驗(yàn)(A Kernel Test of Goodness of Fit)
Kacper Chwialkowski 、Heiko Strathman、 Arthur Gretton、 Gatsby 倫敦大學(xué)學(xué)院
11:40 – 擬合優(yōu)度檢驗(yàn)的Kernelized Stein差異(A Kernelized Stein Discrepancy for Goodness-of-fit Tests )
Qiang Liu 、Jason Lee、 Michael 加州大學(xué)伯克利分校
11:57 – 通過SALSA的高維非參數(shù)回歸添加劑近似(Additive Approximations in High Dimensional Nonparametric Regression via the SALSA)
Kirthevasan Kandasamy、 Yaoliang Yu卡內(nèi)基梅隆大學(xué)
12:14 – 雙非參數(shù)張量分解回歸(Doubly Decomposing Nonparametric Tensor Regression)
Masaaki Imaizumi、Kohei Hayashi 東京大學(xué)
大會(huì)主席:Gal Chechik
地點(diǎn): Soho
10:30 – 數(shù)據(jù)缺失子空間聚類的信息理論要求(The Information-Theoretic Requirements of Subspace Clustering with Missing Data)
Daniel Pimentel-Alarcon 、Robert Nowak 麥迪遜大學(xué)
10:47 – 穩(wěn)健的邊信息主成分分析(Robust Principal Component Analysis with Side Information)
Kai-Yang Chiang德州大學(xué)奧斯丁分校; Cho-Jui Hsieh加州大學(xué)戴維斯分校
11:04 – 通過基礎(chǔ)字典追蹤的在線低秩子空間聚類(Online Low-Rank Subspace Clustering by Basis Dictionary Pursuit)
Jie Shen、Ping Li、Huan Xu 羅格斯大學(xué)
11:40 – 可證明的非凸和離群值相位檢索:中位數(shù)TruncatedWirtinger流(Provable Non-convex Phase Retrieval with Outliers: Median TruncatedWirtinger Flow)
Huishuai Zhan、Yingbin Liang 雪城大學(xué); Yuejie Chi 俄亥俄州立大學(xué)
11:57 – 估算結(jié)構(gòu)向量自回歸模型(Estimating Structured Vector Autoregressive Models)
Igor Melnyk、Arindam Banerjee 明尼蘇達(dá)州
12:14 – 關(guān)于低質(zhì)矩陣估計(jì)更快的效率和Oracle財(cái)產(chǎn) (Towards Faster Rates and Oracle Property for Low-Rank Matrix Estimati)
Huan Gui、Jiawei Han 伊利諾伊大學(xué)
會(huì)議主席: Jon Mcauliffe
地點(diǎn): Liberty
10:30 –分層變分模型(Hierarchical Variational Models)
Rajesh Ranganath , Dustin Tran 、Blei David 哥倫比亞大學(xué)
10:47 – 變分分析隨機(jī)梯度算法(A Variational Analysis of Stochastic Gradient Algorithms)
Stephan Mandt、Blei David哥倫比亞大學(xué);Matthew Hoffman Adobe研究所
11:04 – 黑盒α差異最小化 (Black-Box Alpha Divergence Minimization)
Jose miguel Hernandez-Lobato , Yingzhen Li、 Mark Rowland、Thang Bui、Daniel Hernandez-Lobato 、Richard Turner 劍橋大學(xué)
11:40 – 蒙特卡羅目標(biāo)變分推理(Variational Inference for Monte Carlo Objectives)
Andriy Mnih , Danilo Rezende 谷歌 DeepMind
11:57 – 作為貝葉斯估計(jì)的Dropout:代表深度學(xué)習(xí)模塊的不確定性(Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning) 作
Yarin Gal 劍橋大學(xué)
12:14 – 輔助深度生成模型 (Auxiliary Deep Generative Models)
Lars Maal?e、Ole Winther 丹麥技術(shù)大學(xué), Casper Kaae S?nderby 、S?ren Kaae S?nderby 哥本哈根大學(xué)
地點(diǎn): Ballroom 1+2+Juliard
03:40 – 序列學(xué)習(xí)因式分解函數(shù)信念網(wǎng)絡(luò)(Factored Temporal Sigmoid Belief Networks for Sequence Learning)
Jiaming Song清華大學(xué); Zhe Gan、Lawrence Carin 杜克大學(xué)
03:57 – 雙向亥姆霍茲?rùn)C(jī)器(Bidirectional Helmholtz Machines)
Jorg Bornschein、Samira Shabanian 、Asja Fischer 、Yoshua Bengio 蒙特利爾大學(xué)
04:14 – 結(jié)構(gòu)化和有效的變分矩陣高斯后驗(yàn)深度學(xué)習(xí)(Structured and Efficient Variational Deep Learning with Matrix Gaussian Posteriors )
Christos Louizos、Max Welling 阿姆斯特丹大學(xué)
04:31 – Dropout蒸餾(Dropout distillation)
Samuel Rota Bulò FBK, Lorenzo Porzi FBK, Peter Kontschieder 劍橋微軟研究院
會(huì)議主席: Yoshua Bengio
地點(diǎn): Ballroom 1+2+Juliard
05:10 – 整流器網(wǎng)絡(luò)的表達(dá)(Expressiveness of Rectifier Network)
Xingyuan Pan、Vivek Srikumar 猶他大學(xué)
05:27 – 卷積整流器網(wǎng)絡(luò)廣義張量分解(Convolutional Rectifier Networks as Generalized Tensor Decompositions)
Nadav Cohen、Amnon Shashua Mobileye耶路撒冷希伯來(lái)大學(xué)
05:44 – 深度卷積網(wǎng)絡(luò)的點(diǎn)定量化(Fixed Point Quantization of Deep Convolutional Networks)
Darryl Lin、Sachin Talathi 高通研究所;Sreekanth Annapureddy NetraDyne公司
06:01 – CryptoNets::將神經(jīng)網(wǎng)絡(luò)運(yùn)用于高生產(chǎn)量和準(zhǔn)確度的加密數(shù)據(jù)(CryptoNets: Applying Neural Networks to Encrypted Data with High Throughput and Accuracy )
Ran Gilad-Bachrach、Nathan Dowlin Princeton、Kim Laine、Kristin Lauter、Michael Naehrig 、John Wernsing 微軟研究所
會(huì)議主席: Alexandru Niculescu-Mizil
地點(diǎn): Ballroom 3+4
03:40 – 圖形嵌入半監(jiān)督學(xué)習(xí)回顧(Revisiting Semi-Supervised Learning with Graph Embeddings ) Zhilin Yang、William Cohen卡耐基梅隆大學(xué)Ruslan Salakhudinov 多倫多大學(xué)
03:57 – ADIOS: 輸出空間架構(gòu)深度(ADIOS: Architectures Deep In Output Space)
Moustapha Cisse 、 Maruan Al-Shedivat卡耐基梅隆大學(xué); Samy Bengio 谷歌
04:14 – 深度嵌入的無(wú)監(jiān)督聚類分析(Unsupervised Deep Embedding for Clustering Analysis)
Junyuan Xie、Ali Farhadi 華盛頓大學(xué); Ross Girshick Facebook;
04:31 – 卷積神經(jīng)網(wǎng)絡(luò)圖學(xué)習(xí)(Learning Convolutional Neural Networks for Graphs)
Mathias Niepert 、Mohamed Ahmed ;Konstantin Kutzkov NEC 歐洲實(shí)驗(yàn)室
會(huì)議主席: David Sontag
地點(diǎn): Ballroom 3+4
05:10 – 多因子神經(jīng)關(guān)注糾正預(yù)測(cè)(Correcting Forecasts with Multifactor Neural Attention )
Matthew Riemer、 Aditya Vempaty、Flavio Calmon、Fenno Heath、Richard Hull、Elham Khabiri IBM
05:27 – 神經(jīng)網(wǎng)絡(luò)元學(xué)習(xí)(Meta-Learning with Memory-Augmented Neural Networks Memory-Augmented)
Adam Santoro、Matthew Botvinick 、Daan Wierstra、Timothy Lillicrap 谷歌DeepMind Sergey Bartunov 高級(jí)經(jīng)濟(jì)學(xué)院
05:44 – 簡(jiǎn)單算法的示例學(xué)習(xí)(Learning Simple Algorithms from Examples)
Wojciech Zaremba , Tomas , Armand Joulin , Rob Fergus Facebook AI研究所
06:01 – 長(zhǎng)短期記憶聯(lián)想(Associative Long Short-Term Memory)
Ivo Danihelka 、Greg Wayne 、Benigno Uria 、 Nal Kalchbrenner 、Alex Graves 谷歌DeepMind
Via:ICML@NYC
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。