丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
國際 正文
發(fā)私信給Misty
發(fā)送

1

ICML神經(jīng)網(wǎng)絡(luò)和深度學習日程表(周二)

本文作者: Misty 2016-06-20 16:13
導(dǎo)語:關(guān)于神經(jīng)網(wǎng)絡(luò)和深度學習,ICML大會上到底會講些什么,雷鋒網(wǎng)與你分享。

神經(jīng)網(wǎng)絡(luò)和深度學習

大會主席:Hal Daume III

地點: Ballroom 1+2+Juliard

10:30– 強類型遞歸神經(jīng)網(wǎng)絡(luò) Strongly-Typed Recurrent Neural Network)  

             David Balduzzi、 Muhammad Ghifary 惠靈頓維多利亞大學

10:47– 源代碼極端總結(jié)卷積關(guān)注網(wǎng)絡(luò) (A Convolutional Attention Network for Extreme Summarization of Source Code)

               Miltiadis Allamanis 愛丁堡大學;Hao Peng 北京大學

11:04– 問我任何事:自然語言程序動態(tài)記憶網(wǎng)絡(luò)(Ask Me Anything: Dynamic Memory Networks for Natural Language Processing )

              Ankit Kumar、 Ozan Irsoy 、 Peter Ondruska、 Mohit Iyyer 、James Bradbury、 Ishaan Gulrajani、Victor Zhong、Romain Paulus   MetaMind公司

11:40– 視覺動態(tài)記憶網(wǎng)絡(luò)和文字問題問答(Dynamic Memory Networks for Visual and Textual Question Answering)  

            Caiming Xiong、Stephen Merity MetaMind公司

11:57– 使用LSTM地區(qū)嵌入的監(jiān)督和半監(jiān)督文字分類 (Supervised and Semi-Supervised Text Categorization using LSTM for Region Embeddings)

            Rie Johnson RJ調(diào)查咨詢公司

12:14– PHOG:代碼概率模型 (PHOG: Probabilistic Model for Code)

             Pavol Bielik、Veselin Raychev、Martin Vechev  蘇黎世聯(lián)邦理工學院

增強式學習

會議主席: Tom Erez

地點: Ballroom 3+4

 10:30 –  關(guān)于 蒙特卡洛樹搜索復(fù)雜支撐戰(zhàn)略的分析(On the Analysis of Complex Backup Strategies in Monte Carlo Tree Search) 

             Piyush Khandelwal、Elad Liebman 、Peter Stone U 德克薩斯大學奧斯汀分校

10:47 –  隨機化價值功能歸納和探索 (Generalization and Exploration via Randomized Value Functions ) 

            Ian Osband 、 Benjamin Van Roy 斯坦福大學;Zheng Wen Adobe 研究所

11:04 – 增強式學習價值評估策略  (Doubly Robust Off-policy Value Evaluation for Reinforcement Learning) 

            Nan Jiang密歇根大學; Lihong Li 微軟

11:40 – 通過近似狀態(tài)抽象的最優(yōu)行為(Near Optimal Behavior via Approximate State Abstraction)

            David Abel 、 David Hershkowitz、 Michael Littman 布朗大學

11:57 –  增強式學習自由模式軌道優(yōu)化 (Model-Free Trajectory Optimization\\ for Reinforcement Learning )

              Riad Akrour 、 Gerhard Neumann 、 Hany Abdulsamad、Abbas Abdolmaleki 達姆施塔特工業(yè)大學

12:14 –  政策優(yōu)化自由模式限制學習(Model-Free Imitation Learning with Policy Optimization) 

             Jonathan Ho 、Jayesh Gupta、 Stefano Ermon 斯坦福大學

會議主席:Lihong Li

地點: Marquis

03:40 – 指導(dǎo)成本學習: 通過策略最優(yōu)化的深度逆向優(yōu)化控制(Guided Cost Learning: Deep Inverse Optimal Control via Policy Optimization)

            Chelsea Finn、 Sergey Levine 、Pieter Abbeel  加州大學伯克利分校

03:57 –  在線后果預(yù)測的模仿學習 (Smooth Imitation Learning for Online Sequence Prediction)                Hoang Le、Andrew Kang、 Andrew Kang , Yisong Yue 加州理工學院

04:14 –  基于模型積累的連續(xù)深度Q-Learning(Continuous Deep Q-Learning with Model-based Acceleration) 

             Shixiang Gu劍橋大學; Timothy Lillicrap Google DeepMind; Ilya Sutskever OpenAI; Sergey Levine 谷歌

04:31 –  深度增強式學習的異步方法 (Asynchronous Methods for Deep Reinforcement Learning)              Volodymyr Mnih Google、Adria Puigdomenech Badia、Mehdi Mirza、Alex Graves 、Timothy Lillicrap、Tim Harley、David , Koray Kavukcuoglu 谷歌Deepmind

會議主席: Tom Erez

地點 : Marquis

05:10 –  通過高斯近似原理預(yù)測最大期待價值(Estimating Maximum Expected Value through Gaussian Approximation) 

            Carlo D’Eramo、 Marcello Restelli、 Alessandro Nuara 米蘭理工大學

05:27 – 增強式學習數(shù)據(jù)效率政策評估 (Data-Efficient Off-Policy Policy Evaluation for Reinforcement Learning)

             Philip Thomas 、 Emma卡內(nèi)基梅隆大學

05:44 – 積累前景理論遇上增強式學習:預(yù)測和控制 (Cumulative Prospect Theory Meets Reinforcement Learning: Prediction and Control )

             Prashanth L.A、Cheng Jie, Michael Fu 、Steve Marcus馬里蘭大學

06:01 – Softened Approximate Policy Iteration for Markov Games Maekov(對策軟化近似戰(zhàn)略迭代)Julien Pérolat、Bilal Piot 、Matthieu Geist 、Bruno Scherrer 、Olivier Pietquin里爾大學

組合最優(yōu)化

會議主席: Andreas Krause

地點: Marquis

10:30 – 子模塊功能概率的算法優(yōu)化(Algorithms for Optimizing the Ratio of Submodular Functions ) 

            Wenruo Bai、Rishabh Iyer、Kai Wei、Jeff Bilmes 華盛頓大學

10:47 – 水平擴展子模塊最大化(Horizontally Scalable Submodular Maximization)

             Mario Lucic 、Olivier Bachem 蘇黎世理工學院;Morteza Zadimoghaddam 、Andreas Krause 谷歌研究院

11:04 –  通過兩層子模塊最大化學習稀疏組合代表(Learning Sparse Combinatorial Representations via Two-stage Submodular Maximization)

             Eric Balkanski 、Baharan Mirzasoleiman、Andreas Krause 、Yaron Singer 蘇黎世理工學院

11:40 – 速度限制子模塊最大化:個性化數(shù)據(jù)總結(jié)(Fast Constrained Submodular Maximization: Personalized Data Summarization )

             Baharan Mirzasoleiman蘇黎世理工學院; Ashwinkumar Badanidiyuru 谷歌研究院; Amin Karbasi 耶魯大學

11:57 – 困難排列問題的簡單界約束解決方案(A Box-Constrained Approach for Hard Permutation Problems )

            Cong Han Lim 、Madison、Steve Wright 威斯康辛大學

12:14 – 多序列比對和模體識別的凸面原子解決方案(A Convex Atomic-Norm Approach to Multiple Sequence Alignment and Motif Discovery)

             Ian En-Hsu Yen 、Xin Lin 、Jiong Zhang 、Pradeep Ravikumar 特克薩斯大學奧斯丁分校

無監(jiān)督學習/表征學

 會議主席: Jennifer Dy

 地點: Lyceum

10:30 – 非參數(shù)標準相關(guān)分析(Nonparametric Canonical Correlation Analysis)

             Tomer Michaeli 以色列理工學院; Weiran Wang 、 Karen Livescu TTI Chicago

10:47 – 信息篩The Information Sieve)

           Greg Ver Steeg、Aram Galstyan 信息科技研究所

11:04 – 核心和距離矩陣平均值 (Gromov-Wasserstein Averaging of Kernel and Distance Matrices Gromov-Wasserstein

            Gabriel Peyré、Justin Solomon 京都Marco Cuturi

11:40 – 反事實推理的學習代表 Learning Representations for Counterfactual Inference)

            Fredrik Johansson哥德堡科技大學;Uri Shalit 、David Sontag 紐約大學

11:57 – 為什么正規(guī)化自動編碼器學習稀疏表示?  (Why Regularized Auto-Encoders learn Sparse Representation?為什么正規(guī)化自動編碼器學習稀疏表示?) 

           Devansh Arpit 、Yingbo Zhou、Hung Ngo、Venu Govindaraju 紐約州立大學

12:14 – 隨機森林砍伐的數(shù)據(jù)流異常檢測(Robust Random Cut Forest Based Anomaly Detection on Streams) 

            Sudipto Guha 賓夕法尼亞大學; Nina Mishra、Gourav Roy Amazon、Okke Schrijvers 斯坦福大學

分樣/內(nèi)核方法

會議主席: Marius Kloft

地點: Empire

10:30 – 受限玻爾茲曼機和朋友的混合交替吉布斯采樣法(Mixing Rates for the Alternating Gibbs Sampler over Restricted Boltzmann Machines and Friends ) 

             Christopher Tosh 加州大學圣地亞哥分校

10:47 – 柔軟拒絕采樣 (Pliable Rejection Sampling)

            Akram Erraqabi Inria、 Michal Valko、Alexandra Carpentier 、Odalric Maillard 歐洲北部里爾

11:04 – 內(nèi)核擬合優(yōu)化檢驗(A Kernel Test of Goodness of Fit)

             Kacper Chwialkowski 、Heiko Strathman、 Arthur Gretton、 Gatsby 倫敦大學學院

11:40 – 擬合優(yōu)度檢驗的Kernelized Stein差異(A Kernelized Stein Discrepancy for Goodness-of-fit Tests ) 

            Qiang Liu 、Jason Lee、 Michael 加州大學伯克利分校

11:57 – 通過SALSA的高維非參數(shù)回歸添加劑近似(Additive Approximations in High Dimensional Nonparametric Regression via the SALSA)

            Kirthevasan Kandasamy、 Yaoliang Yu卡內(nèi)基梅隆大學

12:14 – 雙非參數(shù)張量分解回歸(Doubly Decomposing Nonparametric Tensor Regression)

            Masaaki Imaizumi、Kohei Hayashi 東京大學

稀疏和壓縮傳感

大會主席:Gal Chechik

地點: Soho

10:30 – 數(shù)據(jù)缺失子空間聚類的信息理論要求(The Information-Theoretic Requirements of Subspace Clustering with Missing Data)

            Daniel Pimentel-Alarcon 、Robert Nowak 麥迪遜大學

10:47 – 穩(wěn)健的邊信息主成分分析(Robust Principal Component Analysis with Side Information)

            Kai-Yang Chiang德州大學奧斯丁分校; Cho-Jui Hsieh加州大學戴維斯分校

11:04 – 通過基礎(chǔ)字典追蹤的在線低秩子空間聚類(Online Low-Rank Subspace Clustering by Basis Dictionary Pursuit)

            Jie Shen、Ping Li、Huan Xu 羅格斯大學

11:40 – 可證明的非凸和離群值相位檢索:中位數(shù)TruncatedWirtinger流(Provable Non-convex Phase Retrieval with Outliers: Median TruncatedWirtinger Flow)

            Huishuai Zhan、Yingbin Liang 雪城大學; Yuejie Chi 俄亥俄州立大學

11:57 – 估算結(jié)構(gòu)向量自回歸模型(Estimating Structured Vector Autoregressive Models)

            Igor Melnyk、Arindam Banerjee 明尼蘇達州

12:14 – 關(guān)于低質(zhì)矩陣估計更快的效率和Oracle財產(chǎn) (Towards Faster Rates and Oracle Property for Low-Rank Matrix Estimati)

             Huan Gui、Jiawei Han 伊利諾伊大學

近似推理

會議主席: Jon Mcauliffe

地點: Liberty

10:30 –分層變分模型(Hierarchical Variational Models)

           Rajesh Ranganath , Dustin Tran 、Blei David 哥倫比亞大學

10:47 – 變分分析隨機梯度算法(A Variational Analysis of Stochastic Gradient Algorithms)

             Stephan Mandt、Blei David哥倫比亞大學;Matthew Hoffman Adobe研究所

11:04 – 黑盒α差異最小化 (Black-Box Alpha Divergence Minimization)

            Jose miguel Hernandez-Lobato , Yingzhen Li、 Mark Rowland、Thang Bui、Daniel Hernandez-Lobato 、Richard Turner 劍橋大學

11:40 – 蒙特卡羅目標變分推理(Variational Inference for Monte Carlo Objectives)

            Andriy Mnih , Danilo Rezende 谷歌 DeepMind

11:57 – 作為貝葉斯估計的Dropout:代表深度學習模塊的不確定性(Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning) 

             Yarin Gal 劍橋大學

12:14 – 輔助深度生成模型 (Auxiliary Deep Generative Models)

             Lars Maal?e、Ole Winther 丹麥技術(shù)大學, Casper Kaae S?nderby 、S?ren Kaae S?nderby 哥本哈根大學

神經(jīng)網(wǎng)絡(luò)和深度學習I

會議主席: Nicolas Le Roux

地點: Ballroom 1+2+Juliard

03:40 – 序列學習因式分解函數(shù)信念網(wǎng)絡(luò)(Factored Temporal Sigmoid Belief Networks for Sequence Learning)

           Jiaming Song清華大學; Zhe Gan、Lawrence Carin 杜克大學

03:57 – 雙向亥姆霍茲機器(Bidirectional Helmholtz Machines)

            Jorg Bornschein、Samira Shabanian 、Asja Fischer 、Yoshua Bengio 蒙特利爾大學

04:14 – 結(jié)構(gòu)化和有效的變分矩陣高斯后驗深度學習(Structured and Efficient Variational Deep Learning with Matrix Gaussian Posteriors )

            Christos Louizos、Max Welling 阿姆斯特丹大學

04:31 – Dropout蒸餾(Dropout distillation)

             Samuel Rota Bulò FBK, Lorenzo Porzi FBK, Peter Kontschieder 劍橋微軟研究院

 會議主席: Yoshua Bengio

 地點: Ballroom 1+2+Juliard

05:10 – 整流器網(wǎng)絡(luò)的表達(Expressiveness of Rectifier Network)

            Xingyuan Pan、Vivek Srikumar 猶他大學

05:27 – 卷積整流器網(wǎng)絡(luò)廣義張量分解(Convolutional Rectifier Networks as Generalized Tensor Decompositions)

            Nadav Cohen、Amnon Shashua Mobileye耶路撒冷希伯來大學

05:44 – 深度卷積網(wǎng)絡(luò)的點定量化(Fixed Point Quantization of Deep Convolutional Networks)

            Darryl Lin、Sachin Talathi 高通研究所;Sreekanth Annapureddy NetraDyne公司

06:01 –  CryptoNets::將神經(jīng)網(wǎng)絡(luò)運用于高生產(chǎn)量和準確度的加密數(shù)據(jù)(CryptoNets: Applying Neural Networks to Encrypted Data with High Throughput and Accuracy ) 

              Ran Gilad-Bachrach、Nathan Dowlin Princeton、Kim Laine、Kristin Lauter、Michael Naehrig 、John Wernsing 微軟研究所

神經(jīng)網(wǎng)絡(luò)和深度學習II

會議主席: Alexandru Niculescu-Mizil

地點: Ballroom 3+4

03:40 – 圖形嵌入半監(jiān)督學習回顧(Revisiting Semi-Supervised Learning with Graph Embeddings )             Zhilin Yang、William Cohen卡耐基梅隆大學Ruslan Salakhudinov 多倫多大學

03:57 –  ADIOS: 輸出空間架構(gòu)深度(ADIOS: Architectures Deep In Output Space)

             Moustapha Cisse 、 Maruan Al-Shedivat卡耐基梅隆大學; Samy Bengio 谷歌

04:14 – 深度嵌入的無監(jiān)督聚類分析(Unsupervised Deep Embedding for Clustering Analysis)

            Junyuan Xie、Ali Farhadi 華盛頓大學; Ross Girshick Facebook;

04:31 – 卷積神經(jīng)網(wǎng)絡(luò)圖學習(Learning Convolutional Neural Networks for Graphs)

             Mathias Niepert 、Mohamed Ahmed ;Konstantin Kutzkov NEC 歐洲實驗室

會議主席: David Sontag

地點: Ballroom 3+4

05:10 –  多因子神經(jīng)關(guān)注糾正預(yù)測(Correcting Forecasts with Multifactor Neural Attention )

             Matthew Riemer、 Aditya Vempaty、Flavio Calmon、Fenno Heath、Richard Hull、Elham Khabiri IBM

05:27 – 神經(jīng)網(wǎng)絡(luò)元學習(Meta-Learning with Memory-Augmented Neural Networks Memory-Augmented)

            Adam Santoro、Matthew Botvinick 、Daan Wierstra、Timothy Lillicrap 谷歌DeepMind Sergey Bartunov 高級經(jīng)濟學院

05:44 – 簡單算法的示例學習(Learning Simple Algorithms from Examples) 

            Wojciech Zaremba , Tomas , Armand Joulin , Rob Fergus Facebook AI研究所

06:01 – 長短期記憶聯(lián)想(Associative Long Short-Term Memory) 

             Ivo Danihelka 、Greg Wayne 、Benigno Uria 、 Nal Kalchbrenner 、Alex Graves 谷歌DeepMind

Via:ICML@NYC

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章

編輯

歡迎合作,歡迎來撩。 微信號:Misty_Yoong
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說