0
雷鋒網(wǎng) AI 科技評論按:機器學習頂會 ICML 2019 近期公布了接收論文清單,多家企業(yè)研究院也按慣例介紹了自己的錄用論文。不過新鮮的是,今年卡耐基梅隆大學(CMU)也專門發(fā)博客列出了來自 CMU 師生的錄用論文,一共有 33 篇之多。其實 UC 伯克利、斯坦福、CMU 等計算機領(lǐng)域?qū)嵙軓姷母咝C磕甓加性S多頂會論文,多樣性和深度也都很好,但是宣傳力度往往比不上企業(yè)級 AI 研究機構(gòu)。所以 CMU 這篇博客也提醒了各位不要忘了頂級高校的學術(shù)實力,到時參會的研究人員也可以到他們的海報前一期討論這些前沿研究進展。
雷鋒網(wǎng) AI 科技評論把論文列表簡單介紹如下。
Statistical Foundations of Virtual Democracy
“虛擬民主”算法的統(tǒng)計學基礎(chǔ)
TarMAC: Targeted Multi-Agent Communication
TarMAC:有目標的多智能體通訊
A Kernel Theory of Modern Data Augmentation
現(xiàn)代數(shù)據(jù)擴增的一種核理論
Myopic Posterior Sampling for Adaptive Goal Oriented Design of Experiments
用于適應性目標向的實驗設(shè)計的短視后驗抽樣
Nearest neighbor and kernel survival analysis: Nonasymptotic error bounds and strong consistency rates
最近鄰以及核生存方法的分析:非漸近性的錯誤邊界以及強相關(guān)性率
Policy Certificates: Towards Accountable Reinforcement Learning
策略證書:向著可靠的強化學習
Deep Counterfactual Regret Minimization
深度反事實后悔最小化方法
Domain Adaptation with Asymmetrically-Relaxed Distribution Alignment
通過非對稱釋放的分布對齊進行的領(lǐng)域適應
(有趣的是,這篇論文第一作者的名字是 Yifan Wu)
Provably efficient RL with Rich Observations via Latent State Decoding
通過潛狀態(tài)編碼實現(xiàn)豐富觀察,得到可證明的高效強化學習
A Baseline for Any Order Gradient Estimation in Stochastic Computation Graphs
可以用于任意階的隨機計算圖的梯度估計的基線方法
Gradient Descent Finds Global Minima of Deep Neural Networks
梯度下降可以找到深度神經(jīng)網(wǎng)絡(luò)的局部極小值
Stable-Predictive Optimistic Counterfactual Regret Minimization
穩(wěn)定預測的樂觀反事實后悔最小化方法
Regret Circuits: Composability of Regret Minimizers
后悔循環(huán):不同后悔最小化方法的可組合性
Provable Guarantees for Gradient-Based MetaLearning
基于梯度的元學習方法的可證明的保證
Dimensionality Reduction for Tukey Regression
土耳其回歸方法的降維
Certified Adversarial Robustness via Randomized Smoothing
通過隨機平滑達到可證明的對抗性魯棒性
Provably Efficient Imitation Learning from Observation Alone
證明僅僅從觀察就可以實現(xiàn)高效的模仿學習
SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver
SATNet:通過可微分可滿足性解算器連接深度學習和邏輯推理
Collective Model Fusion for Multiple Black-Box Experts
Fine-Grained Analysis of Optimization and Generalization for Overparameterized Two-Layer Neural Networks
過參數(shù)化的雙層神經(jīng)網(wǎng)絡(luò)的優(yōu)化及泛化性的細粒度分析
Width Provably Matters in Optimization for Deep Linear Neural Networks
在深度線性神經(jīng)網(wǎng)絡(luò)中證明寬度也有作用
Causal Discovery and Forecasting in Nonstationary Environments with State-Space Models
在非固定環(huán)境下用狀態(tài)空間模型進行因素發(fā)現(xiàn)和預測
Uniform Convergence Rate of the Kernel Density Estimator Adaptive to Intrinsic Volume Dimension
讓核密度估計器的統(tǒng)一化收斂速度適應本征體積維度
Faster Algorithms for Boolean Matrix Factorization
更快的布爾矩陣分解算法
Contextual Memory Trees
Fault Tolerance in Iterative-Convergent Machine Learning
迭代收斂機器學習方法的錯誤容忍度的研究
Wasserstein Adversarial Examples via Projected Sinkhorn Iterations
通過投影 Sinkhorn 迭代生成 Wasserstein 對抗樣本
Learning to Explore via Disagreement
通過不一致學習探索
What is the Effect of Importance Weighting in Deep Learning?
深度學習中重要性權(quán)重的效果是什么?
Adversarial camera stickers: A physical camera-based attack on deep learning systems
對抗性相機貼紙:針對深度學習系統(tǒng)的基于物理攝像機的攻擊
On Learning Invariant Representation for Domain Adaptation
關(guān)于為領(lǐng)域適應學習不變的表征
Finding Options that Minimize Planning Time
尋找能夠減少規(guī)劃時間的方法
Tight Kernel Query Complexity of Kernel Ridge
核嶺回歸的核查詢復雜度分析
ICML 2019 將于今年 6 月 10 日至 15 日在美國加州長灘舉行。雷鋒網(wǎng) AI 科技評論到時也會進行多方位的報道,敬請繼續(xù)關(guān)注。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。