0
雷鋒網(wǎng) AI 科技評論按:機(jī)器學(xué)習(xí)頂會 ICML 2019 近期公布了接收論文清單,多家企業(yè)研究院也按慣例介紹了自己的錄用論文。不過新鮮的是,今年卡耐基梅隆大學(xué)(CMU)也專門發(fā)博客列出了來自 CMU 師生的錄用論文,一共有 33 篇之多。其實 UC 伯克利、斯坦福、CMU 等計算機(jī)領(lǐng)域?qū)嵙軓?qiáng)的高校每年都有許多頂會論文,多樣性和深度也都很好,但是宣傳力度往往比不上企業(yè)級 AI 研究機(jī)構(gòu)。所以 CMU 這篇博客也提醒了各位不要忘了頂級高校的學(xué)術(shù)實力,到時參會的研究人員也可以到他們的海報前一期討論這些前沿研究進(jìn)展。
雷鋒網(wǎng) AI 科技評論把論文列表簡單介紹如下。
Statistical Foundations of Virtual Democracy
“虛擬民主”算法的統(tǒng)計學(xué)基礎(chǔ)
TarMAC: Targeted Multi-Agent Communication
TarMAC:有目標(biāo)的多智能體通訊
A Kernel Theory of Modern Data Augmentation
現(xiàn)代數(shù)據(jù)擴(kuò)增的一種核理論
Myopic Posterior Sampling for Adaptive Goal Oriented Design of Experiments
用于適應(yīng)性目標(biāo)向的實驗設(shè)計的短視后驗抽樣
Nearest neighbor and kernel survival analysis: Nonasymptotic error bounds and strong consistency rates
最近鄰以及核生存方法的分析:非漸近性的錯誤邊界以及強(qiáng)相關(guān)性率
Policy Certificates: Towards Accountable Reinforcement Learning
策略證書:向著可靠的強(qiáng)化學(xué)習(xí)
Deep Counterfactual Regret Minimization
深度反事實后悔最小化方法
Domain Adaptation with Asymmetrically-Relaxed Distribution Alignment
通過非對稱釋放的分布對齊進(jìn)行的領(lǐng)域適應(yīng)
(有趣的是,這篇論文第一作者的名字是 Yifan Wu)
Provably efficient RL with Rich Observations via Latent State Decoding
通過潛狀態(tài)編碼實現(xiàn)豐富觀察,得到可證明的高效強(qiáng)化學(xué)習(xí)
A Baseline for Any Order Gradient Estimation in Stochastic Computation Graphs
可以用于任意階的隨機(jī)計算圖的梯度估計的基線方法
Gradient Descent Finds Global Minima of Deep Neural Networks
梯度下降可以找到深度神經(jīng)網(wǎng)絡(luò)的局部極小值
Stable-Predictive Optimistic Counterfactual Regret Minimization
穩(wěn)定預(yù)測的樂觀反事實后悔最小化方法
Regret Circuits: Composability of Regret Minimizers
后悔循環(huán):不同后悔最小化方法的可組合性
Provable Guarantees for Gradient-Based MetaLearning
基于梯度的元學(xué)習(xí)方法的可證明的保證
Dimensionality Reduction for Tukey Regression
土耳其回歸方法的降維
Certified Adversarial Robustness via Randomized Smoothing
通過隨機(jī)平滑達(dá)到可證明的對抗性魯棒性
Provably Efficient Imitation Learning from Observation Alone
證明僅僅從觀察就可以實現(xiàn)高效的模仿學(xué)習(xí)
SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver
SATNet:通過可微分可滿足性解算器連接深度學(xué)習(xí)和邏輯推理
Collective Model Fusion for Multiple Black-Box Experts
Fine-Grained Analysis of Optimization and Generalization for Overparameterized Two-Layer Neural Networks
過參數(shù)化的雙層神經(jīng)網(wǎng)絡(luò)的優(yōu)化及泛化性的細(xì)粒度分析
Width Provably Matters in Optimization for Deep Linear Neural Networks
在深度線性神經(jīng)網(wǎng)絡(luò)中證明寬度也有作用
Causal Discovery and Forecasting in Nonstationary Environments with State-Space Models
在非固定環(huán)境下用狀態(tài)空間模型進(jìn)行因素發(fā)現(xiàn)和預(yù)測
Uniform Convergence Rate of the Kernel Density Estimator Adaptive to Intrinsic Volume Dimension
讓核密度估計器的統(tǒng)一化收斂速度適應(yīng)本征體積維度
Faster Algorithms for Boolean Matrix Factorization
更快的布爾矩陣分解算法
Contextual Memory Trees
Fault Tolerance in Iterative-Convergent Machine Learning
迭代收斂機(jī)器學(xué)習(xí)方法的錯誤容忍度的研究
Wasserstein Adversarial Examples via Projected Sinkhorn Iterations
通過投影 Sinkhorn 迭代生成 Wasserstein 對抗樣本
Learning to Explore via Disagreement
通過不一致學(xué)習(xí)探索
What is the Effect of Importance Weighting in Deep Learning?
深度學(xué)習(xí)中重要性權(quán)重的效果是什么?
Adversarial camera stickers: A physical camera-based attack on deep learning systems
對抗性相機(jī)貼紙:針對深度學(xué)習(xí)系統(tǒng)的基于物理攝像機(jī)的攻擊
On Learning Invariant Representation for Domain Adaptation
關(guān)于為領(lǐng)域適應(yīng)學(xué)習(xí)不變的表征
Finding Options that Minimize Planning Time
尋找能夠減少規(guī)劃時間的方法
Tight Kernel Query Complexity of Kernel Ridge
核嶺回歸的核查詢復(fù)雜度分析
ICML 2019 將于今年 6 月 10 日至 15 日在美國加州長灘舉行。雷鋒網(wǎng) AI 科技評論到時也會進(jìn)行多方位的報道,敬請繼續(xù)關(guān)注。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。
本專題其他文章