0
| 本文作者: 楊曉凡 | 編輯:郭奕欣 | 2018-05-07 12:06 | 專題:ICLR 2018 |

雷鋒網 AI 科技評論按:時間過得好快,Yann LeCun 仿佛剛剛在 Twitter 上感慨 ICLR 2018 的參會人數比 2017 年再次翻倍,而現在 ICLR 2018 已經于加拿大當地時間 5 月 3 日結束了。
谷歌、DeepMind、Facebook、OpenAI、微軟,這 5 個雷鋒網 AI 科技評論重點關注的科技公司在今年 ICLR 中共貢獻了 9 篇 oral(口頭報告)論文和 107 篇 poster(海報展示)論文,在會議接受論文總數的 23 篇 oral、314 篇 poster 中已經占據了接近半壁江山。(谷歌、FB、微軟重點在于其中的人工智能研究機構:谷歌大腦/谷歌 AI,Facebook 人工智能研究院,微軟研究院)
每家機構的數量方面,DeepMind 22 篇、谷歌 47 篇、Facebook 25 篇、OpenAI 7 篇、微軟 15 篇。谷歌和 DeepMind 加起來就占了會議總接收論文的 20%,可以說是具有絕對的影響力了。
我們翻閱了這 5 家機構的共 116 篇 ICLR 2018 接受論文,嘗試梳理其中體現出的整個領域近期的研究內容和研究風格要點。需要說明的是,接受論文的結果是研究機構的論文作者們和會議審稿人們共同決定的;另一方面我們翻閱的論文也只是全部 ICLR 2018 接受論文的一部分,所以依據這些論文做出的評判不一定全面。
我們發現:
強化學習是今年一大研究熱點
不僅 DeepMind 依舊把強化學習作為重要研究對象,其它研究機構也在強化學習方面有許多研究,以及把強化學習作為工具,研究其它領域的問題。這 106 篇論文中有 20 篇左右是關于強化學習的。去年火熱的 GANs 今年則熱度有所下降。
另一方面,與語言相關的論文也有 22 篇之多,涵蓋的內容包括對語言演進的探索、弱監督/無監督翻譯、閱讀理解、問答等。
必不可少的是對各種現有方法的深度探究并做出改進
來自谷歌的 oral 論文《Boosting the Actor with Dual Critic》(https://openreview.net/pdf?id=BkUp6GZRW)基于大家熟悉的 actor-critic 模式算法繼續做出了改進;
同樣來自谷歌的《On the Convergence of Adam and Beyond》(https://openreview.net/forum?id=ryQu7f-RZ )比較了 Adam 等常用優化算法,發現其中存在的問題并提出改進。這篇論文也獲得了今年的最佳論文獎。
《Sensitivity and Generalization in Neural Networks: An Empirical Study》(https://openreview.net/pdf?id=HJC2SzZCW ) 實際使用中人們發現大規模的、參數數目過多的網絡實際上比小規模的網絡有更好的泛化性,這似乎和我們對函數復雜度的經典認知相悖。這篇論文就探究了這個問題。
來自 Facebook 的《Residual Connections Encourage Iterative Inference》(https://arxiv.org/abs/1710.04773)分析+實證地研究了 ResNet 能夠帶來良好表現的原因,以及如何避免某些使用方式下會出現的過擬合問題。
除了針對深度學習領域本身的已有問題做深入發掘之外,有越來越多論文以深度學習為工具,研究和驗證人類學習、人類語言演進等方面的假說。
DeepMind 這篇 oral 論文《Emergence of linguistic communication from referential games with symbolic and pixel input》(https://openreview.net/pdf?id=HJGv1Z-AW ),在像素構成的環境中訓練強化學習智能體,用語言進化學的思路,以緊急狀況溝通任務為環境,研究算法交流模式的進化和學習。
同樣來自 DeepMind 的《Compositional obverter communication learning from raw visual input》(https://openreview.net/forum?id=Hk6WhagRW )和《Emergent communication through negotiation》(https://openreview.net/forum?id=Hk6WhagRW )兩篇也是類似地以深度學習方法研究人類語言的演進。
Facebook 也以另一種思路探究了智能體學習語言的方式,在《Mastering the Dungeon: Grounded Language Learning by Mechanical Turker Descent》(https://arxiv.org/abs/1711.07950),他們提出了有趣的 Mechanical Turker Descent 的交互式學習方法,讓眾包參與實驗的人類在競爭和合作中訓練智能體處理文字探險游戲中的自然語言內容,交互式的學習也給智能體提供了動態變化的、符合它們當前水平的訓練數據。
另一篇來自 Facebook 的《Emergent Translation in Multi-Agent Communication》(https://arxiv.org/abs/1710.06922)研究的是當下熱門的無平行語料的翻譯問題,他們的環境設置是讓兩個說不同語言的智能體玩挑圖游戲,在游戲過程中學習翻譯對方的語言。這種設置不僅和直接學習一個無監督的翻譯器不同,而且還更像是在研究許多人都困惑已久的「兩個語言不通的人如何溝通」、「最早學習某種外語的人是如何學習的」這種問題。
邏輯、抽象概念學習也出現越來越多的成果
DeepMind 《SCAN: Learning hierarchical compositional visual concepts》(https://arxiv.org/abs/1707.03389 ),雷鋒網 AI 科技評論做過解讀 DeepMind提出SCAN:僅需五對樣本,學會新的視覺概念!。
另一篇《Can neural networks understand logical entailment?》(https://openreview.net/forum?id=SkZxCk-0Z)針對模型捕捉、運用邏輯表達式的能力提出了新的模型和數據集
優化方法仍在討論和快速進步
即便在大數據和計算能力已經不是問題的今天,模型的優化方法也仍然是很多研究者關心的課題,谷歌尤其在這方面有多篇論文。降低分布式訓練的帶寬需求《Deep Gradient Compression: Reducing the Communication Bandwidth for Distributed Training》(https://arxiv.org/abs/1712.01887)、Hinton 的分布式在線蒸餾《Large Scale Distributed Neural Network Training Through Online Distillation》(https://arxiv.org/abs/1804.03235,雷鋒網 AI 科技評論解讀文章見這里)、學習率和批大小之間的關系如何《Don't Decay the Learning Rate, Increase the Batch Size》(https://arxiv.org/abs/1711.00489)、新提出的優化算法《Neumann Optimizer: A Practical Optimization Algorithm for Deep Neural Networks》(https://arxiv.org/abs/1712.03298),以及前文提到過的《On the Convergence of Adam and Beyond》,都展現了谷歌的研究人員們對這類問題的重視。
微軟的 oral 論文《On the insufficiency of existing momentum schemes for Stochastic Optimization》(https://arxiv.org/abs/1803.05591)探究了現有帶動量的隨機優化算法的問題,《Training GANs with Optimism》(https://arxiv.org/abs/1711.00141)則為訓練 Wasserstein GANs 帶來了新的方法。
實際上,百度也有一篇論文《Mixed Precision Training》(https://arxiv.org/abs/1710.03740)討論了在網絡訓練中使用半精度浮點數而不是一般的單精度浮點數,在縮減超大規模網絡所需存儲和計算需求的同時還保持足夠的網絡表現。
嘗試開拓深度學習的新領域
來自微軟的《Deep Complex Networks》(https://arxiv.org/abs/1705.09792)為復數值的深度神經網絡提供了更多基礎組件,包括復數神經網絡的復數批量標準化、復數權值初始化策略等。
來自谷歌的《Graph Attention Networks》(https://arxiv.org/abs/1710.10903)提出了運行在圖結構的數據上的新的神經網絡架構 GAT,它同時還具有掩蔽自我注意力層,以改善以往的基于圖卷積及其近似的模型的缺點。
另外值得一提的是,三篇 ICLR 2018 最佳論文中的《Spherical CNNs》(https://openreview.net/forum?id=Hkbd5xZRb)也是開拓新領域的精彩的嘗試。
有不少研究安全的論文,但方向較為集中
來自谷歌 Nicolas Papernot 等人的《Scalable Private Learning with PATE》繼續研究了深度學習中的隱私問題(https://openreview.net/pdf?id=rkZB1XbRZ ),實際上 Nicolas Papernot 去年就作為第一作者以《Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data》提出了 PATE 框架獲得了 ICLR 2017 的最佳論文獎,雷鋒網 AI 科技評論也翻譯了獲獎演講,詳見 ICLR-17最佳論文作者Nicolas Papernot現場演講:如何用PATE框架有效保護隱私訓練數據?
除此之外的研究安全性的論文基本都是對抗性樣本、超出原分布的樣本的檢測和防御。
各位讀者如果有認為出彩的、值得注意的論文,也歡迎在評論區留言補充討論。今年 ICLR 2018 的會議投遞情況和最佳論文介紹還可以參見這里和這里。明年 ICLR 2019 我們不見不散。
谷歌論文列表:https://research.googleblog.com/2018/04/google-at-iclr-2018.html
DeepMind 論文列表:https://deepmind.com/blog/deepmind-papers-iclr-2018/
Facebook 論文列表:https://research.fb.com/facebook-research-at-iclr-2018/
OpenAI:https://twitter.com/OpenAI/status/989978665113993216
微軟論文檢索:https://www.microsoft.com/en-us/research/search/?q&content-type=publications&research_area=13556
雷鋒網 AI 科技評論報道
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。