<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給楊曉凡
      發送

      0

      五大頂尖企業研究院的116篇論文ICLR2018錄用論文,七大趨勢全解讀

      本文作者: 楊曉凡 編輯:郭奕欣 2018-05-07 12:06 專題:ICLR 2018
      導語:有何研究趨勢,有何亮眼論文

      五大頂尖企業研究院的116篇論文ICLR2018錄用論文,七大趨勢全解讀

      雷鋒網 AI 科技評論按:時間過得好快,Yann LeCun 仿佛剛剛在 Twitter 上感慨 ICLR 2018 的參會人數比 2017 年再次翻倍,而現在 ICLR 2018 已經于加拿大當地時間 5 月 3 日結束了。

      谷歌、DeepMind、Facebook、OpenAI、微軟,這 5 個雷鋒網 AI 科技評論重點關注的科技公司在今年 ICLR 中共貢獻了 9 篇 oral(口頭報告)論文和 107 篇 poster(海報展示)論文,在會議接受論文總數的 23 篇 oral、314 篇 poster 中已經占據了接近半壁江山。(谷歌、FB、微軟重點在于其中的人工智能研究機構:谷歌大腦/谷歌 AI,Facebook 人工智能研究院,微軟研究院)

      每家機構的數量方面,DeepMind 22 篇、谷歌 47 篇、Facebook 25 篇、OpenAI 7 篇、微軟 15 篇。谷歌和 DeepMind 加起來就占了會議總接收論文的 20%,可以說是具有絕對的影響力了。

      我們翻閱了這 5 家機構的共 116 篇 ICLR 2018 接受論文,嘗試梳理其中體現出的整個領域近期的研究內容和研究風格要點。需要說明的是,接受論文的結果是研究機構的論文作者們和會議審稿人們共同決定的;另一方面我們翻閱的論文也只是全部 ICLR 2018 接受論文的一部分,所以依據這些論文做出的評判不一定全面。

      我們發現:

      強化學習是今年一大研究熱點

      • 不僅 DeepMind 依舊把強化學習作為重要研究對象,其它研究機構也在強化學習方面有許多研究,以及把強化學習作為工具,研究其它領域的問題。這 106 篇論文中有 20 篇左右是關于強化學習的。去年火熱的 GANs 今年則熱度有所下降。

      • 另一方面,與語言相關的論文也有 22 篇之多,涵蓋的內容包括對語言演進的探索、弱監督/無監督翻譯、閱讀理解、問答等。

      必不可少的是對各種現有方法的深度探究并做出改進

      • 來自谷歌的 oral 論文《Boosting the Actor with Dual Critic》(https://openreview.net/pdf?id=BkUp6GZRW)基于大家熟悉的 actor-critic 模式算法繼續做出了改進;

      • 同樣來自谷歌的《On the Convergence of Adam and Beyond》(https://openreview.net/forum?id=ryQu7f-RZ )比較了 Adam 等常用優化算法,發現其中存在的問題并提出改進。這篇論文也獲得了今年的最佳論文獎。

      • 《Sensitivity and Generalization in Neural Networks: An Empirical Study》(https://openreview.net/pdf?id=HJC2SzZCW ) 實際使用中人們發現大規模的、參數數目過多的網絡實際上比小規模的網絡有更好的泛化性,這似乎和我們對函數復雜度的經典認知相悖。這篇論文就探究了這個問題。

      • 來自 Facebook 的《Residual Connections Encourage Iterative Inference》(https://arxiv.org/abs/1710.04773)分析+實證地研究了 ResNet 能夠帶來良好表現的原因,以及如何避免某些使用方式下會出現的過擬合問題。

      除了針對深度學習領域本身的已有問題做深入發掘之外,有越來越多論文以深度學習為工具,研究和驗證人類學習、人類語言演進等方面的假說。

      • DeepMind 這篇 oral 論文《Emergence of linguistic communication from referential games with symbolic and pixel input》(https://openreview.net/pdf?id=HJGv1Z-AW ),在像素構成的環境中訓練強化學習智能體,用語言進化學的思路,以緊急狀況溝通任務為環境,研究算法交流模式的進化和學習。

      • 同樣來自 DeepMind 的《Compositional obverter communication learning from raw visual input》(https://openreview.net/forum?id=Hk6WhagRW  )和《Emergent communication through negotiation》(https://openreview.net/forum?id=Hk6WhagRW  )兩篇也是類似地以深度學習方法研究人類語言的演進。

      • Facebook 也以另一種思路探究了智能體學習語言的方式,在《Mastering the Dungeon: Grounded Language Learning by Mechanical Turker Descent》(https://arxiv.org/abs/1711.07950),他們提出了有趣的 Mechanical Turker Descent 的交互式學習方法,讓眾包參與實驗的人類在競爭和合作中訓練智能體處理文字探險游戲中的自然語言內容,交互式的學習也給智能體提供了動態變化的、符合它們當前水平的訓練數據。

      • 另一篇來自 Facebook 的《Emergent Translation in Multi-Agent Communication》(https://arxiv.org/abs/1710.06922)研究的是當下熱門的無平行語料的翻譯問題,他們的環境設置是讓兩個說不同語言的智能體玩挑圖游戲,在游戲過程中學習翻譯對方的語言。這種設置不僅和直接學習一個無監督的翻譯器不同,而且還更像是在研究許多人都困惑已久的「兩個語言不通的人如何溝通」、「最早學習某種外語的人是如何學習的」這種問題。

      邏輯、抽象概念學習也出現越來越多的成果

      優化方法仍在討論和快速進步

      • 即便在大數據和計算能力已經不是問題的今天,模型的優化方法也仍然是很多研究者關心的課題,谷歌尤其在這方面有多篇論文。降低分布式訓練的帶寬需求《Deep Gradient Compression: Reducing the Communication Bandwidth for Distributed Training》(https://arxiv.org/abs/1712.01887)、Hinton 的分布式在線蒸餾《Large Scale Distributed Neural Network Training Through Online Distillation》(https://arxiv.org/abs/1804.03235,雷鋒網 AI 科技評論解讀文章見這里)、學習率和批大小之間的關系如何《Don't Decay the Learning Rate, Increase the Batch Size》(https://arxiv.org/abs/1711.00489)、新提出的優化算法《Neumann Optimizer: A Practical Optimization Algorithm for Deep Neural Networks》(https://arxiv.org/abs/1712.03298),以及前文提到過的《On the Convergence of Adam and Beyond》,都展現了谷歌的研究人員們對這類問題的重視。

      • 微軟的 oral 論文《On the insufficiency of existing momentum schemes for Stochastic Optimization》(https://arxiv.org/abs/1803.05591)探究了現有帶動量的隨機優化算法的問題,《Training GANs with Optimism》(https://arxiv.org/abs/1711.00141)則為訓練 Wasserstein GANs 帶來了新的方法。

      • 實際上,百度也有一篇論文《Mixed Precision Training》(https://arxiv.org/abs/1710.03740)討論了在網絡訓練中使用半精度浮點數而不是一般的單精度浮點數,在縮減超大規模網絡所需存儲和計算需求的同時還保持足夠的網絡表現。

      嘗試開拓深度學習的新領域

      • 來自微軟的《Deep Complex Networks》(https://arxiv.org/abs/1705.09792)為復數值的深度神經網絡提供了更多基礎組件,包括復數神經網絡的復數批量標準化、復數權值初始化策略等。

      • 來自谷歌的《Graph Attention Networks》(https://arxiv.org/abs/1710.10903)提出了運行在圖結構的數據上的新的神經網絡架構 GAT,它同時還具有掩蔽自我注意力層,以改善以往的基于圖卷積及其近似的模型的缺點。

      • 另外值得一提的是,三篇 ICLR 2018 最佳論文中的《Spherical CNNs》(https://openreview.net/forum?id=Hkbd5xZRb)也是開拓新領域的精彩的嘗試。

      有不少研究安全的論文,但方向較為集中

      各位讀者如果有認為出彩的、值得注意的論文,也歡迎在評論區留言補充討論。今年 ICLR 2018 的會議投遞情況和最佳論文介紹還可以參見這里這里。明年 ICLR 2019 我們不見不散。

      谷歌論文列表:https://research.googleblog.com/2018/04/google-at-iclr-2018.html

      DeepMind 論文列表:https://deepmind.com/blog/deepmind-papers-iclr-2018/ 

      Facebook 論文列表:https://research.fb.com/facebook-research-at-iclr-2018/

      OpenAI:https://twitter.com/OpenAI/status/989978665113993216

      微軟論文檢索:https://www.microsoft.com/en-us/research/search/?q&content-type=publications&research_area=13556

      雷鋒網 AI 科技評論報道

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

      五大頂尖企業研究院的116篇論文ICLR2018錄用論文,七大趨勢全解讀

      分享:
      相關文章

      讀論文為生

      日常笑點滴,學術死腦筋
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 国产999精品成人网站| 国产韩国精品一区二区三区久久| 苍梧县| 乱人伦人妻中文字幕无码| 亚洲激情偷拍| 色老大久久综合网天天| 免费观看在线A级毛片| 亚洲乱亚洲乱妇在线| 美女裸奶100%无遮挡免费网站| 靖州| 成人片黄网站色大片免费| 99999精品| 中文人妻不卡| 欧美成人动态图| av天堂中文| 久久永久视频| 99久久国产综合精品女图图等你| 岛国av无码免费无禁网站| 国产亚洲高清在线精品不卡| 亚洲精品久久久久久久久久吃药| 五月婷婷成人| 国产人妻人伦精品1国产丝袜| AV一区二区三区| 国产精品理论片在线观看| 日韩丝袜亚洲国产欧美一区 | 色婷婷成人网| 无尺码精品产品视频| 国产精品香港三级国产av| 亚洲爆乳精品无码一区二区 | 亚洲无码一二| 亚洲av无码牛牛影视在线二区| 精品中文字幕一区在线| 九九热在线免费播放视频| 免费无码高H视频在线观看| 欧美日韩在线第一页免费观看| 热久久国产欧美一区二区精品| 久久中文精品无码中文字幕下载| 偷拍专区一区二区三区| 狠狠综合久久久久综合网址| 中文字幕精品亚洲二区| 老女老肥熟国产在线视频|