<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能開發者 正文
      發私信給skura
      發送

      1

      ICLR2019 最佳論文公布:“有序神經元”、“彩票假設”獲獎

      本文作者: skura 2019-05-06 18:21 專題:ICLR 2019
      導語:入選的論文討論了自然語言處理和模型剪枝問題

      雷鋒網 AI 科技評論按,今天,ICLR2019 最佳論文名單公布啦!

      今年獲得最佳論文獎的論文有兩篇,它們是:

      • 來自加拿大蒙特利爾大學、微軟蒙特利爾研究院的「Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks」

      • 來自 MIT CSAIL 的「The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks」。

      雷鋒網 AI 科技評論將這兩篇文章的摘要翻譯如下:

      獲獎論文 1:Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks

      ICLR2019 最佳論文公布:“有序神經元”、“彩票假設”獲獎

      有序神經元:將樹結構整合到循環神經網絡中

      作者:Yikang Shen, Shawn Tan, Alessandro Sordoni, Aaron Courville

      摘要:自然語言是具有層次結構的:較小的單元(如短語)嵌套在較大的單元(如從句)中。當較大的部分結束時,嵌套在其中的所有較小的部分也必須關閉。雖然標準的 LSTM 架構允許不同的神經元在不同的時間尺度上跟蹤信息,但它在構建層次上沒有明顯的偏差。本文提出通過對神經元進行排序來增加這種感應偏差;主輸入向量和遺忘門的向量確保了當一個給定的神經元被更新時,在它后面的所有有序排列的神經元也被更新。我們新穎的循環結構,有序神經元 LSTM(ON-LSTM),在這四個不同的任務上取得了良好的性能:語言建模、無監督解析、有針對性的句法評估和邏輯推理。

      關鍵詞:深度學習、自然語言處理、循環神經網絡、語言建模

      TL;DR:我們引入了一種新的感應偏差,這種偏差將樹結構整合到循環神經網絡中。

      論文地址:https://openreview.net/forum?id=B1l6qiR5F7

      獲獎論文 2:The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks

      ICLR2019 最佳論文公布:“有序神經元”、“彩票假設”獲獎

      彩票假設:尋找稀疏可訓練的神經網絡

      作者:Jonathan Frankle, Michael Carbin

      摘要:神經網絡剪枝技術可以在不影響推理精度的前提下,將訓練后的網絡參數減少 90% 以上,減少存儲需求,提高推理計算性能。然而,目前的經驗是,修剪產生的稀疏架構從一開始就很難訓練,這個結構同樣會提高訓練性能。

      我們發現,標準剪枝技術自然地揭示了子網絡,其初始化使它們能夠有效地訓練。基于這些結果,我們提出了「彩票假設」:密集的、隨機初始化的前饋網絡包含子網絡(「中獎彩票」),當單獨訓練時,它可以在類似的迭代次數中達到與原始網絡相當的測試精度。我們發現的中獎彩票贏得了初始化彩票:它們的連接具有初始權重,使得訓練特別有效。

      我們提出了一個識別中獎彩票的算法和一系列支持彩票假設和這些偶然初始化的重要性的實驗。我們發現,對于 MNIST 和 CIFAR10,中獎彩票的規模小于幾個完全連接和卷積前饋架構的 10-20%。超過這個尺寸,我們發現的中獎彩票比原來的網絡學習更快,能夠達到更高的測試精度。

      關鍵詞:神經網絡;稀疏性;剪枝;壓縮;性能;體系結構搜索

      TL;DR:可以在訓練后修剪權重的前饋神經網絡也可以在訓練前修剪相同的權重。

      投稿數量逐年猛增的深度學習頂會

      作為人工智能領域最年輕的會議,ICLR 的成長速度飛快。在 2013 年,ICLR 才舉辦了第一屆,以「表征學習以及在視覺、語音、音頻及 NLP 領域的作用」這一重要且熱門的課題為主旨,借著 OpenReview 評審機制以及 Yoshua Bengio 和 Yann LeCun 兩人的鼎力支持,到 2017 年舉辦第五屆時已經得到了學術研究者們的廣泛認可,被看作為「深度學習的頂級會議」。

      在人工智能持續火熱的背景下,ICLR 的投稿數量也依然在迅猛增長,ICLR 2015、2016、2017 收到的投稿分別為 143 篇、超過 265 篇、490 篇,今年 ICLR 2018 繼續翻倍到了 935 篇。華盛頓大學計算機系教授 Pedro Domingos 都在推特上開玩笑說:「這已經成了深度學習界的摩爾定律了,ICLR 的投稿數目每年都要翻一倍。」

      去年, ICLR 2018 共收到 935 篇論文投稿,337 篇被接受為會議論文,接受率為 36%;其中 23 篇為 oral(口頭報告論文)、314 篇為 poster(海報展示論文);另外還有 90 篇 workshop 論文。

      而今年,ICLR 2019 共收到 1591 篇論文投稿,和去年相比,在投稿數量上仍然保持了大幅度的增長。其中 oral 論文 24 篇,poster 論文 476 篇。

      看來,照這個趨勢下去,明年的 ICLR 會更加熱鬧。而按照慣例,雷鋒網每年都會第一時間跟進這些頂會。今年的 ICLR 2019 我們也會持續關注,接下來將會有更多報道,敬請關注。

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      ICLR2019 最佳論文公布:“有序神經元”、“彩票假設”獲獎

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 洛川县| 中国农村真卖bbwbbw| 国产二区精品久久| 女人被狂躁c到高潮| 先锋影音av最新资源| 色综合久久久久无码专区| 精品无码久久久久久久久久| 无码狠狠躁久久久久久久91| 拳交av| 好姑娘西瓜在线观看免费| 又污又爽又黄的网站| 三原县| 国产精品成人观看视频国产奇米 | 罗山县| 性xxxx欧美老妇胖老太性多毛| 亚洲天堂无码| 精品一区二区三人妻视频| 一区二区丝袜美腿视频| 最新版天堂资源中文官网| 午夜无码免费福利视频网址| 国产XXXX| 99免费精品视频| AV青青草| a亚洲天堂| 日本欧美大码a在线观看| 99中文字幕精品国产| 亚洲中文字幕久久精品无码喷水| 亚洲AV综合色区无码另类小说| 国产粉嫩高中无套进入| 鄱阳县| 亚洲a∨国产av综合av下载| 1024免费视频| 国产亚洲精品久久久闺蜜| 国产乱子伦真实精品| 狠狠噜天天噜日日噜av| www插插插无码免费视频网站| 成人精品区| 女同AV在线播放| 耒阳市| 国产九色AV刺激露脸对白| 99精品久久99久久久久|