<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發(fā)私信給楊曉凡
      發(fā)送

      0

      ICML 上有19場 DeepMind的論文演講,多到看不過來了 | ICML 2017

      本文作者: 楊曉凡 2017-08-05 22:10 專題:ICML 2017
      導語:DeepMind 給出了自己的論文演講的時間地點,到時候我們現(xiàn)場見

      雷鋒網(wǎng) AI 科技評論按:ICML 2017馬上就要在悉尼舉行了。ICML (International Conference on Machine Learning)與每年年底舉行的NIPS(Conference on Neural Information Processing Systems)是機器學習與人工智能研究領(lǐng)域影響力極高的兩個主要會議,另外上半年舉行的 ICLR(International Conference on Learning Representations)也有后來居上的趨勢。

      ICML 2017的會議時間是8月6日到8月11日,悉尼的跟北京的時差也僅僅有兩個小時而已,所以很快就要到了。其實 ICML 2017 接收論文名單早在5月就公布了,不過 DeepMind 還是想提醒參會者們關(guān)注一下自己的論文,所以今天在自己研究 blog 上發(fā)出了一份論文演講清單。

      這份清單中一共有 19 篇論文,也就是 19 個論文演講,其實 DeepMind 在此屆 ICML 上收錄的論文本來也有25篇之多。一個 19 篇論文的清單太長了,以至于 DeepMind 都把這份清單分成了3篇來發(fā)。

      論文這么多,雷鋒網(wǎng) AI 科技評論這里為大家簡單介紹其中3篇。

      Sharp Minima Can Generalize For Deep Nets

      • 深度神經(jīng)網(wǎng)絡中尖銳的最小值也可以讓模型具有泛化能力

      • 論文作者:Laurent Dinh (Univ. Montreal), Razvan Pascanu, Samy Bengio (Google Brain), Yoshua Bengio (Univ. Montreal)

      • 論文簡介:雖然深度學習架構(gòu)的過擬合能力強得過頭了一點,不過它們對于全新數(shù)據(jù)的泛化能力還是相對不錯的,這樣就可以用它們來解決一些實際問題。然而,解釋這種狀況背后的機理仍然是研究中的一個富有開放性的問題。有一種假設最近得到了越來越多的關(guān)注,就是基于隨機梯度的方式找到的損失函數(shù)的最小值,它的平滑度越高,模型的泛化性能就越高。這篇論文提出了這樣的觀點:多數(shù)關(guān)于平滑度的想法對于深度神經(jīng)網(wǎng)絡都不貼切,而且沒辦法直接用來解釋泛化性。具體討論帶有激活函數(shù)的深度神經(jīng)網(wǎng)絡的話,可以得出由繼承對稱性引出的這些網(wǎng)絡架構(gòu)的參數(shù)空間的特定幾何結(jié)構(gòu),利用這些幾何結(jié)構(gòu)可以構(gòu)建出跟任意更尖銳的最小值等效的模型。更進一步地,如果允許對一個函數(shù)重新參數(shù)化,它的參數(shù)幾何結(jié)構(gòu)可以大幅度變化,但并不影響它的泛化屬性。

      • 論文地址:https://arxiv.org/abs/1703.04933 

      • 論文演講:Monday 07 August, 11:06-11:24 @ C4.8 

      • 海報地址:Tuesday 08 August, 18:30-22:00 @ Gallery #3

      Learning to learn without gradient descent by gradient descent

      • 無需梯度下降的梯度下降,學會一個會學習的模型

      • 論文作者:Yutian Chen, Matthew Hoffman, Sergio Gomez, Misha Denil, Timothy Lillicrap, Matthew Botvinick , Nando de Freitas(全部都是 DeepMind 英國團隊成員)

      • 論文簡介:借助梯度下降的方法,可以用簡單的生成函數(shù)訓練,學到循環(huán)神經(jīng)網(wǎng)絡(RNN)優(yōu)化器??梢员砻?,這些學到的優(yōu)化器展現(xiàn)出了相當高的遷移能力,它們可以用來高效地優(yōu)化很多種不可導的“黑盒”函數(shù),包括 bandit 環(huán)境下的高斯過程、簡單控制對象、全局優(yōu)化benchmark和超參數(shù)調(diào)節(jié)任務。在訓練層面上,學到的優(yōu)化器可以學會在應用和探索中找到平衡,并且根據(jù)自己的偏好在高度工程化的貝葉斯優(yōu)化方法集中選擇適合做超參數(shù)調(diào)節(jié)的方法。

      • 論文地址:https://arxiv.org/abs/1611.03824 

      • 論文演講:Monday 07 August, 17:15-17:33 @ Darling Harbour Theatre

      • 海報地址:Tuesday 08 August, 18:30-22:00 @ Gallery #6

      • 雷鋒網(wǎng) AI 科技評論注:這篇論文的名字很有特點,而且論文一作也是華人,我們已經(jīng)叮囑了前方記者特別關(guān)注一下,請期待我們的好消息

      Neural Audio Synthesis of Musical Notes with WaveNet Autoencoders

      • 用 WaveNet 自動編碼器神經(jīng)網(wǎng)絡生成樂音

      • 論文作者:Sander Dieleman, Karen Simonyan, Jesse Engel (Google Brain), Cinjon Resnick (Google Brain), Adam Roberts (Google Brain), Douglas Eck (Google Brain), Mohammad Norouzi (Google Brain)

      • 論文簡介:在算法進步和高質(zhì)量圖像數(shù)據(jù)集這兩個因素的幫助下,視覺方面的生成式模型已經(jīng)得到了快速的發(fā)展。這篇論文為音頻領(lǐng)域的這兩個因素都做出了貢獻,以便音頻模型也可以有更大的發(fā)展空間。首先,作者們詳細介紹了一個優(yōu)越的新型 WaveNet 樣式的自動編碼器模型,它對應著一個能從原始音頻波形學到臨時編碼的自回歸解碼器。其次,作者們介紹了 NSynth,這是一個大規(guī)模、高質(zhì)量的音樂數(shù)據(jù)集,它比現(xiàn)有的公開數(shù)據(jù)集規(guī)模要大一個數(shù)量級。借助 NSynth,論文中展現(xiàn)出,相比一個完善優(yōu)化過的頻譜自動編碼器基準模型, WaveNet 自動編碼器在定量和定性表現(xiàn)上都有提高。最后,論文表明這個模型可以學到多種embedding,從而可以在樂器之間轉(zhuǎn)化、在音色中做有意義的插值,創(chuàng)造出真實動人的新的類型的聲音。

      • 論文地址:https://arxiv.org/abs/1704.01279 

      • 論文演講:Tuesday 08 August, 14:42-15:00 @ Parkside 1

      • 海報地址:Tuesday 08 August, 18:30-22:00 @ Gallery #98

      其它 16 篇演講論文

      對后16篇論文演講時間和海報地點感興趣的讀者,可以訪問 DeepMind 原博具體查看。這里是論文清單3篇里第一篇的地址,在文末有指向另外兩篇的鏈接。

      不能親臨 ICML 2017 的讀者,可以先看看以上的論文,并期待我們的會議相關(guān)報道;能夠到現(xiàn)場的呢,雷鋒網(wǎng) AI 科技評論就跟你們現(xiàn)場見!

      相關(guān)文章:

      科技公司爭相涌進ICML 2017,論文數(shù)占1/4,Google獨占6.3%

      劉鐵巖團隊ICML論文提出機器學習的新范式:對偶監(jiān)督學習

      雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

      ICML 上有19場 DeepMind的論文演講,多到看不過來了 | ICML 2017

      分享:
      相關(guān)文章

      讀論文為生

      日常笑點滴,學術(shù)死腦筋
      當月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 色婷婷综合久久久久中文一区二区| 一区二区亚洲人妻精品| 亚洲欧美在线一区中文字幕| 成人亚洲欧美成αⅴ人在线观看| 东方市| 黄色视频在线观看18| 无码人妻精一区二区三区| 热99re久久免费视精品频| 精品熟女亚洲av在线观看| 日日碰狠狠躁久久躁| 那曲县| 国产九色AV刺激露脸对白| 久久久www影院人成_免费| 国产福利微视频一区二区| 欧美丰满熟妇hdxx| 91视频在线看| 色av永久无码影院av| 亚洲精品久综合蜜| 无码人妻精品一区二区三区温州| 日韩一区二区三区日韩精品| 乌克兰少妇xxxx做受野外| 色婷婷一区二区三区四区成人网| 少妇xxxxx性开放| 欧美精品亚洲精品日韩专| 福泉市| 色欲人妻综合网站| 被c到高潮疯狂喷水国产| 色娜娜无码激情在线| 影音先锋大黄瓜视频| 波多野结衣美乳人妻hd电影欧美| 国产精品久久久久久爽爽爽| 国产精品露脸视频观看| 中文字幕av在线| 99黄色| 色五月丁香六月欧美综合| 中文字幕日韩有码国产| 国产精品久久久久aaaa| 无码av不卡免费播放| 日本欧美视频在线观看三区| 色屁屁www影院免费观看入口| 欧美成a网|