<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能開發(fā)者 正文
      發(fā)私信給汪思穎
      發(fā)送

      0

      Pytorch 0.3.0 發(fā)布,實現(xiàn)多方面提速,增加對ONNX支持

      本文作者: 汪思穎 2017-12-07 08:58
      導語:經(jīng)過將近一年的發(fā)展,日前,迎來了 PyTorch 0.3.0 版本。

      雷鋒網(wǎng) AI 科技評論按,2017 年初,F(xiàn)acebook 在機器學習和科學計算工具 Torch 的基礎(chǔ)上,針對 Python 語言發(fā)布了一個全新的機器學習工具包 PyTorch。一經(jīng)發(fā)布,這款開源工具包就受到廣泛關(guān)注和討論,經(jīng)過幾個月的發(fā)展,目前 PyTorch 已經(jīng)成為從業(yè)者最重要的研發(fā)工具之一。經(jīng)過將近一年的發(fā)展,日前,迎來了 PyTorch 0.3.0 版本。

      Pytorch 0.3.0 發(fā)布,實現(xiàn)多方面提速,增加對ONNX支持

      根據(jù)官方文檔的介紹,此次增加了多個函數(shù)和功能,多方面的性能均實現(xiàn)提升。

      重大變更

      0.3 版本中刪掉了 Variable.reinforce() 等隨機函數(shù),因為它們的功能有限,并且會影響到性能。設(shè)置隨機函數(shù)的初衷是為了避免采樣值的 book-keeping,在實際中,由于各種各樣的原因,用戶的代碼中仍然會包括 book-keeping。他們引入了 torch.distributions 包來代替隨機函數(shù)。

      之前的代碼如下:

      probs = policy_network(state)

      action = probs.multinomial()

      next_state, reward = env.step(action)

      action.reinforce(reward)

      action.backward()

      現(xiàn)在的代碼如下:

      probs = policy_network(state)

      # NOTE: categorical is equivalent to what used to be called multinomial

      m = torch.distributions.Categorical(probs)

      action = m.sample()

      next_state, reward = env.step(action)

      loss = -m.log_prob(action) * reward

      loss.backward()

      新的功能

      1、目前,有些損失函數(shù)能直接計算 mini-batch 中每個 sample 的損失值。

      2、構(gòu)建了一個 in-built Profiler,能對模型進行瓶頸分析,這個 Profiler 同時支持 CPU 和 CUDA 模型。

      更多信息可以參見 http://pytorch.org/docs/0.3.0/autograd.html#profiler

      3、增加 Higher order gradients 模塊,支持如下層:

      • ConvTranspose, AvgPool1d, AvgPool2d, LPPool2d, AvgPool3d, MaxPool1d, MaxPool2d, AdaptiveMaxPool, AdaptiveAvgPool, FractionalMaxPool2d, MaxUnpool1d, MaxUnpool2d, nn.Upsample, ReplicationPad2d, ReplicationPad3d, ReflectionPad2d

      • PReLU, HardTanh, L1Loss, SoftSign, ELU, RReLU, Hardshrink, Softplus, SoftShrink, LogSigmoid, Softmin, GLU

      • MSELoss, SmoothL1Loss, KLDivLoss, HingeEmbeddingLoss, SoftMarginLoss, MarginRankingLoss, CrossEntropyLoss

      • DataParallel

      4、優(yōu)化器

      • optim.SparseAdam:能實現(xiàn)適用于稀疏張量的簡單亞當算法

      • 優(yōu)化器中增加了 add_param_group 函數(shù),能在構(gòu)建好的優(yōu)化器中增加新的參數(shù)組。

      除此之外,還增加了新的張量函數(shù)和功能,在新版本中,能通過 ONNX 將模型遷移到其他框架上。另外,在加速方面,重寫 gpu kernel 之后,softmax 和 log_softmax 的速度能實現(xiàn) 4-256 倍的提升;在分布式 AllReduce 中,能實現(xiàn) 2.5-3 倍的性能提升;torch.norm 函數(shù)的 backward 能實現(xiàn) 1.5 倍的加速;pack_padded_sequence 的性能也有提升。

      雷鋒網(wǎng) AI 科技評論編譯整理,具體的介紹可以參加說明文檔,里面有詳細說明。地址如下:https://github.com/pytorch/pytorch/releases/tag/v0.3.0

      雷鋒網(wǎng) AI 科技評論后續(xù)也將持續(xù)關(guān)注PyTorch的更新。

      雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

      Pytorch 0.3.0 發(fā)布,實現(xiàn)多方面提速,增加對ONNX支持

      分享:
      相關(guān)文章

      編輯

      關(guān)注AI學術(shù),例如論文
      當月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 综合色一色综合久久网| 伊人欧美在线| 亚洲精品久荜中文字幕| 1024免费视频| 亚洲日韩中文在线精品第一| 日韩新无码精品毛片| 成人在线免费视频亚洲| 国产成人精品日本亚洲| 亚洲浮力影院久久久久久| 成人中文在线| 久久久无码人妻精品一区| 全部孕妇毛片丰满孕妇孕交| 四虎永久在线精品国产| 国产精品亚洲а∨天堂2021| 国产在线精品欧美日韩电影| 1024欧美日韩| 国产麻花豆剧传媒精品mv在线| 99re经典视频在线| 人妻少妇精品无码专区动漫| 人妻少妇视频| 午夜福利影院不卡影院| 久久婷婷成人综合色综合| 亚洲欧美日韩每日更新在线 | 亚洲成在人线av| 日韩精品国产二区三区| 制服丝袜无码| 日木AV无码专区亚洲AV毛片 | 奇米影视7777久久精品| 熟女丰满老熟女熟妇| 日日噜噜夜夜狠狠视频| 亚洲v?a| 最近中文字幕日韩有码| 色综合久久88色综合天天| av无码免费岛国动作片| 国产精品综合色区av| 91茄子| 狠狠色综合7777久夜色撩人ⅰ| 女人与公狍交酡女免费| 成年女人看片免费视频| 免费裸体美女网站| 精品国产性色av网站|