<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能開發者 正文
      發私信給AI研習社
      發送

      0

      帶你漫游 Wasserstein GAN

      本文作者: AI研習社 編輯:賈智龍 2017-05-25 16:13
      導語:Wasserstein GAN 出了很久了,玩過么?

      前言

      上次帶大家寫了原始版的 GAN,只生成了高斯分布。但兔子哥哥發現在 GAN 論文的底下,有 GAN 生成圖片的 example。

      帶你漫游 Wasserstein GAN

      因此,這足以說明 GAN 亦有能力生成圖片,并非只有 DCGAN 才能生成圖片,這一點與我學 GAN 之前的認知大為不同。于是我就開始嘗試了使用原始的 GAN 來嘗試生成圖像,但接下來,我就開始懷疑人生了。

      在開始的時候我采用了 MINST 的數據集,按照我上一篇文章兔子哥哥帶你從零寫一個 GAN中提及的訓練 GAN 的方式中連續訓練原始 GAN 多次,得到的仍然全是噪點,并沒有一點手寫數字的影子。

      在嘗試多次后,未免讓我懷疑我是不是讀了假論文,自己是不是一只假兔子。

      帶你漫游 Wasserstein GAN

      在查閱多番資料后,在知乎偶遇到,令人拍案叫絕的 Wasserstein GAN - 知乎專欄 (下文簡稱 WGAN) 一文,不讀不知道,讀了簡直驚為天人。讀完之后,我打消了原本打算去學習 DCGAN 的念頭,改成繼續學習 WGAN。因此,本文兔子哥哥將會帶讀者一起來領略一下 WGAN 的風采。

      文章目錄如下:

      • 為什么原始 GAN 訓練困難重重?

      • WGAN 是什么鬼?

      • WGAN 的個人一些使用經驗總結

      為什么原始的 GAN 這樣問題重重?

      令人拍案叫絕的 Wasserstein GAN - 知乎專欄一文中提及(亦是論文中提及),原始 GAN 的優化目標經過一定的數學推斷后,可以等價于最小化真實分布 P(r) 與生成分布 P(g) 的 JS 散度。那么什么叫 JS 散度呢,為此我們先引出 KL 散度。

      KL 散度又稱 KL 距離,亦叫相對熵。這里先給出 KL 散度的公式:

      帶你漫游 Wasserstein GAN

      其中 p,g 為 x 的概率分布。在一定程度上,熵這個概念可以度量兩個隨機變量的距離,因此 KL 散度可衡量兩概率分布的差異,特別注意一點是該距離并非對稱距離,即:

      帶你漫游 Wasserstein GAN

      得知 KL 散度后,那么 JS 散度就很好理解了,JS 散度的表達式是

      帶你漫游 Wasserstein GAN

      顯然,JS 散度可以解釋成用 p 和 q 分布離 pq 的平均分布的相對熵來作為衡量 p,q 間的距離,這個時候,該距離就是對稱的了。其中經過數學式子的推斷,原始 GAN 的損失函數是可以改寫成以下式子:

      帶你漫游 Wasserstein GAN

      令人拍案叫絕的 Wasserstein GAN - 知乎專欄中分析了 p,q 各取 0 與非 0 時,對損失函數的影響,而得出的結論是,無論 p 和 q 的取值如何,其 JS 散度都是常數值 log2,既然是常數,優化就無從談起。

      而從另一個更加通俗的角度來說,在優化中,KL 散度和 JS 散度是突變的,這就導致了,如果 D 訓練得太好了,那么 G 就會被按在地上摩擦,進而訓練 G 的時候梯度將會梯度不穩定,但如過 D 太差了,G 的梯度不正確,會使得 G 往錯誤的方向前進。這么說來,就好像老婆和老媽掉進河里,你救誰一樣,怎么回答的火候是難以把握的。

      WGAN 是什么鬼

      故名思意,WGAN 就是指用 Wasserstein distance 來替代掉 JS 散度和 KS 散度來作為優化目標的 GAN 模型咯。

      那么,什么叫 Wasserstein 距離呢?

      下文引用于令人拍案叫絕的 Wasserstein GAN - 知乎專欄

      Wasserstein 距離又叫 Earth-Mover(EM)距離,定義如下:

      帶你漫游 Wasserstein GAN

      解釋如下:帶你漫游 Wasserstein GAN是Pγ和Pg組合起來的所有可能的聯合分布的集合,反過來說,帶你漫游 Wasserstein GAN中每一個分布的邊緣分布都是Pγ和Pg。對于每一個可能的聯合分布γ而言,可以從中采樣帶你漫游 Wasserstein GAN得到一個真實樣本x和一個生成樣本y,并算出這對樣本的距離帶你漫游 Wasserstein GAN,所以可以計算該聯合分布γ下樣本對距離的期望值帶你漫游 Wasserstein GAN。在所有可能的聯合分布中能夠對這個期望值取到的下界帶你漫游 Wasserstein GAN,就定義為 Wasserstein 距離。


      直觀上可以把帶你漫游 Wasserstein GAN理解為在這個 “路徑規劃” 下把Pγ這堆 “沙土” 挪到Pg“位置” 所需的 “消耗”,而帶你漫游 Wasserstein GAN就是 “最優路徑規劃” 下的 “最小消耗”,所以才叫 Earth-Mover(推土機)距離。

      而對于怎么把 Wasserstein 距離化作我們訓練中的損失函數,論文作者使用 Lipschitz 連續即一些已知的數學定理來使得目標函數轉化為

      存在函數f(w)其滿足 Lipschiz 連續,在帶你漫游 Wasserstein GAN取上界,此時就是 Wasserstein 距離。顯然這個函數可以用深度學習技術來擬合,而 Lipschitz 連續的限制,則可以通過限制每一層神經網絡的權重的取值范圍來控制。

      歸納起來,在 WGAN 中,D 的任務不再是盡力區分生成樣本與真實樣本,而是盡量擬合出樣本間的 Wasserstein 距離,從分類任務轉化成回歸任務。而 G 的任務則變成了盡力縮短樣本間的 Wasserstein 距離。

      故 WGAN 對原始 GAN 做出了如下改變:

      • D 的最后一層取消 sigmoid

      • D 的 w 取值限制在 [-c,c] 區間內。

      • 使用 RMSProp 或 SGD 并以較低的學習率進行優化 (論文作者在實驗中得出的 trick)

      WGAN 的個人一些使用經驗總結

      這些經驗是基于自身的實驗得出,僅供參考

      • WGAN 的論文指出使用 MLP,3 層 relu,最后一層使用 linear 也能達到可以接受的效果,但根據我實驗的經驗上,可能對于彩色圖片,因為其數值分布式連續,所以使用 linear 會比較好。但針對于 MINST 上,因為其實二值圖片,linear 的效果很差,可以使用 batch normalization + sigmoid 效果更好。

      • 不要在 D 中使用 batch normalization,估計原因是因為 weight clip 對 batch normalization 的影響

      • 使用逆卷積來生成圖片會比用全連接層效果好,全連接層會有較多的噪點,逆卷積層效果清晰。

      • 關于衡量指標,Wasserstein distance 距離可以很好的衡量 WGAN 的訓練進程,但這僅限于同一次,即你的代碼從運行到結束這個過程內。

      另外有一點,雖然在 WGAN 的論文里面把原始 GAN 說得那么不堪,但人家原始 GAN 在論文里面也是有成功生成圖片的例子,所以特別想問一句,如過有小伙伴用原始 GAN 生成過質量可觀的圖片的話,歡迎冒泡,交流一下。

      這個是我用 WGAN 用擬合出的 MINST 的效果,不算太理想,繼續訓練應該有較好效果,但 GAN 系列的收斂速度都好像有點感人。。。

      帶你漫游 Wasserstein GAN

      后話

      參考文獻:

      令人拍案叫絕的 Wasserstein GAN - 知乎專欄

      [1701.07875] Wasserstein GAN

      我的 Github,我的 WGAN 的代碼可在這里找到

      MashiMaroLjc/learn-GAN

      個人的學習總結,并非教程,僅供參考,如有錯誤,歡迎指出和交流。

      雷鋒網按:本文原作者兔子老大,原文來自他的知乎專欄

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      帶你漫游 Wasserstein GAN

      分享:
      相關文章

      編輯

      聚焦數據科學,連接 AI 開發者。更多精彩內容,請訪問:yanxishe.com
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 国产一区二区三区av高清| 美女毛片| 国产精品亚洲二区在线看| 色屁屁www影院免费观看| 午夜痒痒网| 麻豆国产成人av高清在线| 亚洲熟女豪乳视频| 国产成人A码男人的天堂国产乱| 欧美日韩中文字幕久久伊人| 伊人精品成人久久综合| 欧美丰满熟妇bbb久久久| 视频一区视频二区日韩专区| 秋霞无码一区二区| 温泉县| 人妻久久久一区二区三区| jizz喷水| 亚欧精品人妻| 国产欧美一区二区精品性色超碰| 亚洲成人免费在线| 成人国产精品免费网站| 免费va国产在线观看| 亚洲人成电影| 出租屋勾搭老熟妇啪啪| 日本韩无专砖码高清| 97人人模人人爽人人| 人妻熟女一区二区aⅴ林晓雪| 拜泉县| 伊人精品久久久大香线蕉| 中文字幕精品人妻在线| 人妻熟女欲求不满在线| 精品国模无码| 国产乱码一区二区三区| 99视频在线播放| 中文字幕亚洲天堂| 中文字幕日本人妻| 色五月人妻| 又粗又大网站| 亚洲综合A| 久热天堂| 丰满人妻一区二区三,| 国产超碰在线|