<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
      人工智能開發(fā)者 正文
      發(fā)私信給AI研習(xí)社-譯站
      發(fā)送

      0

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      本文作者: AI研習(xí)社-譯站 2018-07-24 09:54
      導(dǎo)語:與其他深度網(wǎng)絡(luò)相比,GAN 模型在多方面可能會受到嚴(yán)重影響。

      雷鋒網(wǎng) AI 研習(xí)社按:本文為雷鋒網(wǎng)字幕組編譯的技術(shù)博客,原標(biāo)題 GAN?—?Ways to improve GAN performance,作者為 Jonathan Hui 。

      翻譯 | 姚秀清  郭蘊(yùn)哲     校對 | 吳桐     整理 | 孔令雙

      與其他深度網(wǎng)絡(luò)相比,GAN 模型在以下方面可能會受到嚴(yán)重影響。

      • 不收斂:模型永遠(yuǎn)不會收斂,更糟糕的是它們變得不穩(wěn)定。

      • 模式崩潰:生成器生成單個或有限模式。

      • 慢速訓(xùn)練:訓(xùn)練生成器的梯度會消失。

      作為 GAN 系列的一部分,本文探討了如何改進(jìn) GAN 的方法。 尤其在如下方面,

      • 更改成本函數(shù)以獲得更好的優(yōu)化目標(biāo)。

      • 在成本函數(shù)中添加額外的懲罰以強(qiáng)制執(zhí)行約束。

      • 避免過度自信和過度擬合。

      • 更好的優(yōu)化模型的方法。

      • 添加標(biāo)簽。

      特征匹配

      生成器試圖找到最好的圖像來欺騙鑒別器。當(dāng)兩個網(wǎng)絡(luò)相互抵抗時,“最佳“圖像會不斷變化。 然而,優(yōu)化可能變得過于貪婪,并使其成為永無止境的貓捉老鼠游戲。這是模型不收斂且模式崩潰的場景之一。

      特征匹配改變了生成器的成本函數(shù),用來最小化真實圖像的特征與生成圖像之間的統(tǒng)計差異,即,它將目標(biāo)從擊敗對手?jǐn)U展到真實圖像中的特征匹配。 我們使用圖像特征函數(shù) f(x) 對真實圖像和生成圖像的均值間的L2范數(shù)距離來懲罰生成器。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      其中 f(x)  是鑒別器立即層的輸出,用于提取圖像特征。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      每個批次計算的實際圖像特征的平均值,都會波動。這對于減輕模式崩潰來說可能是個好消息。它引入了隨機(jī)性,使得鑒別器更難以過擬合。

      當(dāng) GAN 模型在訓(xùn)練期間不穩(wěn)定時,特征匹配是有效的。

      微批次鑒別

      當(dāng)模式坍塌時,創(chuàng)建的所有圖像看起來都相似。為了緩解這個問題,我們將不同批次的實際圖像和生成的圖像分別送給鑒別器,并計算圖像 x 與同一批次中其余圖像的相似度。 我們在鑒別器的一個密集層中附加相似度 o(x) ,來確定該圖像是真實的還是生成的。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      如果模式開始崩潰,則生成的圖像的相似性增加。鑒別器可以使用該分?jǐn)?shù)來檢測生成的圖像。這促使生成器生成具有更接近真實圖像的多樣性的圖像。

      圖像 xi 與同一批次中的其他圖像之間的相似度 o(xi) 是通過一個變換矩陣 T 計算得到的。如下所示,xi  是輸入圖像,xj 是同一批次中的其余圖像。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      方程式有點難以追蹤,但概念非常簡單。(讀者可以選擇直接跳到下一部分。)我們使用變換矩陣 T  將特征 xi  轉(zhuǎn)換為 Mi  , 一個 B×C 的矩陣。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      我們使用 L1 范數(shù)和下面的等式導(dǎo)出圖像 i  和 j  之間的相似度 c(xi, xj)  。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      圖像 xi 與批次中其余圖像之間的相似度 o(xi)  為

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      這里是回顧:

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      引用自論文“ Improved Techniques for Training GANs  ”

      微批次鑒別使我們能夠非常快速地生成視覺上吸引人的樣本,在這方面它優(yōu)于特征匹配。

      單面標(biāo)簽平滑

      深度網(wǎng)絡(luò)可能會過自信。 例如,它使用很少的特征來對對象進(jìn)行分類。 深度學(xué)習(xí)使用正則化和 Dropout 來緩解問題。

      在 GAN 中,我們不希望模型過擬合,尤其是在數(shù)據(jù)噪聲大時。如果鑒別器過分依賴于某一小組特征來檢測真實圖像,則生成器可能迅速模仿這些特征以擊敗鑒別器。在 GAN 中,過度自信的負(fù)面作用嚴(yán)重,因為鑒別器很容易成為生成器利用的目標(biāo)。為了避免這個問題,當(dāng)任何真實圖像的預(yù)測超過 0.9(D(實際圖像)> 0.9)時,我們會對鑒別器進(jìn)行懲罰。 這是通過將目標(biāo)標(biāo)簽值設(shè)置為 0.9 而不是 1.0 來完成的。 這里是偽代碼:

      p = tf.placeholder(tf.float32, shape=[None, 10])

      # Use 0.9 instead of 1.0.

      feed_dict = {

        p: [[0, 0, 0, 0.9, 0, 0, 0, 0, 0, 0]] # Image with label "3"

      }

      # logits_real_image is the logits calculated by 

      # the discriminator for real images.

      d_real_loss = tf.nn.sigmoid_cross_entropy_with_logits(

                          labels=p, logits=logits_real_image)

      歷史平均

      在歷史平均中,我們跟蹤最后 t  個模型的模型參數(shù)。 或者,如果我們需要保留一長串模型,我們會更新模型參數(shù)的運(yùn)行平均值。

      我們?yōu)槌杀竞瘮?shù)添加了如下的一個 L2 成本,來懲罰不同于歷史平均值的模型。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      對于具有非凸對象函數(shù)的 GAN,歷史平均可以迫使模型參數(shù)停止圍繞平衡點兜圈子,從而令其收斂。

      經(jīng)驗回放  

      為了擊敗生成器當(dāng)前產(chǎn)生的內(nèi)容,模型優(yōu)化可能變得過于貪婪。為了解決這個問題,經(jīng)驗回放維護(hù)了過去優(yōu)化迭代中最新生成的圖像。我們不僅僅使用當(dāng)前生成的圖像去擬合模型,而且還為鑒別器提供了所有最近生成的圖像。因此,鑒別器不會針對生成器某一特定時間段生成的實例進(jìn)行過度擬合。

      使用標(biāo)簽(CGAN)

      許多數(shù)據(jù)集都帶有樣本對象類型的標(biāo)簽。訓(xùn)練 GAN 已經(jīng)很難了。因此,對于引導(dǎo) GAN 的訓(xùn)練來說,任何額外的幫助都可以大大提高其性能。添加標(biāo)簽作為潛在空間 z 的一部分, 有助于 GAN 的訓(xùn)練。如下所示 , CGAN 中采用的數(shù)據(jù)流就充分利用了樣本的標(biāo)簽。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      成本函數(shù)

      成本函數(shù)重要嗎? 它當(dāng)然重要,否則那么多研究工作的心血都將是一種浪費(fèi)。但是如果你聽說過 2017 年 Google Brain 的一篇論文,你肯定會有疑慮。 但努力提升圖像質(zhì)量仍然是首要任務(wù)。因此在我們對成本函數(shù)的作用有一個明確的認(rèn)識之前,我們很有可能會看到研究人員仍在努力嘗試著不同的成本函數(shù)。

      下圖列出了一些常見 GAN 模型的成本函數(shù)。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      表格改動自這里:https://github.com/hwalsuklee/tensorflow-generative-model-collections

      我們決定不在本文中詳細(xì)介紹這些成本函數(shù)。實際上,如果您想了解更多信息,我們強(qiáng)烈建議您細(xì)致地閱讀這些文章中的至少一篇:WGAN/WGAN-GP,EBGAN / BEGAN,LSGAN,RGAN 和 RaGAN 。 在本文的最后,我們還列出了一篇更詳細(xì)地研究成本函數(shù)的文章。 成本函數(shù)是 GAN 的一個主要研究領(lǐng)域,我們鼓勵您稍后閱讀該文章。

      以下是某些數(shù)據(jù)集中的一些 FID 分?jǐn)?shù)(越低越好)。這是一個參考點,但需要注意的是,現(xiàn)在對于究竟哪些成本函數(shù)表現(xiàn)最佳下結(jié)論還為時尚早。 實際上,目前還沒有哪一個成本函數(shù)在所有不同數(shù)據(jù)集中都具有最佳表現(xiàn)。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      但缺乏好的超參數(shù)的模型不可能表現(xiàn)良好,而調(diào)參需要大量時間。所以在隨機(jī)測試不同的成本函數(shù)之前,請耐心地優(yōu)化超參數(shù)。

      實現(xiàn)技巧

      • 將圖像的像素值轉(zhuǎn)換到 -1 到 1 之間。在生成模型的最后一層使用 tanh 作為激活函數(shù)。

      • 在實驗中使用高斯分布對 z 取樣。

      • Batch normalization 可以讓訓(xùn)練結(jié)果更穩(wěn)定。

      • 上采樣時使用 PixelShuffle 和反卷積。

      • 下采樣時不要使用最大池化而使用卷積步長。

      • Adam 優(yōu)化通常比別的優(yōu)化方法表現(xiàn)的更好。

      • 圖像交給判別模型之前添加一些噪聲,不管是真實的圖片還是生成的。

      GAN 模型的動態(tài)特性尚未得到很好的解釋。所以這些技巧只是建議,其優(yōu)化結(jié)果如何可能存在差異。例如,提出 LSGAN 的文章指出 RMSProp 在他們的實驗中表現(xiàn)更加穩(wěn)定。這種情況非常稀少,但是也表明了提出普遍性的建議是非常困難的。

      Virtual batch normalization (VBN)

      Batch normalization 已經(jīng)成為很多深度神經(jīng)網(wǎng)絡(luò)設(shè)計中的事實標(biāo)準(zhǔn)。Batch normalization 的均值和方差來自當(dāng)前的 minibatch 。然而,它會在樣本之間創(chuàng)建依賴關(guān)系,導(dǎo)致生成的圖像不是彼此獨(dú)立的。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      下圖顯示了在使用同一個 batch 的數(shù)據(jù)訓(xùn)練時,生成的圖像有著相同的色調(diào)。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      上排圖像是橙色色調(diào),第二排圖像是綠色色調(diào)。 原文鏈接:https://arxiv.org/pdf/1701.00160v3.pdf

      本來, 我們對噪聲 z  是從隨機(jī)分布中采樣,為我們提供獨(dú)立樣本。然而,這種 batch normalization 造成的偏見卻抵消了 z 的隨機(jī)性。

      Virtual batch normalization (VBN) 是在訓(xùn)練前從一個 reference batch 中采樣。在前向傳播中,我們提前選擇一個 reference batch 為 batch normalization 去計算 normalization 的參數(shù)( μ 和 σ )。 然而,我們在整個訓(xùn)練過程中使用同一個 batch,會讓模型過擬合。為了解決這個問題,我們將 reference batch 與當(dāng)前 batch 相結(jié)合起來計算參數(shù)。

      隨機(jī)種子

      用于初始化模型參數(shù)的隨機(jī)種子會影響 GAN 的性能。 如下表所示,測量GAN性能的FID分?jǐn)?shù)在50次獨(dú)立運(yùn)行(訓(xùn)練)中有所不同。但是波動的范圍不大,并且可以在后續(xù)的微調(diào)中完成。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      原文

      一篇來自 Google Brain 的論文指出 LSGAN 偶爾會在某些數(shù)據(jù)集中失敗或崩潰,并且需要使用另一個隨機(jī)種子重新啟動訓(xùn)練。

      Batch normalization

      DGCAN 強(qiáng)力建議在網(wǎng)絡(luò)設(shè)計中加入 batch normalization 。 Batch normalization 的使用也成為許多深度網(wǎng)絡(luò)模型的一般做法。 但是,也會有例外。 下圖演示了 batch normalization 對不同數(shù)據(jù)集的影響。 y 軸是 FID 得分,越低越好。 正如 WGAN-GP 論文所建議的那樣,當(dāng)使用成本函數(shù) WGAN-GP 時,不應(yīng)該使用 batch normalization 。 我們建議讀者檢查 batch normalization 上使用的成本函數(shù)和相應(yīng)的FID性能,并通過實驗驗證來設(shè)置。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      對原文有所修改

      多重 GANs

      模式崩潰可能并不全是壞事。 實際上,當(dāng)模式崩潰時,圖像質(zhì)量通常會提高。 實際上,我們可以會為每種模式收集最佳模型,并使用它們來重建不同的圖像模式。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      原文

      判別模型和生成模型之間的平衡

      判別模型和生成模型總是處于拉鋸戰(zhàn)中以相互削弱。生成模型積極創(chuàng)造最好的圖像來擊敗判別模型。 但如果判別模型響應(yīng)緩慢,生成的圖像將收斂,模式開始崩潰。 相反,當(dāng)判別模型表現(xiàn)良好時,原始生成模型的成本函數(shù)的梯度消失,學(xué)習(xí)速度慢。 我們可以將注意力轉(zhuǎn)向平衡生成模型和判別模型之間的損失,以便在訓(xùn)練 GAN 中找到最佳位置。 不幸的是,解決方案似乎難以捉摸。 在判別模型和生成模型之間的交替梯度下降中,定義它們之間的靜態(tài)比率似乎是有效的,但也有很多人懷疑它的效果。 如果說已經(jīng)有人做過這件事的話,那就是研究人員每訓(xùn)練生成模型5次再更新判別模型的嘗試了。 其他動態(tài)平衡兩個網(wǎng)絡(luò)的建議僅在最近才引起關(guān)注。 

      另一方面,一些研究人員認(rèn)為平衡這些網(wǎng)絡(luò)的可行性和愿景是很困難的。 訓(xùn)練有素的判別模型無論如何都能為生成模型提供高質(zhì)量的反饋。 然而訓(xùn)練生成模型使之能與判斷模型抗衡也并不容易。 相反,當(dāng)生成模型表現(xiàn)不佳時,我們可能會將注意力轉(zhuǎn)向?qū)ふ也痪哂薪咏闾荻鹊某杀竞瘮?shù)。

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      然而問題仍然是存在的。 人們提出了許多建議,研究者們對什么是最好的損失函數(shù)的爭論仍在繼續(xù)。

      判別模型和生成模型的網(wǎng)絡(luò)容量 

      判別模型通常比生成模型更復(fù)雜(有更多濾波器和更多層),而良好的判別模型可以提供高質(zhì)量的信息。 在許多 GAN 應(yīng)用中,當(dāng)增加生成模型容量并沒有帶來質(zhì)量上的改進(jìn)時,我們便遇到了瓶頸。 在我們確定遭遇了瓶頸并解決這個問題之前,增加生成模型容量不會成為優(yōu)先考慮的選項。 

      延伸閱讀

      在本文中,我們沒有對損失函數(shù)的改進(jìn)做進(jìn)一步的說明。 這是一個重要的研究內(nèi)容,我們建議讀者點擊下面的鏈接,對其有進(jìn)一步的了解。

      GAN?—?A comprehensive review into the gangsters of GANs (Part 2)

      這篇文章介紹了改進(jìn) GAN 的動機(jī)和方向。在 medium.com 了解更多

      一些 GAN 的酷酷的應(yīng)用:

      GAN?—?Some cool applications of GANs.

      我們在 GAN 開發(fā)的最初幾年取得了不錯的進(jìn)展。 不會再有只有郵票這么小分辨率的面部圖像……在 medium.com 了解更多

      本系列所有文章:

      GAN?—?GAN Series (from the beginning to the end)

      一個涵蓋了 GAN 的應(yīng)用、問題和解決方案的文章列表。

      參考文獻(xiàn):

      Improved Techniques for Training GANs

      原文鏈接:

      https://towardsdatascience.com/gan-ways-to-improve-gan-performance-acf37f9f59b

      雷鋒網(wǎng) AI 研習(xí)社編譯。

      號外號外~

      一個專注于

      AI技術(shù)發(fā)展和AI工程師成長的求知求職社區(qū)

      誕生啦!

      歡迎大家訪問以下鏈接或者掃碼體驗

      https://club.leiphone.com/page/home

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

      模型不收斂,訓(xùn)練速度慢,如何才能改善 GAN 的性能?

      分享:
      相關(guān)文章

      知情人士

      AI研習(xí)社(yanxishe.com)譯站頻道,傳播前沿人工智能知識,讓語言不再成為學(xué)習(xí)知識的門檻。(原雷鋒字幕組)
      當(dāng)月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 鲁鲁狠狠狠7777一区二区| 狠狠色综合网站久久久久久久| 鹤山市| 337p粉嫩大胆噜噜噜| 久久久噜噜噜久久中文字幕色伊伊| 国产精品VA在线观看老妇女| 国语自产精品视频在线看| 康保县| 国产精成人品| 人人插插| 国产精品无码永久免费888| 女同另类激情在线三区| 国产精品国三级国产专区| 亚洲偷| 亚洲午夜福利一区二区| 久久久国产精品消防器材| 策勒县| 少妇特殊按摩高潮惨叫无码| 极品熟女精品| 色色资源网| 国产一级小视频| 日本阿v精品视频在线观看| 国产麻豆91网在线看| 公交车上荫蒂添的好舒服的视频 | 林周县| 豆国产97在线 | 亚洲| 亚洲成年网| 动漫av网站免费观看| 日韩激烈无码| 久久亚洲v无码专区成人| 久久久久久久久18禁秘| 国产成人高清亚洲综合| 神马午夜久久精品人妻| 国产成人综合久久二区| 久久久久女教师免费一区| 中文字幕无线精品亚洲乱码一区| 在线观看国产精品普通话对白精品| 兴宁市| 中文字幕A片免费观看| 国产精品一区二区久久沈樵 | 国产成人啪精品视频免费软件|