<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給AI研習社-譯站
      發送

      0

      如何優化你的圖像分類模型效果?

      本文作者: AI研習社-譯站 2019-05-27 11:24
      導語:圖像分類是一個認為幾乎解決了的問題。

      如何優化你的圖像分類模型效果?

      本文為 AI 研習社編譯的技術博客,原標題 :

      Boost your Image Classification Model

      作者 | Aditya Mishra

      翻譯 | MichaelChen      編輯 | 鄧普斯?杰弗、咩咩咩魚

      原文鏈接:

      https://towardsdatascience.com/boost-your-image-classifier-e1cc7a56b59c

      圖像分類是一個認為幾乎解決了的問題。有趣的是,你必須竭盡所能來提升額外的1%的準確率。當我參加“ Intel Scene Classification Challenge hosted by Analytics Vidhya(由Analytics Vidhya主辦的英特爾場景分類挑戰)”我非常喜歡這次比賽,因為我嘗試從我的深度學習模型中榨干所有的潛力。下面的技術通常是可以應用到手頭上的任何圖像分類問題中去。

        問題

      下面的問題是把給定的圖片分類到下面的6個類別中去。

      如何優化你的圖像分類模型效果?

      數據類別

      數據中包含25,000張自然風景的圖片,這些圖片來自世界各地。

        漸進的(圖片)尺寸調整

      當訓練CNN模型的時候,從小到大的線性調整圖片尺寸是一項技術。漸進的尺寸調整在很贊的fastai課程中被描述為:程序員的深度學習實踐。一種不錯的方式是先用小的尺寸,如64 x 64進行訓練,再用這個模型的參數,在128 x 128尺寸上進行訓練,如此以往。每個較大的模型都在其體系結構中包含以前較小的模型層和權重。

      如何優化你的圖像分類模型效果?

      漸進的尺寸調整

        FastAI

      如何優化你的圖像分類模型效果?

      fastai庫是一個強大的深度學習庫。如果fastai團隊找到了一篇很感興趣的論文,他們會在不同的數據集上進行測試,并實現調參。一旦成功,就會被合并到他們的庫,并且對它的用戶開放閱讀。這個庫包含了很多內置的先進的技巧。基于pytorch,fastai對于大多數任務都有很好的默認參數。部分技巧包括:

      1. 周期性學習率

      2. 一個周期的學習

      3. 結構化數據的深度學習

        完整的權重初始化

      在查看可用的標準數據集時,我偶然發現了Place365數據集。Place365數據集包含365種風景分類的1,800,000張圖片。本次挑戰賽提供的數據集與這個數據集很相似,所以在這個數據集訓練的模型,具有一些學習的特征,與我們分類的問題是相關的。由于我們的問題中的類別是Place365數據集的子集,所以我使用了一個用Place365權重初始化的ResNet50模型。

      這個模型的權重在“pytorch weights”中提供。下面使用的實用函數幫助我們正確地將數據加載到fastai的CNN學習器中。

      如何優化你的圖像分類模型效果?

        混合增強

      混合增強是一種通過對已有的兩幅圖像進行加權線性插值,來形成新圖像的增強方法。我們取兩張圖像,然后使用這些圖像的張量進行線性組合。

      如何優化你的圖像分類模型效果?

      混合增強

      λ是服從beta分布的隨機采樣。雖然論文的作者建議使用 λ=0.4,但是fastai的庫默認值設為0.1。

      如何優化你的圖像分類模型效果?

      fastai中的混合增強

        學習率調優

      學習率是訓練神經網絡中最重要的超參數之一。fastai有一種方法來找出合適的初始學習速率。這個技術被稱作循環學習率,我們用較低的學習率進行試驗,并以指數形式增加,記錄整個過程的損失。然后我們根據學習率繪制損失曲線,并選擇損失值最陡峭處的學習率。

      如何優化你的圖像分類模型效果?

      fastai中的LR Ffinder

      如何優化你的圖像分類模型效果?

      在學習率為1e-06時,損失最陡峭

      這個庫還為我們自動的處理帶有重新啟動的隨機梯度下降(SGDR)。在SGDR中,學習率在每次迭代開始時會重新設置為原始選擇的數值,這些數值會隨著迭代減小,就像余弦退火一樣。這么做的主要收益是,由于學習率在每次迭代的開始可以重置,因此學習器能夠跳出局部極小值或鞍點。

      如何優化你的圖像分類模型效果?

      fastai中帶有重啟的隨機梯度下降

        通用對抗網絡

      生成式對抗網絡(GAN是Generative Adversarial Networks的縮寫)在2014年被Ian Goodfellow提出,GANs是由兩個網絡組成的深層神經網絡結構,它們相互競爭。 GANs可以模擬任何數據分布。他們可以學習生成類似原始數據的數據,而且可以是任何領域——圖像、語音、文本等等。我們使用fastai的Wasserstein GAN的實現來生成更多的訓練數據。

      GANs包括訓練兩個神經網絡,一個被稱為生成器,它生成新的數據實例,另一個被稱為判別器,它對它們進行真實性評估,它決定每個數據實例是否屬于實際的訓練數據集。你可以從這個鏈接查閱更多。

      https://github.com/fastai/course-v3/blob/master/nbs/dl1/lesson7-wgan.ipynb

      如何優化你的圖像分類模型效果?

      GAN生成樣本圖片

        去除混淆的圖像

      訓練神經網絡的第一步不是寫任何的神經網絡的代碼,而是徹底觀察你的數據。這一步至關重要。我喜歡花費大量的時間(以小時為單位)瀏覽數千張樣例,理解他們的分布,尋找他們的模式。——Andrej Karpathy

      正如Andrej Karpathy所說,“數據調查”是一個重要的一步。關于數據調查,我發現很多數據包含不少于兩種的類別。

      方法-1

      使用之前訓練的模型,我對整個訓練數據進行了預測。然后丟棄概率得分超過0.9但是預測錯誤的圖像。下面這些圖像,是模型明顯錯誤分類的。深入觀察以后,我發現這些圖像是被人工錯誤分類了。

      如何優化你的圖像分類模型效果?

      混淆的圖像

      有些圖像的預測概率在0.5到0.6之間,理論上可能是這個圖像表現出不止一個類別,所以模型給他們分配了相同的概率,我也把這些圖像剔除了。觀察這些圖像,這個理論最終被證明是正確的。

      方法 2

      fast.ai提供了一個方便的插件“圖像清理器插件”,它允許你為自己的模型清理和準備數據。圖像清理器可以清洗不屬于你數據集的圖像。它在一行中呈現圖像,使你有機會在文件系統中刪除文件。

      如何優化你的圖像分類模型效果?

        測試時間增加

      測試時間的增加包括提供原始圖像的一系列不同的版本,并把他們傳遞到模型中。從不同的版本中計算出平均值,并給出圖像的最終輸出。

      如何優化你的圖像分類模型效果?

      fast.ai中測試時間的增加

      之前提出的10-crop技巧跟此技巧類似。我首先在殘差網絡的論文中讀到了10-crop技巧。10-crop技巧包括沿著四角和中心點各裁剪一次,得到五張圖像。反向重復以上操作,得到另外五張圖像,一共十張。測試時間增加的方法無論如何比10-crop技巧要快。雷鋒網雷鋒網雷鋒網

        集成

      機器學習中的集成是一種使用多種學習算法的技術,這種技術可以獲得比單一算法更好的預測性能。集成學習最好在下面的條件下工作:

      1. 組成模型具有不同的性質。比如,集成ResNet50和InceptionNet要比組合ResNet50和InceptionNet有用的多,因為它們本質上是不同的。

      2. 組成模型的相關性較低。

      3. 改變模型的訓練集,能得到更多的變化。

      在本例中,我通過選擇最大發生類來集成所有模型的預測。如果有多個類有最大出現的可能,我隨機選擇其中的一個類。

      結果:

      公開排行榜——29名(0.962)

      私人排行榜——22名(0.9499)

        結論

      1. 漸進的尺寸調整在開始時是一個好主意。

      2. 花時間去理解你的數據并且可視化是必須的。

      3. 像fastai這種具有出色的初始化參數的出色的深度學習庫,確實有幫助。

      4. 只要有可能,就要盡量使用遷移學習,因為確實有用。最近,深度學習和遷移學習已經應用到了結構化數據,所以遷移學習絕對應該是首先要嘗試的事情。

      5. 最先進的技術例如混合增強,測試時間增加,周期學習率將毫無疑問的幫助你將準確率提高1到2個百分點。

      6. 始終搜索與你的問題相關的數據集,并且把他們盡可能的用在你的訓練數據集中。如果可能,深度學習模型在這些模型上訓練之后,使用他們的參數作為你模型的初始權重。

      想要繼續查看該篇文章相關鏈接和參考文獻?

      點擊如何優化你的圖像分類模型效果?即可訪問:

      https://ai.yanxishe.com/page/TextTranslation/1724

      社長今日推薦:2017春季CS231n斯坦福深度視覺

      李飛飛主講王牌課程,計算機視覺的深化課程,神經網絡在計算機視覺領域的應用,涵蓋圖像分類、定位、檢測等視覺識別任務,以及其在搜索、圖像理解、應用、地圖繪制、醫學、無人駕駛飛機和自動駕駛汽車領域的前沿應用。

      本課程完全免費!加入小組即可立即觀看!

      課程鏈接:https://ai.yanxishe.com/page/groupDetail/19


      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

      如何優化你的圖像分類模型效果?

      分享:
      相關文章

      知情人士

      AI研習社(yanxishe.com)譯站頻道,傳播前沿人工智能知識,讓語言不再成為學習知識的門檻。(原雷鋒字幕組)
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 免费无码av片在线观看网址| 91丨国产丨白浆秘?3D动漫| 天天日夜夜| AV免费网站| 日日爽日日操| 精品亚洲无人区一区二区| 少妇高潮喷水久久久影院| 337p日本欧洲亚洲大胆色噜噜| av熟女一区二区久久| 太仆寺旗| 精品视频无码一区二区三区| 特级aa毛片在线播放| 一本一本久久aa综合精品| 国产色精品vr一区二区| 天长市| 肉大榛一出一进免费观看| 欧美精品99久久久| 色综合网址你懂的| 亚洲日本三级| 中文字幕熟女| 亚洲中文字幕av| 国产农村老熟女乱子综合| 55大东北熟女啪啪嗷嗷叫| 国产成人精品午夜二三区波多野| 久久综合激情网| 亚洲熟妇AV一区二区三区下载| 国内综合精品午夜久久资源 | 国产欧美一区二区精品久久久 | 极品人妻系列| 亚洲天堂中文字幕| 激情伊人五月天久久综合| 安徽省| 英山县| 国内精品久久久久影院老司机| 亚洲精品9999久久久久无码| 成人区人妻精品一熟女| 日韩亚洲欧美中文高清| av无码国产精品色午夜| 人人妻人人澡人人爽秒播| 国产成人久久| 好男人在在线社区www在线影院|