<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能學術 正文
      發私信給我在思考中
      發送

      0

      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計

      本文作者: 我在思考中 2021-08-20 14:45
      導語:該篇工作由杭州師范大學和浙江大學合作完成。該文章提出了一個新的在線知識蒸餾框架OKDHP去對人體姿態估計模型進行提升。
      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計
      作者 | 李政
      編輯 | 王曄

      分享一篇最近被ICCV 2021接收的工作《Online Knowledge Distillation for Efficient Pose Estimation》,利用在線知識蒸餾進行高效2D人體姿態估計。

      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計

      論文地址: https://arxiv.org/abs/2108.02092

      該篇工作由杭州師范大學和浙江大學合作完成。該文章提出了一個新的在線知識蒸餾框架OKDHP去對人體姿態估計模型進行提升。特別地,OKDHP訓練了一個多分支網絡,其中每個分支都被當做獨立的學生模型,這里的教師不是顯式存在的,而是通過加權集成多個分支的結果后形成的集成heatmap來扮演教師的作用,通過優化像素級別的KL Divergence損失來優化每個學生分支模型。整個訓練過程被簡化到了one-stage,不需要額外預訓練的教師模型。作者在MPII和COCO上都證明了該方法的有效性。


      1

      引言
      主流的2D姿態估計方法大多數都是基于Hourglass Network[1](HG),典型的工作有[2],[3],[4]。其含有多個堆疊的Hourglass,通常有2-stack, 4-stack, 8-stack類型。后一個Hourglass將前一個Hourglass的結果作為輸入,不斷進行refine,直到結尾。8-stack的結果要明顯好于4-stack,但是與之而來的問題就是計算量明顯的增加。

      FPD[5](CVPR 19')首先提出,利用傳統的蒸餾(KD)方法,首先訓一個8-stack HG作為teacher,選擇一個4-stack HG作為student,然后進行KD。參考Fig. 1。

      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計Fig. 1 FPD (CVPR 19')

      那么這篇工作明顯存在著幾點問題:

      (1). 第一步訓練teacher,第二步訓student,整體是一個two-stage的過程,較為繁瑣。

      (2). 如果要利用FPD訓練一個8-stack HG的student,就需要找到一個比8-stack更高的model去作為teacher。堆疊更多的HG會存在性能收益遞減,并且帶來計算量直線上升。

      (3). KD過程中同時使用MSE作為傳統任務的監督loss和kd loss,訓練時一個output同時針對兩個target進行優化會帶來明顯的沖突。

      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計Fig.2 Network Comparison


      2

      方法
      由以上的幾個問題就引出了我們ICCV 2021的工作,我們首先提出了利用在線知識蒸餾的方法去對網絡進行訓練。用大白話來概括一下工作的幾個核心:

      (1). 我們提出了一個在線知識蒸餾的框架,即一個多分支結構。這里的teacher不是顯式存在的,而是通過多個學生分支的結果經過了FAU的ensemble形成的,即established on the fly,我們利用ensemble得到的結果(擁有更高的準確率)來扮演teacher的角色,來KD每個的學生分支,即在Fig.2 (b)中的三個小分支。

      具體來說就是,如果要得到一個4-stack HG的網絡,FPD的方式如(a)所示,先訓練一個8-stack,然后進行KD。而在我們的方法,如圖(b),直接建立一個多分支網絡(圖中為3個分支),其中每個分支視為student,要得到一個4-stack HG,那么我們選擇在前部share 2個stack(節約計算量),后面針對每一個branch,我們將剩下的2個stack HG獨立出來,以保持diversity。三個分支產生的結果經過FAU進行ensemble,得到的ensemble heatmap再KD回每一個student分支。

      我們的方法帶來的直接的好處就是,整個的KD過程簡化到One-stage,并且不需要手動的選擇一個更高performance的teacher來進行KD。Online KD的方法直接訓練完了之后,選擇一個最好性能的分支,去除掉其他多余分支結構即可得到一個更高acc的目標HG網絡。

      那么從這里也可以直接看出我們的多分支網絡更省計算量,粗略的算,FPD的方法總共會需要8+4=12個stack參與計算,我們的方法,只會有2x4=8個stack進行計算。

      (針對diversity的問題提一下,在OKDDip[6]中就有提及,針對這樣的一個多分支模型,每個分支之間的diversity是需要考慮的,對于每個分支,如果共享的stage過多,那么留給剩下分支的優化空間就會被明顯縮小,分支之間在訓練的過程中會顯式的趨于同質化,進而帶來的結果就是ensemble結果準確率的下降。與之相反,獨立的HG數量越多也可以帶來KD性能的提升,分支數量同理,詳情請參考paper中的Table 7和8。我們在paper中將共享的HG數量設定為目標網絡HG數量的一半,即目標網絡8-stack,整個網絡就共享4-stack。)

      (2). 既然是一個多分支結構,那么每個分支的情況可不可以是adaptive的?既然在分支里更多的stack可以產生更好的heatmap,那么必然也就會帶來ensemble結果的提升,進而KD的效果就會更好。于是針對(b)的這種每個分支都是一樣的balance的結構,我們更進一步提出了unbalance結構

      具體的來說,要KD得到一個4-stack HG,即Fig.2 (c)中的第一個branch,2+2=4個stack的主分支,通過在輔助分支堆疊更多的HG來產生更好的ensemble結果,這里就是第二個分支是2+4=6個stack,第三個分支2+6=8個stack的情況。

      在不考慮訓練計算量的情況下,在部署時移除輔助分支,相比于balance結構,可以得到更好的target student,即目標的4-stack HG。

      (3). 這里的FAU,即Feature Aggregation Unit,是用來對每個分支產生的結果進行一個帶有weight的channel-wise的ensemble。即將每個heatmap按照生成的權重進行集成。具體的結構如Fig.3所示。

      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計Fig.3 Feature Aggregation Unit

      針對人體姿態估計這種場景下,其實是存在著很多的尺度變化問題,就比如一個人在一張圖片中,既可以是貼的很近,占滿了整張圖片,也可以是離得很遠,只在圖片中占小小的一個部分。受到SKNet[7]的啟發,在原先的3x3, 5x5的基礎上,我拓展出了7x7和avg pool來捕捉更大范圍的信息,進而來生成對應每個分支產生的heatmap的weight。消融實驗證明了FAU確實是要比普通的attention方法提高更多。(小聲:avg pool這branch我做了實驗試了一下,有一丁丁的提升,灰常小)

      另外值得一提的是,我們的OKDHP方法不僅是對于hourglass類別的網絡有著明顯的提升,對于其他的pose estimation網絡也有效果,我們將其拓展到了一個非常lightweight且能夠real time進行pose estimation的開源實現MobilePose[8]上面,(在paper的末尾位置的Supplementary Material里)

      這里的MobilePose可以粗略的將這個網絡分為encoder(backbone)和decoder部分。我們選擇去share整個的encoder部分,然后建立三個獨立的分支,每個獨立的分支都對應一個完整的decoder部分。FAU結構保持不變。結果如下:

      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計

      可以看到,對于更加輕量化的backbone結果,我們的OKDHP方法可以獲得更明顯的漲點。


      3

      實驗部分
      在MPII validation和testing set上

      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計

      在Fig. 5上,我們針對2-stack,4-stack和8-stack都進行了實驗,默認的實驗條件是3分支結構。共享的HG數量是整個目標網絡HG的一半,即要訓練一個8-stack HG,會share 4個HG,獨立4個HG。FAU結構不隨HG數量改變。

      更進一步對比我們的Balance和Unbalance結構:

      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計

      更為具體的Unbalance結構的精度情況:

      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計

      這里面也就對應上了Fig. 1(c)里面的結構,target就是一個4-stack HG的網絡,那么這里選擇6-stack和8-stack作為輔助分支,確實是取得了更好的結果。

      在COCO val 2017上,

      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計

      也有不錯的性能提升。

      Acknowledegment:

      我們非常感謝浙大的陳德仿博士給出的非常nice的建議和討論。

      參考
      1. ^Stacked hourglass networks for human pose estimation. ECCV 16'

      2. ^Multi-Context Attention for Human Pose Estimation. CVPR 17'

      3. ^Learning Feature Pyramids for Human Pose Estimation. ICCV 17'

      4. ^Multi-Scale Structure-Aware Network for Human Pose Estimation. ECCV 18'

      5. ^Fast Human Pose Estimation. CVPR 19'

      6. ^Online Knowledge Distillation with Diverse Peers. AAAI 2020

      7. ^Selective kernel networks. CVPR 19'

      8. ^https://github.com/YuliangXiu/MobilePose-pytorch

      雷鋒網雷鋒網雷鋒網

      雷峰網特約稿件,未經授權禁止轉載。詳情見轉載須知。

      ICCV 2021 | 利用在線知識蒸餾進行高效2D人體姿態估計

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 老色鬼在线精品视频在线观看| AV无码中文| 免费无遮挡无码视频在线观看| 亚洲激情一区二区三区在线| 国产精品国产AV片国产| 国产97色在线 | 中国| 株洲市| 亚洲久悠悠色悠在线播放| 东京热大乱w姦| www.jizz国产| 国产精品一区中文字幕| 7777精品久久久大香线蕉| 国产品精品久久久久中文| 男人的天堂av一二区| 国产精品一区二区三乱码| 亚洲 欧美 国产 日韩 中文字幕| 五月丁香色综合久久4438| 91丝袜在线| 国产成人啪精品视频免费软件| 尤物一区| 激情综合网激情激情五月天| 亚洲成A人片在线观看无码不卡 | 久久精品国产99久久六动漫| 人妻二区| 国产真实乱XXXⅩ视频| 日本另类αv欧美另类aⅴ| 军事| 国产女同疯狂作爱系列| 互助| 国产午夜大地久久| 色中色AV| 潮喷无码正在播放| 亚洲av二区| JIZZJIZZJIZZ亚洲日本| 看亚洲一级黄色片啪啪啪| 99r精品| 中文字幕av在线| 亚洲一区二区人妻| 亚洲AV日韩AV激情亚洲| 两个人的视频全免费观看在线| 亚洲人成网站在线观看播放不卡|