<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
      人工智能 正文
      發(fā)私信給楊曉凡
      發(fā)送

      0

      曠視論文三連發(fā),揭秘COCO +Places 2017比賽獲獎模型

      本文作者: 楊曉凡 2017-11-26 19:25
      導(dǎo)語:圍觀孫劍團隊的學(xué)術(shù)風(fēng)采

      雷鋒網(wǎng) AI 科技評論按:今年 ICCV 2017會議期間,COCO +Places 2017挑戰(zhàn)賽公布了獲獎榜單。在COCO Challenge 和 Places Challenge 兩個板塊的七項比賽中,曠視科技(Face++)拿下了 COCO Detection/Segmentation Challenge(檢測/分割)、COCO Keypoint Challenge(人體關(guān)鍵點檢測)、Places Instance Segmentation(實體分割)三個項目的冠軍。

      曠視論文三連發(fā),揭秘COCO +Places 2017比賽獲獎模型

      曠視論文三連發(fā),揭秘COCO +Places 2017比賽獲獎模型

      有趣的是,Places Challenge 中允許提交五次成績,曠視在實體分割項目上第一次提交的成績就以0.27717 Mean AP遠遠甩開了其它隊伍中的最好成績0.24150,最終的第三次提交更繼續(xù)提升到了0.29772,穩(wěn)坐第一名。

      近日,曠視科技就在arXiv上連發(fā)三篇論文,內(nèi)容包括了自己在COCO +Places 2017挑戰(zhàn)賽中的獲獎模型。雷鋒網(wǎng) AI 科技評論把這三篇論文簡單介紹如下,感興趣的讀者歡迎查看原論文仔細研究。

      Light-Head R-CNN: In Defense of Two-Stage Object Detector

      • 輕量頭部 R-CNN:守護兩階段物體檢測器的尊嚴

      • 論文地址:https://arxiv.org/abs/1711.07264 

      • 論文簡介:這篇論文中,作者們首先探究了典型的兩階段物體檢測方法沒有YOLO和SSD這樣的單階段檢測方法運行速度快的原因。他們發(fā)現(xiàn),F(xiàn)aster R-CNN 和 R-FCN 在候選區(qū)域產(chǎn)生前或后都會進行高強度的計算。Faster R-CNN 在候選區(qū)域識別后有兩個全連接層,而 R-FCN 會產(chǎn)生一張很大的分數(shù)表。這些網(wǎng)絡(luò)由于有這樣的高計算開銷的設(shè)計,運行速度就較慢。即便作者們嘗試大幅度縮減基準(zhǔn)模型的大小,計算開銷也無法以同樣幅度減少。

        作者們在論文中提出了一個新的兩階段檢測器,Light-Head R-CNN,輕量頭部 R-CNN,意在改善當(dāng)前的兩階段方法中計算開銷大的缺點。在他們的設(shè)計中,通過使用小規(guī)模的feature map和小規(guī)模的R-CNN子網(wǎng)絡(luò)(池化層和單個全連接層),網(wǎng)絡(luò)的頭部被做得盡可能輕量化。作者們基于ResNet-101構(gòu)造了一個輕量頭部的R-CNN網(wǎng)絡(luò),在COCO數(shù)據(jù)集上超越當(dāng)前最好水準(zhǔn)的同時還保持了很高的時間效率。更重要的是,只要把骨干結(jié)構(gòu)換成一個較小的網(wǎng)絡(luò)(比如 Xception),作者們的 Light-Head R-CNN 就可以在COCO數(shù)據(jù)集上以102FPS的運行速度得到30.7mmAP的成績,在速度和準(zhǔn)確率兩個方面都明顯好于YOLO和SSD這樣的快速單階段檢測方法。相關(guān)代碼將會公開發(fā)布。

      曠視論文三連發(fā),揭秘COCO +Places 2017比賽獲獎模型

      檢測精度與推理時間對比圖


      Cascaded Pyramid Network for Multi-Person Pose Estimation

      • 用于多人姿態(tài)估計的級聯(lián)金字塔網(wǎng)絡(luò)CPN

      • COCO Keypoint Challenge 第一名

      • 論文地址:https://arxiv.org/abs/1711.07319 

      • 論文簡介:多人姿態(tài)估計這個課題的研究成果近期有了很大的提升,尤其是在卷積神經(jīng)網(wǎng)絡(luò)快速發(fā)展的幫助下。然而,還是有許多情境會造成檢測困難,比如關(guān)鍵點重疊、關(guān)鍵點不可見以及背景復(fù)雜的情況都還解決得不理想。在這篇論文中,作者們提出了一種新的網(wǎng)絡(luò)結(jié)構(gòu) Cascaded Pyramid Network,級聯(lián)金字塔網(wǎng)絡(luò) CPN,意在解決這些困難情境下的關(guān)鍵點識別問題。具體來說,他們的算法包含兩個階段,GlobalNet 和 RefineNet。GlobalNet 是一個特征金字塔網(wǎng)絡(luò),它可以找到所有“簡單”的關(guān)鍵點,比如眼、手;重疊的或者不可見的關(guān)鍵點就可能無法準(zhǔn)確識別。然后RefineNet 是專門用來處理“難”的關(guān)鍵點的,它會把 GlobalNet 中所有級別的特征表征和一個難關(guān)鍵點的挖掘損失集成到一起。總的來說,為了解決多人姿態(tài)預(yù)測問題,他們采用了一個逐步細化的流水線,首先用檢測器生成一組邊界框,框出圖中的人體,然后用級聯(lián)金字塔網(wǎng)絡(luò) CPN在每個人體邊界框中定位關(guān)鍵點。

        根據(jù)所提的算法,作者們在COCO的關(guān)鍵點檢測比賽中刷新了最好成績,在COCO test-dev 數(shù)據(jù)集上取得73.0的平均精度,并在COCO test-challenge 數(shù)據(jù)集上取得72.1的平均精度。這一成績比COCO 2016 關(guān)鍵點檢測比賽的最好成績60.5提升了19%之多。

      曠視論文三連發(fā),揭秘COCO +Places 2017比賽獲獎模型

      CPN 的部分檢測結(jié)果

      MegDet: A Large Mini-Batch Object Detector

      • mini-batch很大的物體檢測模型MegDet

      • COCO Detection/Segmentation Challenge 第一名

      • 論文地址:https://arxiv.org/abs/1711.07240 

      • 論文簡介:基于CNN的物體檢測研究一直在不斷進步,從 R-CNN 到 Fast/Faster R-CNN,到近期的 Mask R-CNN,再到 RetinaNet,主要的改進點都在于新的網(wǎng)絡(luò)架構(gòu)、新的范式、或者新的損失函數(shù)設(shè)計。然而mini-batch大小,這個訓(xùn)練中的關(guān)鍵因素并沒有得到完善的研究。在這篇論文中,作者們提出了一個大mini-batch物體檢測模型MegDet,從而可以使用遠大于以往的mini-batch大小訓(xùn)練網(wǎng)絡(luò)(比如從16增大到256),這樣同時也可以高效地利用多塊GPU聯(lián)合訓(xùn)練(在論文的實驗中最多使用了128塊GPU),大大縮短訓(xùn)練時間。技術(shù)層面上,作者們也了提出了一種學(xué)習(xí)率選擇策略以及跨GPU的batch normalization方法,兩者共同使用就得以大幅度減少大mini-batch物體檢測器的訓(xùn)練時間(例如從33小時減少到僅僅4個小時),同時還可以達到更高的準(zhǔn)確率。文中所提的MegDet就是提交到COCO2017比賽的mmAP 52.5%成績背后的骨干結(jié)構(gòu),這個成績也拿下了檢測任務(wù)的第一名。

      曠視論文三連發(fā),揭秘COCO +Places 2017比賽獲獎模型

      同一個物體檢測網(wǎng)絡(luò)在COCO數(shù)據(jù)集上訓(xùn)練的驗證準(zhǔn)確率,mini-batch數(shù)量為16的運行在8塊GPU上,256的運行在128塊GPU上。mini-batch更大的檢測器準(zhǔn)確率更高,訓(xùn)練速度也幾乎要快一個數(shù)量級。

      “4.6億美元融資”、“姚期智院士加盟”、“人臉識別方案應(yīng)用于多款手機上”,再加上COCO比賽相關(guān)的技術(shù)成果和比賽成績,僅近期的幾則消息就可以說明曠視科技已經(jīng)走得很大、很穩(wěn)了。雷鋒網(wǎng) AI 科技評論也祝福曠視科技做出更多的研究成果,在世界范圍內(nèi)取得商業(yè)和學(xué)術(shù)的雙豐收。

      相關(guān)文章:

      曠視科技產(chǎn)品總監(jiān)李晨光:詳解人臉識別的應(yīng)用場景(含PPT)

      曠視科技成立 6 周年,我們和孫劍聊了聊

      對話曠視科技:請姚期智出山是為本質(zhì)創(chuàng)新,未來想成為國內(nèi)首家上市的純?nèi)斯ぶ悄芄?/a>

      雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

      曠視論文三連發(fā),揭秘COCO +Places 2017比賽獲獎模型

      分享:
      相關(guān)文章

      讀論文為生

      日常笑點滴,學(xué)術(shù)死腦筋
      當(dāng)月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 免青青草免费观看视频在线| 国产成人精品综合久久久| 土默特左旗| 极品尤物一区二区三区| 三级色网| 国产成人综合日韩亚洲| 欧美成人h精品网站| 日韩精人妻无码一区二区三区| 国产熟妇勾子乱视频| 亚洲产在线精品亚洲第一站一| 久久久天堂国产精品女人| 天堂在线V| 国产成人久久久777777麻豆| 美女内射毛片在线看| 亚洲一区二区三区 无码| 黄床大片免费30分钟国产精品| 漂亮的保姆hd完整版免费韩国| 国产精品无码永久免费A片| 凹凸精品熟女在线观看| 色欲天天色| 欧美精品一区二区蜜臀亚洲| 国产男人天堂| 精品免费看国产一区二区| 国产亚洲999精品AA片在线爽| 无码专区视频精品老司机| 欧美超大胆裸体xx视频| 麻豆人妻| 欧美精品乱码99久久蜜桃| 狠狠躁夜夜躁无码中文字幕| 俺也去网| 老熟女高潮一区二区三区| 荆州市| 国产精品欧美福利久久| 国模精品视频一区二区| 国产精品自在自线视频| 国产人妖TS重口系列网站观看| 成人综合色图| 91豆花成人社区在线| 久久人妻少妇嫩草av蜜桃| 亚洲日韩中文字幕在线播放| 日本不卡一区二区高清中文|