<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發(fā)私信給夏睿
      發(fā)送

      0

      Facebook 最新論文:Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定(多圖)

      本文作者: 夏睿 2017-03-23 07:30
      導語:Mask R-CNN是Faster R-CNN的擴展形式,能夠有效地檢測圖像中的目標,同時還能為每個實例生成一個高質(zhì)量的分割掩碼。

      Facebook 最新論文:Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定(多圖)

      對Facebook而言,想要提高用戶體驗,就得在圖像識別上做足功夫。

      雷鋒網(wǎng)此前報道《Facebook AML實驗室負責人:將AI技術(shù)落地的N種方法》( ,下篇)就提到,做好圖像識別,不僅能讓Facebook的用戶更精準搜索到想要的圖片,為盲人讀出圖片中包含的信息,還能幫助用戶在平臺上銷售物品、做社交推薦等等。

      近日, FAIR部門的研究人員在這一領(lǐng)域又有了新的突破——他們提出一種目標實例分割(object instance segmentation)框架Mask R-CNN,該框架較傳統(tǒng)方法操作更簡單、更靈活。研究人員把實驗成果《Mask R-CNN》發(fā)布在了arXiv上,并表示之后會開源相關(guān)代碼。

      以下為AI科技評論據(jù)論文內(nèi)容進行的部分編譯。

      論文摘要

      物體識別,圖像語義分割技術(shù)能在短時間內(nèi)快速發(fā)展,F(xiàn)ast/Faster RCNN和全卷積網(wǎng)絡(luò)(FCN)框架等技術(shù)功不可沒。這些方法概念直觀,訓練和推斷速度快,并且具有良好的靈活性和魯棒性。

      一般來說,目標分割的難點在于,它需要正確識別出圖像中所有物體的方向,并且要將不同物體精準區(qū)分開。因此,這里面涉及到兩個任務:

      • 用物體識別技術(shù)識別物體,并用邊界框表示出物體邊界;

      • 用語義分割給像素分類,但不區(qū)分不同的對象實例。

      大家可能認為,要同時完成這兩個任務,方法一定會相當復雜;但Mask R-CNN卻可以更輕松的解決這兩個問題。

      Mask R-CNN是Faster R-CNN的擴展形式,能夠有效地檢測圖像中的目標,同時還能為每個實例生成一個高質(zhì)量的分割掩碼(segmentation mask)。

      它的構(gòu)建方法是:在每個興趣點(Region of Interest,RoI)上加一個用于預測分割掩碼的分層,稱為掩碼層(mask branch),使該層并行于已有邊界層和分類層(如下圖所示)。

      Facebook 最新論文:Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定(多圖)

       Mask R-CNN 框架

      于是,掩碼層就成為了一個小型FCN。我們將它應用于單個RoI中,以在pixel-to-pixel行為中預測分割掩碼。

      Mask R-CNN 的優(yōu)點:

      • 由于目前已有許多設(shè)計良好,可用于Faster R-CNN的構(gòu)架,因此,作為Faster R-CNN的擴展,Mask R-CNN在應用時也沒有阻礙;

      • 考慮到掩碼層只給整個系統(tǒng)增加一小部分計算量,所以該方法運行起來非常高效;

      • Mask R-CNN 還可以很容易泛化到其它任務上。比如,可以在同一個框架中估計人物的動作。

      在COCO測試中可以看到,Mask R-CNN 在實例分割、邊界框目標檢測和人物關(guān)鍵點檢測這三個難點上都獲得了較好的實驗效果,并且比每個現(xiàn)有的獨立模型,包括 COCO 2016 挑戰(zhàn)賽的獲勝模型,表現(xiàn)都要好。

      所以,我們希望該方法能為簡化勢力層面的識別打下一個堅實的基礎(chǔ)。

      實驗結(jié)果圖&表

      研究人員進行了一系列實驗來分析Mask R-CNN的運行效果。例如,把Mask R-CNN放在 COCO 測試集上進行測試、對比多項掩碼和單項掩碼(Multinomial vs. Independent Masks)、對比Class-Specific 和Class-Agnostic Masks、對比RoIAlign和RoIWarp等。以下是論文中出現(xiàn)的部分實驗圖和表格:

      Facebook 最新論文:Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定(多圖)

      • 圖2:Mask R-CNN在 COCO 測試集上的測試結(jié)果。結(jié)果顯示,Mask R-CNN能用 ResNet-101,在 5 fps 的度下實現(xiàn) 35.7 的 mask AP。圖上不同的顏色表示不同的掩碼,另外也給出的邊界框、類別和置信度。


      Facebook 最新論文:Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定(多圖)

      • 圖 3:頂端架構(gòu):我們延展了兩個已有的 Faster R-CNN 頭 [14,21]。左圖和右圖分別展示了 ResNet C4 和 FPN 的主干的頂端部分,分別來自 [14] 和 [21],而且可以看到上面還增加了一個 mask 分支。圖中的數(shù)字表示空間分辨率和信道,箭頭表示卷積、去卷積或全連接層。具體可以根據(jù)情況推斷(卷積會保持空間維度而去卷積會增加空間維度)。除了輸出卷積是 1×1 之外,其它所有卷積都是 3×3,去卷積是 2×2,步幅為 2。我們在隱藏層中使用 ReLU [24]。左圖中 res5 表示 ResNet 的第 5 階段,但為了簡單起見,我們做了修改,使第 1 個卷積層運行在一個 7×7 RoI 上,步幅為 1(而不是如 [14] 中的 14×14,步幅為 2)。右圖中的 ×4 表示 4 個連續(xù)卷積的堆疊。

      Facebook 最新論文:Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定(多圖)

      • 表 1:在 COCO test-dev 上的實例分割 mask AP。MNC [7] 和 FCIS [20] 分別是 COCO 2015 和 2016 分割挑戰(zhàn)賽的獲勝模型。僅有Mask R-CNN,其表現(xiàn)就超過了更復雜的 FCIS+++——其包括多種規(guī)模的訓練/測試、水平翻轉(zhuǎn)測試和 OHEM [29]。所有的項都是單個模型的結(jié)果。

      Facebook 最新論文:Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定(多圖)

      • 表2:Mask R-CNN 的分解表。在 trainval35k 上訓練,在 minival 上測試。主要是 mask AP 的成績,除非有特別指明。

      上圖顯示,更深層的網(wǎng)絡(luò)(圖2a:50 vs 101)和更先進的設(shè)計(包括FPN和ResNeXt)都對Mask R-CNN有幫助作用。不過,也不是所有框架都能自動從中受益。


      Facebook 最新論文:Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定(多圖)

      • 表3:在 test-dev 上目標檢測單個模型的結(jié)果(邊界框 AP)vs 當前最佳。使用 ResNet-101-FPN 的 Mask R-CNN 的表現(xiàn)超越了所有之前最佳模型的基本變體(在這些實驗中忽略了 mask output)。Mask R-CNN 在 [21] 的基礎(chǔ)上獲得的增益得益于對 RoIAlign (+1.1 APbb)、多任務訓練 (+0.9 APbb) 和 ResNeXt-101 (+1.6 APbb) 的使用。

      Facebook 最新論文:Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定(多圖)

      • 圖6:用Mask R-CNN (ResNet-50-FPN)在COCO測試上進行關(guān)鍵點測試。該模型在 5 fps 條件下實現(xiàn)了 63.1 的關(guān)鍵點 AP。

      • Facebook 最新論文:Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定(多圖)
      • 表 4:在 COCO test-dev 上的關(guān)鍵點檢測 AP。ResNet-50-FPN 是以 5 fps 運行的單個模型。CMUPose+++[4] 是 2016 年的比賽獲勝者,使用了多尺度測試、帶有 CPM 的后處理 [33] 和帶有一個目標檢測器的濾波,累加約 5 分(在個人通信中闡明的)。G-RMI 是在 COCP plus MPII [1](2.5 萬張圖像)上訓練的,使用了兩個模型(Inception-ResNet-v2 + ResNet- 101)。由于使用了更多數(shù)據(jù),所以不是與 Mask R-CNN 的直接對比。

      另外,值得一提的是,該論文的第一作者為香港中文大學的何凱明博士,雷鋒網(wǎng)此前也報道過何凱明博士的其他成就,如《秒懂!何凱明的深度殘差網(wǎng)絡(luò)PPT是這樣的|ICML2016 tutorial》,霧霾太重?深度神經(jīng)網(wǎng)絡(luò)教你如何圖像去霧》等,想了解更多Facebook研究院及何凱明博士的最新研究成果,請繼續(xù)關(guān)注雷鋒網(wǎng)及AI科技評論公眾號。

      雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

      Facebook 最新論文:Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定(多圖)

      分享:
      相關(guān)文章

      編輯

      求索于科技人文間, 流連在 AI 浪潮下; 我在這兒, 斟酒,燃香,等你故事
      當月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 久久精品一区二区三区四区| 97中文字幕在线观看| 亚洲video| 精品精品国产高清a毛片| www.伊人五月天| 亚洲午夜成aⅴ人片| 国产精品疯狂输出jk草莓视频 | 国产乱人伦久久免费| 亚洲AV高清一区二区三区尤物| 香蕉久久一区二区不卡无毒影院| 国产95在线 | 欧美| 男女性高爱潮免费网站| 亚洲国产亚洲综合在线尤物| 国产男女猛烈无遮挡免费网站 | 91pao| 国产综合色网| 三级国产三级在线| 免费A片国产毛无码A片| 亚洲性爱视频网站| 午夜成人精品福利网站在线观看 | 中文日产乱幕九区无线码| 新妺妺窝人体色7777婷婷| 国产白浆一区二区三区| 日本韩国一区二区精品| 无套内射极品少妇chinese| 国产精品 欧美 亚洲 制服| 永久免费无码网站在线观看个| 三上悠亚精品二区在线观看| 成人影片在线观看网站18| 国产开嫩苞实拍在线播放视频| 国产VA免费精品高清在线 | 中文字幕av久久爽一区| 国产无码av| 日韩亚洲国产综合高清| 亚洲国产日韩视频观看| 制服国产欧美亚洲日韩| 在线看亚洲十八禁网站| 国产精品18久久久| 欧美日激情日韩精品嗯| 亚洲中文另类| 午夜成人亚洲理伦片在线观看|