<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
      此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
      人工智能 正文
      發(fā)私信給奕欣
      發(fā)送

      0

      美圖云聯(lián)合中科院,提出基于交互感知注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的行為分類技術(shù) | ECCV 2018

      本文作者: 奕欣 2018-07-23 15:33
      導(dǎo)語(yǔ):來自美圖云視覺技術(shù)部門和中科院自動(dòng)化所的研發(fā)人員,提出了一種引入局部特征交互感知的自注意機(jī)制模型,應(yīng)用于視頻行為分類任務(wù)。
      論文
      名稱:ECCV
      時(shí)間:2018
      企業(yè):美圖

      雷鋒網(wǎng) AI 科技評(píng)論按:本文為美圖云視覺技術(shù)部門的 ECCV 2018 錄用論文解讀。

      以往注意機(jī)制模型通過加權(quán)所有局部特征計(jì)算和提取關(guān)鍵特征,忽略了各局部特征間的強(qiáng)相關(guān)性,特征間存在較強(qiáng)的信息冗余。為解決此問題,來自美圖云視覺技術(shù)部門和中科院自動(dòng)化所的研發(fā)人員借鑒 PCA(主成分分析)思想,提出了一種引入局部特征交互感知的自注意機(jī)制模型,并將模型嵌入到 CNN 網(wǎng)絡(luò)中,提出一個(gè)端到端的網(wǎng)絡(luò)結(jié)構(gòu)。該算法在多個(gè)學(xué)術(shù)數(shù)據(jù)集和美圖公司內(nèi)部工業(yè)界視頻數(shù)據(jù)集上的行為分類表現(xiàn)都非常出色?;谠撍惴ㄋ枷氲南嚓P(guān)論文「Interaction-aware Spatio-temporal Pyramid Attention Networks for Action Classification」已被 ECCV2018 收錄,下文將從背景、核心思想、效果和應(yīng)用前景幾個(gè)方面進(jìn)行介紹。

      一、背景

      深度卷積神經(jīng)網(wǎng)絡(luò)中,特征圖里相鄰空間位置的局部通道特征,往往由于它們的感受野重疊而具有很高的相關(guān)性。自注意機(jī)制模型通常利用每個(gè)局部特征內(nèi)部元素的加權(quán)和(或其他函數(shù))來獲得其權(quán)重得分,此權(quán)重用于加權(quán)所有局部特征獲取關(guān)鍵特征。盡管局部特征之間具有很高的相關(guān)性,但此權(quán)重計(jì)算并沒有考慮到它們之間的相互作用。

      PCA 可以提取全局特征主要維度的主成分信息,而這些主成分信息可以看作是提取的局部特征,最后降維后的全局特征即是關(guān)鍵局部特征的集合。注意機(jī)制的目的是從局部特征集合中提取關(guān)鍵部分,也就是 PCA 中的局部特征。不同的是注意力機(jī)制使用每個(gè)局部特征對(duì)應(yīng)的加權(quán)得分來計(jì)算最終的全局特征。PCA 利用協(xié)方差矩陣來獲得降維(或加權(quán)權(quán)重)的基向量,從而減少特征間的信息冗余和噪聲?;谝陨媳尘?,該團(tuán)隊(duì)使用 PCA 來指導(dǎo)提出的注意力模型,并通過將 PCA 算法轉(zhuǎn)換成損失設(shè)計(jì)實(shí)現(xiàn)。此外,由于深度網(wǎng)絡(luò)中的不同層可以捕獲不同尺度的特征圖,算法使用這些特征圖來構(gòu)造空間金字塔,利用多尺度信息來計(jì)算每個(gè)局部通道特征更精確的注意力分?jǐn)?shù),這些權(quán)重得分用于在所有空間位置中對(duì)局部特征進(jìn)行加權(quán)。

      二、核心思想

       美圖云聯(lián)合中科院,提出基于交互感知注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的行為分類技術(shù) | ECCV 2018

      本論文定義了一個(gè)新的交互感知時(shí)空金字塔注意力層,以此實(shí)現(xiàn)輸入在深度卷積神經(jīng)網(wǎng)絡(luò)中各個(gè)層的不同尺度局部特征的交互感知和時(shí)空特征融合的功能。它的架構(gòu)如上圖所示,算法首先定義了一個(gè)下采樣函數(shù) R, 將不同層的特征圖統(tǒng)一到一個(gè)尺度。接著對(duì)不同尺度的特征圖的局部通道特征使用注意力機(jī)制進(jìn)行關(guān)鍵特征提取,通過使用融合函數(shù)對(duì)不同尺度的特征進(jìn)行融合,并計(jì)算每個(gè)局部特征的注意力得分,用于加權(quán)特征。

       美圖云聯(lián)合中科院,提出基于交互感知注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的行為分類技術(shù) | ECCV 2018

      在 PCA 中使用協(xié)方差矩陣計(jì)算投影向量并依此進(jìn)行降維,即提取關(guān)鍵的局部特征,本論文將其轉(zhuǎn)化損失函數(shù)的設(shè)計(jì)加入到最終的模型中:

       美圖云聯(lián)合中科院,提出基于交互感知注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的行為分類技術(shù) | ECCV 2018

      再對(duì)提出的空間金字塔注意力模型進(jìn)行約束,使其不同尺度層的特征圖盡量關(guān)注到不同的信息,加入分類損失得出最終的損失函數(shù):

       美圖云聯(lián)合中科院,提出基于交互感知注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的行為分類技術(shù) | ECCV 2018

      論文提出的模型參數(shù)與輸入特征圖的數(shù)目無關(guān),因此,自然地將其拓展到視頻級(jí)端到端訓(xùn)練的時(shí)空網(wǎng)絡(luò),最終的網(wǎng)絡(luò)結(jié)構(gòu)定義如下圖:

       美圖云聯(lián)合中科院,提出基于交互感知注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的行為分類技術(shù) | ECCV 2018

      三、效果

      研發(fā)人員將提出的基于交互感知的時(shí)空金字塔注意力機(jī)制神經(jīng)網(wǎng)絡(luò)算法應(yīng)用于美圖公司的視頻相關(guān)業(yè)務(wù)進(jìn)行人物行為分類,效果表現(xiàn)優(yōu)異。除此之外在公開數(shù)據(jù)集 UCF101、HMDB51 和無裁剪行為數(shù)據(jù)庫(kù) Charades 上進(jìn)行了評(píng)測(cè),也取得了領(lǐng)先效果,結(jié)果如下圖所示 :

       美圖云聯(lián)合中科院,提出基于交互感知注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的行為分類技術(shù) | ECCV 2018

      美圖云聯(lián)合中科院,提出基于交互感知注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的行為分類技術(shù) | ECCV 2018

      此外,該論文對(duì)視頻時(shí)空輸入進(jìn)行了評(píng)測(cè),評(píng)測(cè)結(jié)果顯示出該模型能夠同時(shí)處理任意數(shù)量的視頻幀輸入,并取得較好的實(shí)驗(yàn)結(jié)果。

      美圖云聯(lián)合中科院,提出基于交互感知注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的行為分類技術(shù) | ECCV 2018

      美圖云聯(lián)合中科院,提出基于交互感知注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的行為分類技術(shù) | ECCV 2018

      上圖給出了該算法在進(jìn)行行為分類時(shí)的可視化輸出結(jié)果,可以看出該算法能夠?qū)σ曨l中關(guān)鍵的行為進(jìn)行精確定位。

      四、展望

      實(shí)際應(yīng)用中,業(yè)務(wù)場(chǎng)景對(duì)算法的運(yùn)行時(shí)間要求較嚴(yán)苛。本論文在公開數(shù)據(jù)集上的結(jié)果均通過截取視頻中的多幀得到,時(shí)間復(fù)雜度較高,后續(xù)會(huì)以降低算法時(shí)間復(fù)雜度為目標(biāo)對(duì)核心模塊進(jìn)行優(yōu)化。值得注意的是,本論文提出的空間金字塔注意力模型不受其輸入特征圖數(shù)量的限制,因此它很容易擴(kuò)展到一個(gè)可以兼容任意數(shù)量的輸入幀的時(shí)空版本,在應(yīng)用中可以在分類準(zhǔn)確率幾乎不受影響的前提下,通過減少截幀數(shù)提升處理速度。

      雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

      美圖云聯(lián)合中科院,提出基于交互感知注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的行為分類技術(shù) | ECCV 2018

      分享:
      相關(guān)文章
      當(dāng)月熱門文章
      最新文章
      請(qǐng)?zhí)顚懮暾?qǐng)人資料
      姓名
      電話
      郵箱
      微信號(hào)
      作品鏈接
      個(gè)人簡(jiǎn)介
      為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
      您的郵箱還未驗(yàn)證,完成可獲20積分喲!
      請(qǐng)驗(yàn)證您的郵箱
      立即驗(yàn)證
      完善賬號(hào)信息
      您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 国产精品久久久久7777按摩| 全球av集中精品导航福利| 中文字幕丰满人妻熟女| www亚洲无码| 亚洲欧美在线观看品| 欧美国产日产一区二区| 99久久人妻无码精品系列蜜桃| 亚洲老熟女一区二区三区| 色情一区二区三区免费看| 欧美一区二区三区在线观看| 亚洲成人久久躁狠狠躁| 日韩在线一区二区| 久久久无码视频| 丝袜a∨在线一区二区三区不卡 | 亚洲午夜av| 国产成人精品亚洲| 豆国产97在线 | 亚洲| 久久狠狠高潮亚洲精品暴力打| 久久成人电影| 久久成人免费观看全部免费| 成人精品免费视频在线观看| 欧美日韩国产亚洲人成| 成全世界免费高清观看| 日本久久综合| 无码尹人久久相蕉无码| 国产精品???A片在线观看| 久久熟| 影音先锋一区二区| 精品国产一卡| 国产乱码一区二区三区四区在线| 人妻少妇久久精品电影| 国产亚洲精品在av| 亚洲中文字幕av一区| 免费福利视频一区二区三区高清| 国产精品美女久久久浪潮AV| 久久久久人妻精品一区三寸| 日本熟妇浓毛| 日韩精品一区二区三区在线观看| 乌恰县| av无码av无码专区| 国产黄拍|