<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
      人工智能學(xué)術(shù) 正文
      發(fā)私信給AI研習(xí)社
      發(fā)送

      0

      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

      本文作者: AI研習(xí)社 2020-03-20 18:07
      導(dǎo)語:為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。
      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

        目錄

      CVPR 2020 | 檢測視頻中關(guān)注的視覺目標(biāo)

      CVPR 2020 | D3Feat:密集檢測和3D局部特征描述的聯(lián)合學(xué)習(xí)

      CVPR 2020 | 搜索中央差分卷積網(wǎng)絡(luò)以進行面部反欺

      模型的密度估計能力、序列生成能力、BLEU分?jǐn)?shù)之間到底是什么關(guān)系

      在元學(xué)習(xí)和具體任務(wù)的學(xué)習(xí)之間尋找平衡

        CVPR 2020 | 檢測視頻中關(guān)注的視覺目標(biāo)

      論文名稱:Detecting Attended Visual Targets in Video

      作者:Chong Eunji /Wang Yongxin /Ruiz Nataniel /Rehg James M.

      發(fā)表時間:2020/3/5

      論文鏈接:https://paper.yanxishe.com/review/13533?from=leiphonecolumn_paperreview0320

      推薦原因

      這篇論文被CVPR 2020接收,要解決的是檢測視頻中關(guān)注目標(biāo)的問題。具體來說,目標(biāo)是確定每個視頻幀中每個人的視線,并正確處理幀外的情況。所提的新架構(gòu)有效模擬了場景與頭部特征之間的動態(tài)交互,以推斷隨時間變化的關(guān)注目標(biāo)。同時這篇論文引入了一個新數(shù)據(jù)集VideoAttentionTarget,包含現(xiàn)實世界中復(fù)雜和動態(tài)的注視行為模式。在該數(shù)據(jù)集上進行的實驗表明,所提模型可以有效推斷視頻中的注意力。為進一步證明該方法的實用性,這篇論文將預(yù)測的注意力圖應(yīng)用于兩個社交注視行為識別任務(wù),并表明所得分類器明顯優(yōu)于現(xiàn)有方法。

      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等
      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

        CVPR 2020 | D3Feat:密集檢測和3D局部特征描述的聯(lián)合學(xué)習(xí)

      論文名稱:D3Feat: Joint Learning of Dense Detection and Description of 3D Local Features

      作者:Bai Xuyang /Luo Zixin /Zhou Lei /Fu Hongbo /Quan Long /Tai Chiew-Lan

      發(fā)表時間:2020/3/6

      論文鏈接:https://paper.yanxishe.com/review/13946?from=leiphonecolumn_paperreview0320

      推薦原因

      這篇論文被CVPR 2020接收,關(guān)注的是對3D特征檢測器的研究。

      這篇論文將3D全卷積網(wǎng)絡(luò)用于3D點云,并提出一種克服3D點云固有密度變化的關(guān)鍵點選擇策略,并進一步提出一種在訓(xùn)練過程中由實時特征匹配結(jié)果指導(dǎo)的自監(jiān)督探測器損失。新方法可以密集預(yù)測每個3D點的檢測得分和描述特征。新方法在3DMatch和KITTI數(shù)據(jù)集上評估了室內(nèi)和室外場景的最新結(jié)果,并在ETH數(shù)據(jù)集上顯示出強大的泛化能力。在實際應(yīng)用中通過采用可靠的特征檢測器,對少量特征進行采樣就足以實現(xiàn)準(zhǔn)確、快速的點云對準(zhǔn)。

      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等
      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

        CVPR 2020 | 搜索中央差分卷積網(wǎng)絡(luò)以進行面部反欺騙

      論文名稱:Searching Central Difference Convolutional Networks for Face Anti-Spoofing

      作者:Yu Zitong /Zhao Chenxu /Wang Zezheng /Qin Yunxiao /Su Zhuo /Li Xiaobai /Zhou Feng /Zhao Guoying

      發(fā)表時間:2020/3/9

      論文鏈接:https://paper.yanxishe.com/review/13945?from=leiphonecolumn_paperreview0320

      推薦原因

      這篇論文被CVPR 2020接收,考慮的是面部反欺詐的問題。

      這篇論文提出一種基于中央差分卷積的幀級面部反欺詐方法,能夠通過匯總強度和梯度信息來捕獲固有的詳細(xì)模式。用中央差分卷積構(gòu)建的網(wǎng)絡(luò)稱為中央差分卷積網(wǎng)絡(luò)(Central Difference Convolutional Network,CDCN)。與使用原始卷積構(gòu)建的網(wǎng)絡(luò)相比,CDCN能提供更強大的建模能力。此外,在經(jīng)過專門設(shè)計的中央差分卷積搜索空間上,神經(jīng)架構(gòu)搜索可以用于發(fā)現(xiàn)更強大的網(wǎng)絡(luò)結(jié)構(gòu),將其與多尺度注意力融合模塊組裝在一起可以進一步提高性能。

      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等
      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

        模型的密度估計能力、序列生成能力、BLEU分?jǐn)?shù)之間到底是什么關(guān)系

      論文名稱:On the Discrepancy between Density Estimation and Sequence Generation

      作者:Lee Jason /Tran Dustin /Firat Orhan /Cho Kyunghyun

      發(fā)表時間:2020/2/17

      論文鏈接:https://paper.yanxishe.com/review/13949?from=leiphonecolumn_paperreview0320

      推薦原因

      密度估計、序列生成這兩件任務(wù),一般看來似乎是沒有什么關(guān)系的。但這篇論文研究后發(fā)現(xiàn),一個模型的密度估計能力、序列生成能力、BLEU分?jǐn)?shù)三者之間其實有緊密的聯(lián)系。

      如果把基于給定的輸入 x 預(yù)測 y 的分布看作是一個密度估計任務(wù),那么機器翻譯、文本到語音轉(zhuǎn)換之類的序列生成任務(wù)就都可以看作是密度估計,然后就可以進一步用密度估計中使用的條件對數(shù)似然測試來評價模型。

      不過,我們都這個測試和序列生成模型本身的設(shè)計目標(biāo)還是有所不同的,但似乎沒人研究過其中的區(qū)別有多大。在這篇論文中,作者們在多項測試中對比了不同的密度估計結(jié)果和BLEU分?jǐn)?shù)之間的關(guān)系,發(fā)現(xiàn)兩者間的關(guān)系受幾條微妙的因素影響,比如對數(shù)似然和BLEU高度相關(guān),尤其是對于同一個家族的模型(各種自回歸模型,有同樣的參數(shù)先驗的隱含變量模型)。

      在做了許多對比總結(jié)后,作者們最后建議,如果想要獲得很快的序列生成速度,可以在設(shè)計模型時選用帶有隱含變量的非自回歸模型,并且配合使用簡單的先驗。

      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等
      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

        在元學(xué)習(xí)和具體任務(wù)的學(xué)習(xí)之間尋找平衡

      論文名稱:Learning to Balance: Bayesian Meta-Learning for Imbalanced and Out-of-distribution Tasks

      作者:Hae Beom Lee /Hayeon Lee /Donghyun Na /Saehoon Kim /Minseop Park /Eunho Yang /Sung Ju Hwang

      發(fā)表時間:2019/9/26

      論文鏈接:https://paper.yanxishe.com/review/13948?from=leiphonecolumn_paperreview0320

      推薦原因

      機器學(xué)習(xí)領(lǐng)域的研究員們希望模型能有更好的泛化能力,不要太過擬合到具體任務(wù)的設(shè)置里,所以近幾年元學(xué)習(xí)(meta-learning)的研究非?;馃?。

      但元學(xué)習(xí)的研究有時候也掉進了固定的套路里,比如假定要學(xué)的多個任務(wù)里,每個任務(wù)中出現(xiàn)的樣本數(shù)量、類別數(shù)量都是一致的,所以他們也就會讓模型從每個任務(wù)中獲得同樣多的元知識 —— 但實際中,不同任務(wù)中的樣本數(shù)量、類別數(shù)量完全可以是不同的,不同任務(wù)的元知識含量也是不同的。所以這種做法并不好。

      除此之外,當(dāng)前的許多元學(xué)習(xí)研究中并不考慮見到的全新數(shù)據(jù)的分布如何,有可能這些數(shù)據(jù)的分布和學(xué)過的數(shù)據(jù)的分布完全不同,就沒辦法用來提高模型的表現(xiàn)。

      為了解決這些實際問題,這篇論文提出了一種新的元學(xué)習(xí)模型,它會在“元學(xué)習(xí)”和“針對具體任務(wù)的學(xué)習(xí)”兩件事之間尋找平衡,不再是像以往的模型一樣對所有狀況統(tǒng)一處理。實驗表明這種方法的表現(xiàn)大大優(yōu)于此前所有的元學(xué)習(xí)方法。

      這篇論文被 ICLR2020 接收為口頭報告論文。

      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等
      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

      雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

      相關(guān)文章:

      今日 Paper | 物體渲染;圖像和諧化;無偏數(shù)據(jù)處理方法;面部偽造檢測等

      雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

      分享:
      相關(guān)文章

      編輯

      聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請訪問:yanxishe.com
      當(dāng)月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 九九天堂网| 国产精品久久亚洲不卡| 久久久噜噜噜久久| 91视频免费观看网站| 青青av| 成在人线av无码免费| 影音先锋成人| 55大东北熟女啪啪嗷嗷叫| 亚洲 制服 丝袜 无码| 欧美成人激情黄色网| 免费无码又爽又刺激高潮软件| 久草视频观看| 娇小萝被两个黑人用半米长| 欧美啪啪视频| 亚洲欧美人成人让影院| 看亚洲黄色不在线网占| 国产成人精品高清在线观看93| 一本色道无码道在线观看| 精久国产av一区二区三区孕妇 | 亚洲午夜精品国产电影在线观看| 日韩精品亚洲精品第一页| 亚洲中文精品久久久久久不卡| 国产婷婷精品av在线| 国产熟妇勾子乱视频| 天堂av色综合久久天堂| 国产精品18久久久| 日本色天堂| 国产又色又爽无遮挡免费动态图| 亚洲无码制服丝袜视频| 极品人妻少妇| 中文区av无码中文字幕dⅴd| www.youjizz.com国产| 亚洲中文字幕一区二区| 疯狂做受XXXX高潮国产| 性动态图无遮挡试看30秒| 亚洲精品一区二区三区在线观看| 午夜dj高清免费观看视频| 18禁网站在线| 欧美成人一区二区三区| 日本少妇被黑人猛cao| 亚洲狠狠婷婷综合久久久久图片 |