<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
      此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
      人工智能學(xué)術(shù) 正文
      發(fā)私信給AI研習(xí)社
      發(fā)送

      0

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等

      本文作者: AI研習(xí)社 2020-03-23 14:39
      導(dǎo)語:為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等

        目錄

      CVPR 2020 | Social-STGCNN:一種用于行人軌跡預(yù)測的社會(huì)時(shí)空圖卷積神經(jīng)網(wǎng)絡(luò)

      CVPR 2020 | 基于有偏訓(xùn)練的無偏場景圖生成

      CVPR 2020 | 面向深度人臉識(shí)別的通用表征學(xué)習(xí)

      CVPR 2020 | 使用多個(gè)攝像機(jī)的實(shí)時(shí)多人運(yùn)動(dòng)捕捉的4D關(guān)聯(lián)圖

      CVPR 2020 | 一種基于U-Net的生成性對抗網(wǎng)絡(luò)判別器

        CVPR 2020 | Social-STGCNN:一種用于行人軌跡預(yù)測的社會(huì)時(shí)空圖卷積神經(jīng)網(wǎng)絡(luò)

      論文名稱:Social-STGCNN: A Social Spatio-Temporal Graph Convolutional Neural Network for Human Trajectory Prediction

      作者:Mohamed Abduallah /Qian Kun /Elhoseiny Mohamed /Claudel Christian

      發(fā)表時(shí)間:2020/2/27

      論文鏈接:https://arxiv.org/abs/2002.11927?from=leiphonecolumn_paperreview0323

      推薦原因

      這篇論文被CVPR 2020接收,考慮的是行人軌跡預(yù)測的問題。

      行人軌跡不僅受行人本身影響,還與周圍物體的相互作用有關(guān)。這篇論文提出了社會(huì)時(shí)空圖卷積神經(jīng)網(wǎng)絡(luò)(Social Spatio-Temporal Graph Convolutional Neural Network,Social-STGCNN),將行人與周圍物體的交互行為建模為圖模型,并通過一個(gè)核函數(shù)將行人之間的社交互動(dòng)嵌入鄰接矩陣中。實(shí)驗(yàn)結(jié)果表明,與先前方法相比,Social-STGCNN的最終位移誤差較現(xiàn)有技術(shù)提高了20%,參數(shù)減少了8.5倍,而推理速度提高了48倍。

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等

        CVPR 2020 | 基于有偏訓(xùn)練的無偏場景圖生成

      論文名稱:Unbiased Scene Graph Generation from Biased Training

      作者:Tang Kaihua /Niu Yulei /Huang Jianqiang /Shi Jiaxin /Zhang Hanwang

      發(fā)表時(shí)間:2020/2/27

      論文鏈接:https://arxiv.org/abs/2002.11949?from=leiphonecolumn_paperreview0323

      推薦原因

      這篇論文被CVPR 2020接收,要解決的是場景圖生成的問題。

      已有的場景圖生成容易受有訓(xùn)練偏見的問題,例如將海灘上人類的步行、坐、躺等多樣行為類型籠統(tǒng)分為海灘上的人類。這篇論文提出了一種新的基于因果推理的場景圖生成的框架。首先建立因果圖,然后使用該圖進(jìn)行傳統(tǒng)的有偏訓(xùn)練,接著從訓(xùn)練圖上得出反事實(shí)因果關(guān)系,以從不良偏置中推斷出影響并將其消除。場景生成基準(zhǔn)集Visual Genome上的實(shí)驗(yàn)表明這篇論文所提的方法與以前的最佳方法相比有顯著改進(jìn)。

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等

        CVPR 2020 | 面向深度人臉識(shí)別的通用表征學(xué)習(xí)

      論文名稱:Towards Universal Representation Learning for Deep Face Recognition

      作者:Shi Yichun /Yu Xiang /Sohn Kihyuk /Chandraker Manmohan /Jain Anil K.

      發(fā)表時(shí)間:2020/2/26

      論文鏈接:https://arxiv.org/abs/2002.11841?from=leiphonecolumn_paperreview0323

      推薦原因

      這篇論文被CVPR 2020接收,提出了一種面向深度人臉識(shí)別的通用表征學(xué)習(xí)框架,可以處理給定訓(xùn)練數(shù)據(jù)中未發(fā)現(xiàn)的較大變化,而無需利用目標(biāo)域知識(shí)。新框架首先將訓(xùn)練數(shù)據(jù)與一些有意義的語義變化(例如低分辨率、遮擋和頭部姿勢)一起合成。訓(xùn)練過程中將特征嵌入拆分為多個(gè)子嵌入,并為每個(gè)子嵌入關(guān)聯(lián)不同的置信度值,以簡化訓(xùn)練過程。通過對變化的分類損失和對抗性損失進(jìn)行正則化,可進(jìn)一步對子嵌入進(jìn)行解相關(guān)。實(shí)驗(yàn)表明,新的框架在LFW和MegaFace等常規(guī)人臉識(shí)別數(shù)據(jù)集上均取得最佳性能,而在TinyFace和IJB-S等極端基準(zhǔn)集上則明顯優(yōu)于對比算法。

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等

        CVPR 2020 | 使用多個(gè)攝像機(jī)的實(shí)時(shí)多人運(yùn)動(dòng)捕捉的4D關(guān)聯(lián)圖

      論文名稱:4D Association Graph for Realtime Multi-person Motion Capture Using Multiple Video Cameras

      作者:Zhang Yuxiang /An Liang /Yu Tao /Li Xiu /Li Kun /Liu Yebin

      發(fā)表時(shí)間:2020/2/28

      論文鏈接:https://arxiv.org/abs/2002.12625?from=leiphonecolumn_paperreview0323

      推薦原因

      這篇論文被CVPR 2020接收,提出了一種新的使用多視點(diǎn)視頻輸入的實(shí)時(shí)多人運(yùn)動(dòng)捕捉算法,首次將視圖解析、跨視圖匹配和時(shí)間跟蹤整合到一個(gè)優(yōu)化框架中,即得到一個(gè)4D關(guān)聯(lián)圖,該圖可以同時(shí)平等地處理每個(gè)維度(圖像空間、視點(diǎn)和時(shí)間)。為有效求解4D關(guān)聯(lián)圖,這篇論文進(jìn)一步提出基于啟發(fā)式搜索的4D肢束解析思想,然后通過提出束Kruskal算法對肢束進(jìn)行組合。這個(gè)新算法可以在5人場景中使用5個(gè)攝像機(jī),以30fps的速度運(yùn)行實(shí)時(shí)在線運(yùn)動(dòng)捕捉系統(tǒng)。新算法不僅對噪聲檢測具有魯棒性,還獲得了高質(zhì)量的在線姿態(tài)重建結(jié)果。在不使用高級(jí)外觀信息的情況下,新算法優(yōu)于當(dāng)前最優(yōu)方法。

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等

        CVPR 2020 | 一種基于U-Net的生成性對抗網(wǎng)絡(luò)判別器

      論文名稱:A U-Net Based Discriminator for Generative Adversarial Networks

      作者:Sch?nfeld Edgar /Schiele Bernt /Khoreva Anna

      發(fā)表時(shí)間:2020/2/28

      論文鏈接:https://arxiv.org/abs/2002.12655?from=leiphonecolumn_paperreview0323

      推薦原因

      這篇論文被CVPR 2020接收,提出了一種基于U-Net的判別器架構(gòu),在保持合成圖像的全局一致性的同時(shí),向生成器提供詳細(xì)的每像素反饋。在判別器的每像素響應(yīng)支持下,這篇論文進(jìn)一步提出一種基于CutMix數(shù)據(jù)增強(qiáng)的逐像素一致性正則化技術(shù),鼓勵(lì)U-Net判別器更多關(guān)注真實(shí)圖像與偽圖像之間的語義和結(jié)構(gòu)變化,不僅改善了U-Net判別器的訓(xùn)練,還提高了生成樣本的質(zhì)量。新判別器在標(biāo)準(zhǔn)分布和圖像質(zhì)量指標(biāo)方面改進(jìn)了現(xiàn)有技術(shù),使生成器能夠合成具有變化結(jié)構(gòu)、外觀和詳細(xì)程度的圖像,并保持全局和局部真實(shí)感。與BigGAN基線模型相比,所提方法在FFHQ、CelebA和COCO-Animals數(shù)據(jù)集上平均提高了2.7個(gè)FID點(diǎn)。

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等

      雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

      相關(guān)文章:

      今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

      雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識(shí)別;4D 關(guān)聯(lián)圖等

      分享:
      相關(guān)文章

      編輯

      聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請?jiān)L問:yanxishe.com
      當(dāng)月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號(hào)
      作品鏈接
      個(gè)人簡介
      為了您的賬戶安全,請驗(yàn)證郵箱
      您的郵箱還未驗(yàn)證,完成可獲20積分喲!
      請驗(yàn)證您的郵箱
      立即驗(yàn)證
      完善賬號(hào)信息
      您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 91蜜桃婷婷狠狠久久综合9色| 无码人妻h动漫| 国产精品爽爽va吃奶在线观看| 嫖妓丰满肥熟妇在线精品| 超碰人人摸| 网曝吃瓜黑料一区| 香港日本三级亚洲三级| 91久久精品国产| 巨大黑人极品videos精品| 欧美性交网| 又大又紧又粉嫩18p少妇| 久久精品一区| 荡公乱妇hd电影中文字幕| 亚洲熟妇自偷自拍另欧美| 天堂网在线.www天堂| av天堂永久资源网| 久久激情人妻中文字幕| 唐人社导航福利精品| 综合av第一页| 中文无码第一页| 亚洲激情偷拍| 国产乱人伦偷精品视频下| 午夜爽爽爽男女免费观看影院 | 成人麻豆日韩在无码视频| 欧美日韩导航| 无码精品久久一区二区三区| 国产成人一区二区三区视频免费| 狠狠v日韩v欧美v| 亚洲伊人情人综合网站| 亚洲精品一区久久久久久| 亚洲第一在线综合网站| 人妻精品动漫H无码中字| 亚洲色欲色欲www| 岛国AV在线| 国内精品久久人妻互换| 国产盗摄人妻精品一区| 久久精品国产精品第一区| 日韩精品久久久肉伦网站| 24小时日本在线观看片| 午夜精品久久久久久久久| 美女极度色诱视频国产免费|