<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
      此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
      人工智能學(xué)術(shù) 正文
      發(fā)私信給我在思考中
      發(fā)送

      0

      Facebook和NUS、MIT等高校聯(lián)合推出3000小時(shí)的第一視角視頻數(shù)據(jù)集Ego4D

      本文作者: 我在思考中 2021-10-15 18:37
      導(dǎo)語(yǔ):Ego4D收集的第一視角數(shù)據(jù)集,將在不遠(yuǎn)的將來(lái)帶給我們前所未有的體驗(yàn)。

      Facebook和NUS、MIT等高校聯(lián)合推出3000小時(shí)的第一視角視頻數(shù)據(jù)集Ego4D

      1. 左:同一場(chǎng)景在第一視角和第三視角下;右:第一視角視頻采集設(shè)備

      從第三視角看世界,和從第一視角和世界互動(dòng),有顯著差異。比如說(shuō),看別人坐過(guò)山車(chē)和自己坐過(guò)山車(chē),體驗(yàn)完全不同。

      本文摘要翻譯自NUS新聞:https://news.nus.edu.sg/nus-facebook-world-class-universities-teach-ai-to-understand-the-world-through-our-eyes/

      為了開(kāi)啟下一波AI技術(shù)浪潮,為增強(qiáng)現(xiàn)實(shí) (AR) 和智能機(jī)器人賦能,AI需要從現(xiàn)在的第三視角轉(zhuǎn)換成第一視角的全新范式。這是因?yàn)樵诘谝灰暯堑氖澜缰校S袑?shí)時(shí)的運(yùn)動(dòng)變化,手與物體的交互,多種感官的信息融合。

      為此,Facebook聯(lián)合新加坡國(guó)立大學(xué) (NUS) 、MIT等世界各地的13所大學(xué)組成了一個(gè)學(xué)術(shù)聯(lián)盟,致力于開(kāi)展一個(gè)長(zhǎng)期項(xiàng)目——Ego4D(第一視角的 4D 實(shí)時(shí)感知 )。

      Ego4D鏈接:https://ego4d-data.org/

      來(lái)自NUS研究團(tuán)隊(duì)的Principal Investigator(主要負(fù)責(zé)人),助理教授Mike壽政說(shuō):“在過(guò)去十年里,我們見(jiàn)證了AI在理解圖像方面的變革,這是建立在 ImageNet 等數(shù)據(jù)集所奠定的基礎(chǔ)上的。類(lèi)似的,我相信我們的 Ego4D 數(shù)據(jù)集,將為第一視角的視頻研究打好基礎(chǔ),從而推動(dòng)智能感知在 AR 和機(jī)器人方面的快速發(fā)展。”



      1

      目前最大的第一視角視頻數(shù)據(jù)集


      Facebook和NUS、MIT等高校聯(lián)合推出3000小時(shí)的第一視角視頻數(shù)據(jù)集Ego4D 

      2. Ego4D 是目前最大的第一視角的日常活動(dòng)視頻數(shù)據(jù)集

      大多數(shù)AI系統(tǒng)需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,現(xiàn)有的大規(guī)模視頻數(shù)據(jù)集通常以第三視角為主;而現(xiàn)有的第一視角數(shù)據(jù)集在規(guī)模、多樣性和復(fù)雜性上都很有限。因此,該學(xué)術(shù)聯(lián)盟推出了 Ego4D 數(shù)據(jù)集:

      ● 大規(guī)模:研究人員分發(fā)頭戴式相機(jī)或者AR眼鏡給數(shù)據(jù)采集者,從而收集了累計(jì)3,000 小時(shí)的、日常活動(dòng)中的第一視角視頻;

      ● In-the-wild:包含了人們的日常生活的數(shù)百種不同活動(dòng),記錄了相機(jī)佩戴者在關(guān)注什么,用手和面前的物體做什么,以及他們是如何與其他人互動(dòng)的;

      ● 多樣性:涵蓋全球 73 個(gè)地點(diǎn)、9個(gè)國(guó)家,700 多名不同背景、種族、職業(yè)、年齡的數(shù)據(jù)采集者,囊括不同的文化和地理差異;

      ● 抽好的特征:所有視頻,均有預(yù)先抽好的SlowFast特征,方便大家進(jìn)行實(shí)驗(yàn);

      ● 授權(quán)公開(kāi):這些數(shù)據(jù)將于 2021 年 11 月公開(kāi),視頻中的所有可見(jiàn)人臉和可聽(tīng)懂的語(yǔ)音均已獲得參與者的授權(quán)。



      2

      新任務(wù),新技術(shù)
      Facebook和NUS、MIT等高校聯(lián)合推出3000小時(shí)的第一視角視頻數(shù)據(jù)集Ego4D 

      3. 通過(guò)采集的第一視角視頻數(shù)據(jù),Ego4D團(tuán)隊(duì)可以開(kāi)發(fā)AI模型來(lái)解決新的任務(wù)

      與數(shù)據(jù)收集同樣重要的是,定義正確的任務(wù),進(jìn)行嚴(yán)格的人工標(biāo)注,來(lái)引導(dǎo)新技術(shù)的研發(fā)。

      為此,Ego4D 學(xué)術(shù)聯(lián)盟聯(lián)合構(gòu)建了五個(gè)全新的、具有挑戰(zhàn)性的任務(wù):

      (1) 情景記憶:什么時(shí)候發(fā)生了什么?如圖3A, 告訴我錢(qián)包最近一次出現(xiàn)的位置。

      (2) 預(yù)測(cè)未來(lái):我接下來(lái)要做什么?如圖3B, 他即將跳起來(lái)抓住單杠。

      (3) 手與物體交互:我在做什么以及如何做?如圖3C, 告訴我下一步的操作。

      (4) 視覺(jué)+聽(tīng)覺(jué):多人場(chǎng)景下,誰(shuí)在什么時(shí)候說(shuō)了什么?如圖3D, 生成會(huì)議內(nèi)容的總結(jié)。

      (5) 社交交互:人與人如何交互?如圖3D, 我注視著他,而他正在對(duì)我說(shuō)話。

      “我們NUS研究團(tuán)隊(duì)主要為其中兩個(gè)關(guān)鍵任務(wù)開(kāi)發(fā)模型:一是,利用聲音和視覺(jué)線索幫助AI識(shí)別“誰(shuí)在什么時(shí)候說(shuō)了什么;二是,開(kāi)發(fā)具有社交智能的 AI,檢測(cè)當(dāng)下誰(shuí)在對(duì)誰(shuí)說(shuō)話,誰(shuí)在關(guān)注誰(shuí)。”同樣來(lái)自NUS團(tuán)隊(duì)的Co-PI李海洲教授如是說(shuō)。

      有第一視角感知能力的AI,將賦能AR眼鏡、智能機(jī)器人等等同樣是第一視角的設(shè)備,將在我們的日常生活和工作中發(fā)揮更大作用。想象一下:在對(duì)著新菜譜做菜時(shí),不必再來(lái)來(lái)回回地看菜譜,你的AR 眼鏡就可以實(shí)時(shí)地同步指導(dǎo)你執(zhí)行每個(gè)步驟;對(duì)于有阿爾茨海默癥等健康問(wèn)題的人,AR眼鏡可以幫助他們回憶錢(qián)包放在哪里了。

      Ego4D數(shù)據(jù)集只是起點(diǎn),研發(fā)第一視角AI技術(shù),進(jìn)而賦能智能機(jī)器人、AR眼鏡,將在不遠(yuǎn)的將來(lái),改變我們的生活、工作、娛樂(lè)方式,帶給我們前所未有的、虛擬與現(xiàn)實(shí)交融的體驗(yàn)。

      更多技術(shù)詳情請(qǐng)見(jiàn)Arxiv論文:https://arxiv.org/abs/2110.07058
      附:
      Ego4D 計(jì)劃的學(xué)術(shù)聯(lián)盟包括以下主要負(fù)責(zé)人:CV Jawahar (印度國(guó)際信息科技研究院,海得拉巴), David Crandall (印第安納大學(xué)), Dima Damen (布里斯托大學(xué)), Giovanni Maria Farinella (卡塔尼亞大學(xué)), Kristen Grauman (Facebook AI), Bernard Ghanem (阿卜杜拉國(guó)王科技大學(xué)), Jitendra Malik (Facebook AI), Kris Kitani (卡內(nèi)基梅隆大學(xué)和卡內(nèi)基梅隆大學(xué)非洲校區(qū)), Aude Oliva (麻省理工學(xué)院), Hyun Soo Park (明尼蘇達(dá)大學(xué)), Jim Rehg (佐治亞理工學(xué)院), Yoichi Sato (東京大學(xué)), Jianbo Shi (賓夕法尼亞大學(xué)), Antonio Torralba (麻省理工學(xué)院), Mike Zheng Shou (新加坡國(guó)立大學(xué)), and Pablo Arbelaez (哥倫比亞安第斯大學(xué))。

      Facebook和NUS、MIT等高校聯(lián)合推出3000小時(shí)的第一視角視頻數(shù)據(jù)集Ego4D

      雷鋒網(wǎng)


      雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知

      Facebook和NUS、MIT等高校聯(lián)合推出3000小時(shí)的第一視角視頻數(shù)據(jù)集Ego4D

      分享:
      相關(guān)文章

      運(yùn)營(yíng)

      當(dāng)月熱門(mén)文章
      最新文章
      請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
      姓名
      電話
      郵箱
      微信號(hào)
      作品鏈接
      個(gè)人簡(jiǎn)介
      為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
      您的郵箱還未驗(yàn)證,完成可獲20積分喲!
      請(qǐng)驗(yàn)證您的郵箱
      立即驗(yàn)證
      完善賬號(hào)信息
      您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說(shuō)
      主站蜘蛛池模板: 无码熟妇人妻AV影音先锋| 久久狠狠色噜噜狠狠狠狠97视色| 日本三级韩国三级欧美三级| 丝袜美腿亚洲一区在线| 国产9 9在线 | 中文| 免费的很黄很污的视频| 国产又黄又爽又刺激的免费网址| 国产成人无码A片免费看| 秋霞鲁丝无码一区二区三区 | 9丨精品国产高清自在线看| 久久精品国产亚洲av天海翼| 国产亚洲婷婷香蕉久久精品| 精品国模| 黄色日韩欧美视频免费在线观看| 久久国产精品老人性| 无码国产一区二区三区四区| 亚洲天堂av 在线| 国产精品久久精品| 国产精品无码素人福利不卡| 精品一区二区成人精品| 国产精品美女久久久久av福利| 欧美巨大xxxx做受中文字幕| 亚洲AV无码久久精品色欲| 揉着我的奶从后面进去视频| 国产一区二区三区色噜噜| 亚洲欲妇| 久久精品国产亚洲av麻豆长发| 成人网中文字幕| 欧美日韩在线视频| 午夜精品福利亚洲国产| 久久日产一线二线三线| 欧美Aⅴ| 丰满老熟女毛片| 性欧美疯狂xxxxbbbb| 老鸭窝在钱视频| 亚洲黑人av| 伊人精品成人久久综合97| 亚洲第一视频区| 国产精品久久久国产盗摄| 日韩大片在线永久免费观看网站| 国产丝袜在线视频|