<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給奕欣
      發送

      0

      優必選4篇CVPR 2018錄用論文摘要解讀

      本文作者: 奕欣 2018-04-20 14:55 專題:CVPR 2018
      導語:優必選悉尼 AI 研究院有 4 篇被錄用為poster論文。
      論文
      名稱:CVPR
      時間:2018
      企業:優必選

      雷鋒網 AI 科技評論按:CVPR 2018 總投稿量超 4000 篇,最終錄取數超 900 篇,錄取率不到 23%。其中,優必選悉尼 AI 研究院有 4 篇論文被錄用為 poster。論文詳細解讀如下:

      論文1:An Efficient and Provable Approach for Mixture Proportion Estimation Using Linear Independence Assumption

      優必選4篇CVPR 2018錄用論文摘要解讀


      為了研究混合分布中各個組成分別的比例系數,假設各個組成分布滿足線性獨立的假設(即不存在一種組合系數,使得這些組成分布的線性組合所得到的分布函數處處為0),并且假設每個組成分布中都可以采樣到少量的數據。首先論證了組成分布線性獨立(組成分布不相同即可)的假設要弱于現有的估計其比例方法的各種假設。其次,提出先將各個分布嵌入到再生核Hilbert空間,再利用最大平均差異的方法求取各組成分布的比例系數。該方法能夠(1)保證比例系數的唯一性和可識別性;(2)保證估計的比例系數能夠收斂到最優解,而且收斂率不依賴于數據本身;(3) 通過求解一個簡單的二次規劃問題來快速獲取比例系數。這項研究擁有廣泛的應用背景,比如含有噪聲標簽的學習,半監督學習等等。

      論文2:Deep Ordinal Regression Network for Monocular Depth Estimation

      優必選4篇CVPR 2018錄用論文摘要解讀


      在3D視覺感知主題里,單目圖像深度估計是一個重要并且艱難的任務。雖然目前的方法已經取得了一些不錯的成績,但是這些方法普遍忽略了深度間固有的有序關系。針對這一問題,我們提出在模型中引入排序機制來幫助更準確地估計圖像的深度信息。具體來說,我們首先將真值深度(ground-truth depth)按照區間遞增的方法預分為許多深度子區間;然后設計了一個像素到像素的有序回歸(ordinal regression)損失函數來模擬這些深度子區間的有序關系。在網絡結構方面,不同于傳統的編碼解碼 (encoder-decoder)深度估計網絡, 我們采用洞卷積 (dilated convolution)型網絡來更好地提取多尺度特征和獲取高分辨率深度圖。另外,我們借鑒全局池化和全連接操作,提出了一個有效的全局信息學習器。我們的方法在KITTI,NYUV2和Make3D三個數據集上都實現了當前最佳的結果。并且在KITTI新開的測試服務器上取得了比官方baseline高出30%~70%的分數。

      論文3:Self-Supervised Adversarial Hashing Networks for Cross-Modal Retrieval

      優必選4篇CVPR 2018錄用論文摘要解讀

      由于深度學習的成功,最近跨模態檢索獲得了顯著發展。但是,仍然存在一個關鍵的瓶頸,即如何縮小多模態之間的模態差異,進一步提高檢索精度。本文提出了一種自我監督對抗哈希(SSAH)方法。這種將對抗學習以自我監督的方式引入跨模態哈希研究,目前還處于研究早期。這項工作的主要貢獻是采用了一組對抗網絡來最大化不同模態之間的語義相關性和表示一致性。另外,作者還設計了一個自我監督的語義網絡,這個網絡針對多標簽信息進一步挖掘高層語義信息,使用得到的語義信息作為監督來指導不同模態的特征學習過程,以此,模態間的相似關系可以同時在共同語義空間和海明空間兩個空間內得以保持,有效地減小了模態之間的差異,進而產生精確的哈希碼,提高檢索精度。在三個基準數據集上進行的大量實驗表明所提出的 SSAH 優于最先進的方法。

      論文4:Geometry-Aware Scene Text Detection with Instance Transformation Network

      優必選4篇CVPR 2018錄用論文摘要解讀


      自然場景文字識別由于其文字外形、布局十分多變,是計算機視覺中具有挑戰性的問題。在本文中,我們提出了幾何感知建模方法(geometry-aware modeling)和端對端學習機制(end-to-end learning scheme)來處理場景文字編碼的問題。我們提出了一種新的實例轉換網絡(instance transformation network),使用網內變換嵌入的方法學習幾何感知編碼,從而實現一次通過的文本檢測。新的實例變換網絡采用了轉換回歸,文本和非文本分類和坐標回歸的端對端多任務學習策略。基準數據集上的實驗表明了所提方法在多種幾何構型下的有效性。

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      優必選4篇CVPR 2018錄用論文摘要解讀

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 文成县| 亚洲春色在线视频| 少妇被粗大的猛烈xx动态图| 777米奇色狠狠888俺也去乱| 91丝袜在线| 色爱区成人综合网| 日本三级香港三级人妇99| 日本道专区无码中文字幕| 欧美黑吊大战白妞| 全州县| 中国亚洲女人69内射少妇| 精品va在线观看| www.色小在线精品| 午夜爽爽爽男女免费观看影院| 毛茸茸XXXX自慰| 国产美女久久久亚洲综合| 国内精品久久久久影院老司机| 丰满少妇高潮惨叫久久久| 97香蕉碰碰人妻国产欧美| 老少配BBw性少配老| 国产丝袜自拍| 久久午夜伦鲁鲁片免费| 精品午夜福利短视频一区| 日本一卡二卡不卡视频查询| 人妻激情文学| 亚洲国产精品成人网站| 国偷自产一区二区免费视频| 午夜性福利| 色吊丝永久访问A| 久久夜色撩人精品国产av| 澳门久久| 中文一区二区视频| 成年女人看片免费视频| 美女视频黄频大全免费| 精品国产一卡2卡3卡4卡新区| а√在线中文网新版地址在线| 自拍偷拍国产| 亚洲AⅤ色无码乱码精品| 久久久噜噜噜久久中文字幕色伊伊| 免费人成黄页在线观看美国| 国产成人午夜在线视频极速观看|