<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      機器人 正文
      發私信給楊波
      發送

      0

      在機器人抓物這點上,觸覺智能有多重要

      本文作者: 楊波 2016-08-09 18:16
      導語:撿起一樣東西其實并不像我們平時看到的那樣的簡單。至少對機器人來說,并不簡單。機器人專家想要發明一個可以撿起任何東西的機器人,但是眼下幾乎所有的機器人只會在它們費

      在機器人抓物這點上,觸覺智能有多重要撿起一樣東西其實并不像我們平時看到的那樣的簡單。至少對機器人來說,并不簡單。機器人專家想要發明一個可以撿起任何東西的機器人,但是眼下幾乎所有的機器人只會在它們費盡心力想要抓到東西的地方“盲目亂抓”。就算物體的形狀、質地或是位置發生了變化,機器人也反應不過來,所以它們每次的嘗試大多會失敗。

      離機器人一次就完美地抓起東西,我們還有很長的路要走。為什么抓東西這個任務這么難做到呢?因為當人們嘗試去抓東西的時候,他們運用了多重感官,主要包括視覺和觸覺。但是就目前看來,在抓東西上,很多機器人都只用了視覺。

      實際上,人的抓物能力并不是完全依靠視覺,盡管視覺對抓物來說很重要(當你要瞄準右邊的物體時),但是,視覺不能告訴你關于抓物的每一件事情。想想Steven Pinker是怎么描述人們的觸覺感官能做到的一切吧:“想象你拿起一個牛奶盒。你握得太松,盒子會掉;你握得太緊,會把盒子里的牛奶擠出來;你輕輕晃動,甚至可以通過感受你手指上的牽引感去估測盒子里有多少牛奶?!彼凇端季S是如何運作的》一書中是這么寫道的。因為機器人沒有那些感官能力,所以在撿起、放下物體的任務中,人類還是狂甩他們幾條街的。

      作為加拿大蒙特利爾的波爾多綜合理工學院的CoRo實驗室的領導人和一個位于魁北克城的機器人公司Robotiq的聯合創始人,筆者對抓物方法的重要發展已研究甚久。目前,筆者認為當今各界對機器人視覺的關注,并不是能夠實現完美抓物的核心問題。除了視覺,推動機器人抓物發展的還有另一樣東西:觸覺智能。

      以前的研究專注于視覺,而不是觸覺智能

      目前,許多關于機器人抓物的研究都集中在建立圍繞視覺反饋的智能上。數據庫圖像匹配是建立智能的方法之一,這也是布朗大學的Humans to Robots實驗室在Million Objects Challenge中利用的方法。他們的想法是,讓機器人利用照相機去發現目標物,并主導自己移動、抓物。在這個過程中,機器人將它們實時獲取的信息和數據庫里存儲的3D影像作對比。一旦機器人發現了其中匹配項,那么它就可以找到可以應對當前情況的計算程序。

      雖然當布朗大學在為各種物體收集視覺數據,但是機器人專家們不見得會為每個機器人可能遇到的不同情況建立視覺數據庫中的每個項目。另外,數據庫匹配法中沒有環境限制,所以它不會讓機器人調節抓物策略以適應不同環境。

      其他科學家為了提高機器人的抓物能力,也紛紛開始研究機器人學習技術。這些技術讓機器人可以從它們的經驗中實現自我學習,所以到了最后,機器人可以自己發現抓物的最佳方法。另外,不像數據庫匹配法,機器學習不需要提前建立圖像數據庫,它們只需要多加練習。

      正如IEEE Spectrum早前報道的,谷歌最近做了一個結合視覺系統和機器學習的抓物技術實驗。過去,科學家嘗試通過教機器人采取那些人類覺得最好的方法提高抓物能力。谷歌最大的突破是,向機器人展示了他們可以利用卷積神經網絡、視覺系統和從八萬多個抓物動作中獲取的數據,通過他們從過往經歷中學到的知識,教自己怎么抓東西。

      他們的前景看起來并不是特別光明:因為機器人的反應并沒有預先編程,正如其中一個科學家所說,他們所有的進步都可以說是“從學習中得來的”。但是視覺能告訴機器人的關于抓物的事情十分有限,谷歌也許已經到達了這個技術的最前沿。

      只關注視覺帶來的某些問題

      為什么谷歌和其他科學家很難通過單一的視覺來解決問題?經筆者總結,大概有以下三個原因。第一,視覺受限于技術。就算是最先進的視覺系統也會在某些燈光條件下(比如透明、反射、低對比度的顏色),在識別物體中出現故障。當物體太薄的時候,識別也會受阻。

      第二,在很多抓物場景下,無法看清物體的全部,所以視覺很難提供機器人需要的所有信息。如果一個機器人嘗試從桌上拿起一個木制鐘,簡單的視覺系統系統只能檢測到鐘的上部。如果是從箱子中取物的話,涉及到的物體就更多了,那么周圍的物體可能會使目標物部分甚至全部模糊化。

      最后一點,也是最重要的,視覺不符合這件事的本質:抓物需要的是接觸和力量,這些都不能受到視覺的控制。在最好的情況下,視覺可以讓機器人知道能使抓物動作成功的手指形態,但是最后機器人需要的是可觸性的信息,讓它們得知所抓物的物理值。

      觸覺智能獻上最佳助攻

      觸覺在人類的抓物、控物動作中扮演了核心角色。對失去了手的截肢者來說,他們最大的困惑是,在用義肢的時候感覺不到自己在摸什么。沒有了觸覺,截肢者們在抓物和控物的時候,需要離目標物很近,而一個健全的人撿物的時候甚至不需要看著它。

      目前,科學家們意識到,在抓物過程中觸覺感應器的重要作用。在過去的三十年間,他們一直嘗試用觸覺感應器取代人體器官。然而,觸覺感應器發送的信息非常復雜、高維,而且在機械手中加入感應器并不會直接提高它們的抓物能力。我們需要的是能夠把未處理的低級數據轉變成高級信息,從而提高抓物和控物能力的方法。觸覺智能可以通過觸摸、識別物體的滑動和定位物體讓機器人預測抓物是否能成功。

      在波爾多綜合理工學院CoRo實驗室中,筆者和他的同事們在研發觸覺智能的核心部分。最新的成果是一個利用壓迫象預測抓物是否成功的機器人學習算法。這個系統是由Deen Cockburn和Jean-Philippe Roberge共同研發的,它能夠把機器人變得更加人性化。當然,人類學會了通過觸覺和觀察手指的形態,來判斷抓物是否成功。然后我們改變手指的形態,直到對抓物的成功有了足夠自信。在機器人學會如何快速調適手指形態之前,他們需要更好地預測抓物結果。

      在機器人抓物這點上,觸覺智能有多重要這就是筆者相信CoRo實驗室會走向巔峰的原因。把Robotiq的機械手和Universal Robots的UR10控制器結合在一起,在加上其他多種模式的居家及基于Kinect視覺系統(只瞄準每個物體的幾何中心)的觸覺感應器,得到的機器人可以撿起很多東西,并且利用中間的數據實現自我學習。最后,筆者和同事們成功制造了一個能準確預測83%的抓物動作的系統。

      在機器人抓物這點上,觸覺智能有多重要由Jean-Philippe Roberge領導的CoRo實驗室的另一個團隊,專注于滑動監測。在抓物的時候,人類可以迅速察覺物體的滑動,因為手指上有一個高適應性的機械性刺激感受器,它是位于皮膚上的可以感受壓力和震動的快速變化的感應器。由于物體的滑動會引起的手部表面震動,所以科學家們把這些震動的圖像(光譜圖),而不是壓力象放進機器學習算法中。利用與抓物預測實驗中相同的機器人,他們的系統可以學習和物體滑動相關的震動圖像中的特征,其識別物體滑動的精確度高達92%。

      讓機器人注意到物體的滑動或許看起來很簡單,因為滑動只是一系列的震動。但是,該如何讓機器人分辨物體滑出機器人手心引起的震動,和機器人在物體表面(比如一張桌子)拖動物體引起的震動呢?不要忘了機器人手臂的運動同樣會引起一些微小的震動。三個不同的動作會發射同樣的信號,但是機器人需要做出不同的回應。因此,機器人需要學會分辨不同的動作。

      在機器學習這個方面,兩支CoRo的隊伍達成了一點共識:他們不能把手工特征強加在機器人學習算法中。也就是說,這個系統不能依賴科學家的猜測,而是應該讓機器人自己決定在甄別滑動(或是在預測抓物結果、預測抓物實驗中)的時候,什么是重要的。

      以前,“高級功能”都是人工打造的,這意味著科學家會選擇一些他們認為可以幫助機器人甄別不同類型的物體滑動的特征(或是判斷抓物動作是否完美)。比如,他們或許會將一個讓機器人只抓物體頂部的壓力象與失利的抓物動作掛鉤。但是讓機器人自己學習,反而會更有成效,因為科學家想的不一定是對的。

      稀疏編碼在這里會非常有用。它是個無人監管的功能學習算法,通過制造用來代表新數據的稀疏字典來運作。首先,這個字典自動通過光譜圖(或未經處理的壓力象)自我生成,然后輸入到稀疏編碼算法中,其中包含了很多高級功能。然后,當新數據產生于接下來的抓物動作中后,這個字典會被用作將新數據轉換成代表性數據的中介,也被叫作稀疏向量。最后,稀疏向量會被分到引發不同震動的不同組內(或是成功和失敗的抓物結果中)。

      在機器人抓物這點上,觸覺智能有多重要

      CoRo實驗室現在在測試讓稀疏編碼算法自動更新的方法,這樣每次抓物動作都可以幫助機器人做出更好的預判。然后,在每次抓物動作中,機器人會利用這些信息去調整自己的動作。最終,這個研究會成為結合觸覺和視覺智能,幫助機器人學會抓住不同物體的最好范例。

      觸覺智能的未來

      這項研究的關鍵點在于,視覺不應該被拋棄。視覺依然應該為抓物貢獻絕對的力量。但是,現在人工視覺已經到了發展的某一階段,它可以更好地專注于發展觸覺智能的新方向,而不是繼續強調視覺的單一力量。

      CoRo實驗室的Roberge把研究視覺和觸覺智能的潛能和Pareto的80-20法則作了對比:既然機器人社區已經在視覺智能80%的領域占了上風,那么它很難再主宰剩下的20%了,所以視覺不會在控物上發揮那么大的作用了。相反,機器人專家們依然在為觸覺感知的那80%而努力奮斗著。相對而言,做好這80%會比較簡單,而且這有可能為機器人的抓物能力的提高作出巨大的貢獻。

      如果以機器人通過觸摸識別物體、為人類清理房間為目標的話,我們還有很長的路要走。但是當那天真的到來的時候,我們一定會衷心感謝這些努力研發觸覺智能的科學家們。

      via spectrum

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。

      分享:
      相關文章

      編輯

      最后一只小魚干
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 精品少妇人妻av无码久久| 亚洲国产成人av毛片大全| 丰满少妇猛烈进入| 蜜桃av亚洲精品一区二区| 国产男女免费完整视频| 九色最新网址| 少妇大叫太大太爽受不了| 91手机在线视频| 亚洲在线不卡| 精品人妻少妇| 人妻在线免费公开视频| 少妇被粗大的猛烈进出69影院一| 日韩亚洲欧美中文高清在线| 电影内射视频免费观看| 嘉定区| 亚洲国产精品久久久久秋霞影院| 91在线亚洲| 国产精品va在线观看无码| 日本中文字幕色| 在线成人AV| 国产360激情盗摄全集| 欧美性猛交xxxx富婆| 人妻无码第一区二区三区| 精品国产一区二区三区久| 亚洲欧美综合区自拍另类| 界首市| 欧美日韩中文国产一区| 欧美劲爆第一页| 高清精品一区二区三区| 超碰666| 强奸福利视频在线观看| 国产真实乱人偷精品视频| 无码黑人精品一区二区| 成年午夜免费韩国做受视频| 日韩特黄无码A片免费视频| 伊人久久大香线蕉网av| 精品人妻伦九区久久AAA片| 狠狠亚洲婷婷综合色香五月| 中文字幕乱码亚洲美女精品| 玩弄白嫩少妇xxxxx性| 精品在线观看视频二区|