當前位置:成語大全網 - 新華字典 - 觸覺智能在機器人抓取物體中起什麽作用?

觸覺智能在機器人抓取物體中起什麽作用?

現在各行各業都在關註機器人視覺,這並不是實現完美抓取的核心問題。除了視覺,還有壹個東西促進了機器人抓取的發展:觸覺智能。

對於我們來說,拿起壹個東西是非常簡單的,但對於機器人來說卻不簡單。於是壹些機器人專家想研發壹種可以拿起任何東西的機器人,但目前大多數機器人都是“盲目抓取”,每次都專門從同壹個位置抓取。壹旦被抓取物體的形狀、紋理或位置發生變化,機器人將無法應對,抓取測試大多以失敗告終。

機器人要想壹次完美抓取東西,還有很長的路要走。為什麽機器人很難抓取任何物體?因為人在想抓東西的時候,會結合視覺、觸覺等感官。但是目前很多機器人只是用視覺抓取東西。

事實上,人對事物的把握能力並不完全依賴於視覺。雖然視覺對於抓東西很重要(當妳瞄準右邊的物體時),但是視覺並不能告訴妳抓東西的壹切。想想史蒂芬·平克是如何描述人的觸覺的:“想象妳拿起壹個牛奶盒。如果妳握得太松,盒子就會掉下來;握得太緊,會把牛奶擠出盒子;妳甚至可以通過感覺手指上的牽引力來估計盒子裏有多少牛奶。”這是他在《思維如何工作》壹書中寫的。因為機器人沒有那些感官能力,所以人類在拿起和放下物體的任務中,還是把它們扔了幾條街。

作為加拿大蒙特利爾波爾多理工學院CoRo實驗室的負責人和位於魁北克市的機器人公司Robotiq IQ的聯合創始人,作者長期研究抓取方法的重要發展。目前,筆者認為社會各界對機器人視覺的關註並不是實現完美抓取的核心問題。除了視覺,還有壹個東西促進了機器人抓取的發展:觸覺智能。

以前的研究集中於視覺,而不是觸覺智能。

目前,許多關於機器人抓取事物的研究都集中在圍繞視覺反饋構建智能。數據庫圖像匹配是構建智能的方法之壹,也是人類在百萬對象挑戰賽中對布朗大學機器人實驗室使用的方法。他們的想法是讓機器人使用攝像頭找到目標,並引導自己移動和抓取物體。在這個過程中,機器人會將他們實時獲得的信息與數據庫中存儲的3D圖像進行比較。機器人壹旦找到匹配,就能找到能應對當前情況的計算程序。

雖然丹布朗大學正在收集各種物體的視覺數據,但機器人專家可能不會針對每個機器人可能遇到的不同情況,在視覺數據庫中建立每壹項。另外,數據庫匹配方法沒有環境限制,不會讓機器人調整抓取策略來適應不同的環境。

為了提高機器人的抓取能力,其他科學家也開始研究機器人學習技術。這些技術使機器人能夠從自己的經驗中學習,所以最終,機器人可以找到自己抓東西的最佳方式。此外,與數據庫匹配方法不同,機器學習不需要事先建立圖像數據庫,它們只需要更多的練習。

據IEEE Spectrum早前報道,谷歌最近進行了壹項結合視覺系統和機器學習的抓取技術實驗。過去,科學家試圖通過教機器人采取人類認為最好的方法來提高它們的抓取能力。谷歌最大的突破是向機器人展示,他們可以使用卷積神經網絡、視覺系統和從超過8萬個抓取動作中獲得的數據,通過從過去的經驗中學習到的知識,教會自己如何抓取東西。

他們的前景看起來並不是特別光明:因為機器人的反應並不是預先編程的,正如其中壹位科學家所說,他們所有的進步都可以說是“來自學習”。但視覺能告訴機器人抓取東西的東西非常有限,谷歌可能已經走到了這項技術的最前沿。

只關註視覺帶來的壹些問題

為什麽谷歌和其他科學家很難通過單壹的願景解決問題?經過筆者總結,大概有三個原因。第壹,視野受限於技術。即使是最先進的視覺系統也會在某些照明條件下(如透明、反射和低對比度顏色)無法識別物體。當物體太薄時,識別也會受阻。

其次,在很多抓取場景中,不可能看清所有的物體,因此視覺很難提供機器人所需的所有信息。如果機器人試圖從桌子上拿起壹個木制時鐘,簡單的視覺系統只能檢測到時鐘的上半部分。如果從盒子裏拿東西,會涉及到更多的物體,所以周圍的物體可能會模糊目標物體的壹部分甚至全部。

最後,也是最重要的壹點,視覺不符合這件事的本質:抓取物體需要接觸和力量,這是視覺無法控制的。在最好的情況下,視覺可以讓機器人知道能夠使抓取動作成功的手指形狀,但最終,機器人需要觸覺信息來讓它們知道被抓取物體的物理值。

觸覺智能提供了最好的幫助。

觸覺在人類抓取和控制事物的過程中起著核心作用。對於失去雙手的截肢者來說,最大的困惑就是在使用假肢的時候感覺不到自己接觸的東西。沒有觸覺,截肢者在抓取和控制東西時需要靠近目標,而健康人在拿起東西時甚至不需要看。

目前,科學家們已經意識到觸覺傳感器在抓取物體中的重要作用。在過去的三十年裏,他們壹直試圖用觸覺傳感器來代替人體器官。但是觸覺傳感器發送的信息是非常復雜和高維的,給機器人增加傳感器並不會直接提高抓取能力。我們需要的是壹種能夠將未加工的低級數據轉化為高級信息的方法,從而提高對事物的把握和控制能力。觸覺智能可以使機器人通過觸摸、識別物體滑動和定位物體來預測自己是否能成功抓住物體。

在波爾多理工學院的CoRo實驗室,作者和他的同事們正在開發觸覺智能的核心部分。最新的成果是壹種機器人學習算法,它使用壓縮圖像來預測抓取物體的成功與否。這套系統是由迪恩·考克伯恩和讓-菲利普·羅伯格開發的,可以使機器人更加人性化。當然,人類已經學會了通過觸摸和觀察手指的形狀來判斷抓東西是否成功。然後我們改變手指的形狀,直到有足夠的信心成功抓住東西。在機器人學會如何快速調整手指形狀之前,他們需要更好地預測抓取物體的結果。

觸覺智能對機器人抓取物體有多重要?這也是為什麽筆者認為CoRo實驗室會達到巔峰的原因。將Robotiq的機械手與通用機器人的UR10控制器相結合,在Kinect視覺系統的基礎上增加其他觸覺傳感器(只針對每個物體的幾何中心),機器人可以拿起很多東西,利用中間數據實現自我學習。最後,作者和同事們成功創建了壹個可以準確預測83%抓取動作的系統。

觸覺智能在機器人抓取中有多重要?由Jean-Philippe Roberge領導的CoRo實驗室的另壹個團隊專註於滑動監測。人類在抓握物體時,能夠迅速察覺到物體的滑動,是因為手指上有壹個適應性很強的機械刺激感受器,它是皮膚上的壹個傳感器,能夠感受到壓力和振動的快速變化。由於物體的滑動會引起手表面振動,科學家將這些振動圖像(光譜圖)而不是壓力圖像放入機器學習算法中。使用與抓取預測實驗中相同的機器人,他們的系統可以學習振動圖像中與物體滑動相關的特征,其識別物體滑動的準確率高達92%。

讓機器人註意到物體的滑動可能看起來很簡單,因為滑動只是壹系列的振動。但是,機器人如何區分物體滑出機器人手掌產生的震動和機器人在表面(比如桌子)拖動物體產生的震動呢?別忘了,機械臂的運動也會引起壹些小的震動。三個不同的動作會發出相同的信號,但機器人需要做出不同的反應。因此,機器人需要學會區分不同的動作。

在機器學習方面,兩個CoRo團隊都達到了壹個點:不能把人工特征強加給機器人學習算法。也就是說,這個系統不能依賴於科學家的猜測,而應該讓機器人在篩選滑動(或者預測抓取的結果和抓取的實驗)時,自己決定什麽是重要的。

在過去,“高級功能”都是人工創造的,也就是說科學家會選擇壹些他們認為可以幫助機器人識別不同類型滑動物體的特征(或者判斷抓取動作是否完美)。例如,他們可能會將允許機器人僅抓取對象頂部的壓力圖像與失敗的抓取動作聯系起來。但是讓機器人自己學習會更有效,因為科學家想的不壹定對。

稀疏編碼在這裏非常有用。它是壹種無監督的功能學習算法,通過制作稀疏字典來表示新數據。首先,這個字典是由聲譜圖(或未處理的壓力圖像)自動生成,然後輸入稀疏編碼算法,其中包含了很多高級功能。然後在下壹次抓取動作中產生新的數據時,會以這個字典為中介,將新的數據轉換成有代表性的數據,也叫稀疏向量。最後,稀疏向量會被分成不同的組,引起不同的振動(或成功和失敗的抓取結果)。

CoRo實驗室現在正在測試壹種自動更新稀疏編碼算法的方法,這樣每個抓取動作都可以幫助機器人做出更好的預測。然後,在每次抓取動作中,機器人都會利用這些信息來調整自己的動作。最終,這項研究將成為結合觸覺和視覺智能來幫助機器人學習抓取不同物體的最佳範例。

觸覺智能的未來

這項研究的關鍵點是不應該放棄視覺。視覺還是應該貢獻絕對的力量來抓東西。但現在人工視覺發展到壹定階段,可以更好地專註於發展觸覺智能的新方向,而不是繼續強調視覺的單壹力量。

CoRo實驗室的Roberge將研究視覺和觸覺智能的潛力與Pareto的80-20法則進行了比較:由於機器人群體在視覺智能領域的80%已經占據上風,它很難支配剩下的20%,因此視覺不會在控制事物方面發揮這麽大的作用。相反,機器人專家還在為那80%的觸覺而奮鬥。相對來說,做到這80%會相對簡單,而且可能對機器人抓取能力的提升有很大的貢獻。

如果目標是通過觸摸識別物體,為人類清潔房間,我們還有很長的路要走。但當那壹天真的到來時,我們會由衷地感謝這些為開發觸覺智能而努力的科學家們。