需要注意的是,有時選擇的示教方法和獲取的數(shù)據(jù)類型與學習算法的選擇有關。一方面來自多個模態(tài)的示范增加了維數(shù),增加了學習的復雜性。數(shù)據(jù)的維數(shù)可以降低,但是有些信息被忽略,導致從示教數(shù)據(jù)中學習不當。另一方面,缺少傳感模態(tài)可能會在一開始就提供不完整的信息,導致學習算法表現(xiàn)不理想。
GJ技能可以認為是一組低J技能或一組動作基元。除此之外,GJ技能還包括對象可視性,涉及構建物理世界對象和機器人動作之間關系的知識。GJ技能學習方法可以大致分為學習計劃和學習目標。
1)學習計劃:在這種GJ技能的學習方法中,學習計劃為從初始狀態(tài)到終狀態(tài)的一系列動作。因此,動作是根據(jù)前置條件和后置條件定義的。前置條件為動作執(zhí)行前的狀態(tài),后置條件為動作執(zhí)行后的狀態(tài)。除此之外,人類教師還用注釋的形式提供附加信息。注釋可以通過觸覺、視覺或語義來提供。額外的信息允許更好地概括G水平的技能?蓤(zhí)行的動作可以是簡單的低J技能,如抓住目標對象,拾起綠色的對象等,組合起來形成一個GJ任務,如排序綠色的對象。另一方面,有一些方法可以通過在示教數(shù)據(jù)中尋找重復的結構來從GJ技能示教中提取低J技能,這樣就可以在不同的示教中識別它。在[2]中,一個示教學習范例是通過人類示教和在程序界面輸入的用戶目的來描述的。在[18]中,一些涉及一系列順序旋轉和轉換的日常對象操作的示教被用來提取順序的低J技能,并進一步構建一個計劃。這項工作還示教了從一個對象到其他類似對象的學習知識轉移。
2)學習目標:推斷GJ技能的目標。人類教師提供的示教被用來推斷執(zhí)行GJ技能的意圖。通過生成假設,可以從重復的示教中推斷出目標,F(xiàn)代方法也使用基于獎勵函數(shù)的強化學習方法來實現(xiàn)期望目標。如果獎勵函數(shù)是從給定的示教中學習的,那么它就被認為是目標學習。一些基于強化學習的方法得到了很好的研究[19]。
3、討論總結
技能的學習直接依賴于示教的準確性。大多數(shù)方法[20]手動消除了部分示教中的噪聲。結合強化學習,在獎勵和探索機制的基礎上對技能學習進行改進。另一種改進技能的方法涉及示教者反饋[21]。當機器人在一個稍微不熟悉的情況下執(zhí)行學習到的技能時,從人類教師那里得到關于執(zhí)行技能可取性的反饋。目前為了實現(xiàn)這種技能細化的方法,研究人員主要從兩個方面進行了研究:(1)控制機器人和人類教師之間的信息交互,(2)提供反饋。
資料獲取 | ||||||
|
||||||
智能教育機器人功能介紹 |
||||||
新聞資訊 | ||||||
== 資訊 == | ||||||
» 智能自動導航機器人發(fā)展核心驅動因素:技術 | ||||||
» 2025中國外骨骼機器人產(chǎn)業(yè)排行榜Top | ||||||
» 機器人行業(yè)輕量化深度報告:機器人輕量化大 | ||||||
» 智能移動機器人市場規(guī)模分析:規(guī)模為221 | ||||||
» 2025智能移動機器人電機與減速機產(chǎn)品發(fā) | ||||||
» 2025人形機器人的崛起-從科幻照進現(xiàn)實 | ||||||
» 智能養(yǎng)老機器人深度:場景深度耦合具身智能 | ||||||
» 養(yǎng)老機器人的近萬億級機器人市場, 生態(tài)搭 | ||||||
» 各地主要人形機器人政策及核心內(nèi)容 | ||||||
» 人形機器人的產(chǎn)業(yè)布局特點:核心突破-特色 | ||||||
» 國產(chǎn)人形機器人:多維共振 應用場景落地加 | ||||||
» 機器人底盤設計同步驅動結構的輪子裝配 | ||||||
» 移動機器人輪子類型的選擇,輪子的結構和裝 | ||||||
» 輪式引導機器人的輪子設計方案:四種輪子類 | ||||||
» 六腿機器人(六腳)設計案例參考:Laur | ||||||
== 機器人推薦 == | ||||||
![]() 服務機器人(迎賓、講解、導診...) |
||||||
![]() 智能消毒機器人 |
||||||
![]() 機器人底盤 |
![]() |