隨著自然語言處理技術的發展以及客戶需求的提高,當機器人進入以人為主的環境時,必須學會理解人類語言,完成指定任務。相較於傳統隻對場景做出反應的機器人操作方法,結合語義輸入,讓機器人理解人類語言,根據場景和自然語言指令完成相應任務,能為人機協作帶來更大的便利性。然而,目前該方法具有如下限製:
(1)依賴手工編碼任務符號來實現語義表達,限製了語義層麵的泛化性。
(2)從指令中推斷動作序列時,需要密集的子目標監督。
(3)缺乏更深層次的以目標為中心的推理方法,在解釋複雜指令時不連貫。
針對上述問題,該文章提出了一種可感知視覺場景,同時處理語言輸入的端到端可訓練的模型。該模型使用視覺輸入得到當前場景中物體在初始狀態下的位置關係,以語義文字推理目標狀態下對應的位置關係,實現由自然語言引導機器人進行技能操作。 相關成果以“Learning Neuro-symbolic Programs for Language Guided Robot Manipulation”為題發表於International Conference on Robotic and Automation (ICRA)會議中。
該文章提出了一種新型神經符號模型,使用自然語言推理目標場景,實現在給定初始場景和目標場景的情況下即可學習執行複雜的操作任務,並展示了如何在不需要任何中間監督的情況下,僅使用初始與目標兩個場景作為監督來獲取機器人操作動作的密集表示。 實驗表明,該文章的方法可通過端到端的訓練而不需進行任何子目標監督,即可展現出強大的指令理解能力,並對新場景和指令展現出強大的泛化能力,為將來基於自然語言的人機協作,機器人的語義指令集的拓展提供了新的參考思路。
1、模型結構設計
該端到端模型的結構如圖1所示,由視覺提取器、語言解釋器、視覺解釋器、動作模擬器組成。輸入初始場景和基於自然語言的任務指令,模型輸出完成該指令所需的動作參數,以及預測完成任務後的最終場景。
視覺提取器相當於一個目標檢測模型,用於識別初始場景下的物體信息。以圖11為例,輸入桌麵初始狀態的圖像,視覺提取器輸出各個物體的外接框、顏色信息及物體名稱,並由外接框在桌麵上的相對位置推斷物體的位置信息。
語言解釋器用於處理自然語言指令推理任務中隱含的操作動作。例如圖中“移動綠色骰子後麵的紅色骰子至紅色方塊的右邊”這句指令,語言解釋器經過推理會得到完成該任務需要進行“移動”動作,移動的物體是“位於綠色骰子後麵的紅色骰子”,目標是“紅色方塊右邊”,並可屏蔽“綠色方塊”和“藍色骰子”這些與完成任務無關的信息。推理完畢後,以專用指令集組合出推理結果。
專用指令集的結構如圖2所示,分為“關鍵詞”和“操作詞”,前者用於描述物體信息,後者用於表示操作信息。
視覺解釋器結合前二者輸出的場景信息和任務指令集,輸出完成該任務所需的參數化表示,交由任務模擬器生成機器人所能執行的動作參數,並預測完成任務後的場景情況。
以預測場景和數據集中提前設定好的目標場景做差,設置損失函數,即可實現端到端的訓練過程。
機器人底盤Disinfection Robot消毒機器人講解機器人迎賓機器人移動機器人底盤商用機器人智能垃圾站智能服務機器人大屏機器人霧化消毒機器人紫外線消毒機器人消毒機器人價格展廳機器人服務機器人底盤核酸采樣機器人機器人代工廠智能配送機器人噴霧消毒機器人圖書館機器人導引機器人移動消毒機器人導診機器人迎賓接待機器人前台機器人消殺機器人導覽機器人 |