單個 專家 演示 裝扮 15 任務 場景 2500+ 服裝 手套 棒球帽 褲子 圍巾 碗 帽子 上衣 外套 服裝-手部交互 捕捉 搖籃 夾緊 平滑 任務 ...... 投擲 懸掛 折疊 ... 多樣化位置 ... 多樣化 變形 ... 多樣化服裝形狀 類別級 一般化 類別級(有或沒有變形) 服裝具有相同結構 變形 生成可推廣的可用性點 演示 操作 演示點 服裝 可用性模型 可用性 ① ② 結構感知 擴散策略 噪聲動作 跨越一般化 ...... 形狀 ...... 服裝 環境配置 ...... ...... 機器人運動的目標點 演示 手部抓取姿勢 演示 任務配置 一次性 數據集與 多樣化軌跡 生成可推廣的 軌跡 服裝點云 目標點可用性(左手) 目標點可用性(右手) 服裝 PC 特征 交互對象 PC 特征(可選) 機器人狀態 特征 環境 PC 特征 POINTNET++ 去噪動作 條件 輸入 輸出 自動化 圖 1: 概述。 DexGarmentLab 包括三個主要組件: 環境, 自動化數據收集 和 可推廣策略。 首先,我們提出了靈巧服裝操作環境,基于 2500+ 件服裝,具有 15 個不同的任務場景(特別是雙手協調)。由于類別級服裝的相同結構,類別級一般化是可行的,這使得我們提出的自動化數據收集管道能夠處理服裝的不同位置、變形和形狀,任務配置(包括抓取位置和任務順序)以及由單個專家演示提供的抓取手部姿勢。通過多樣化的