EgoVLA——根據第一視角的人類視頻中訓練的VLA模型:助力家具組裝等人形靈巧操作任務的攻克(利用可穿戴手部追蹤)

前言

我在此文《ForceVLA——將具備力感知的MoE整合進π0的動作專家中:從而融合“視覺 語言 力反饋”三者實現精密插拔》的開頭說過,我司「七月在線」目前側重以下兩大本體的場景落地

  1. 人形層面,側重
    1.1 人形靈巧操作
    1.2 人形展廳講解
  2. 機械臂層面,側重
    2.1 智能裝配
    2.2 精密插拔

而訓練人形機器人做靈巧操作的方式之一便是從人類視頻中學習

當然,此類模型,如今已經層出不窮了,且真實機器人數據采集在模仿學習領域推動了機器人操作的重大進展,然而,數據采集過程中對機器人硬件的依賴從根本上限制了數據的規模

  1. EgoVLA探討了利用第一視角人類視頻訓練VLA模型的方法
    使用人類視頻的優勢不僅在于其規模,更重要的是場景和任務的豐富性
  2. 通過在預測人類手腕和手部動作的人類視頻上訓練的VLA,可以執行逆運動學和動作重定向,將人類動作轉換為機器人動作
    且僅需少量機器人操作演示對模型進行微調,便可獲得機器人策略

第一部分?EgoVLA

1.1 引言、相關工作

1.1.1 引言

如EgoVLA原論文所說,近年來,得益于大規模真實機器人數據采集[1,2],機器人操作領域取得了巨大進展。與利用仿真方法相比,直接用真實機器人數據進行監督學習能夠避免Sim2Real域間差異,并能輕松提升任務復雜度

  1. 為了高效采集復雜的機器人操作數據,研究人員提出了多種遙操作工具,包括關節映射[3,4,5]、外骨骼[6,7,8]以及虛擬現實設備[9,10,11]。盡管這些方法令人鼓舞,但對機器人和專家操作員的需求從根本上限制了可采集數據的規模
  2. 從人類視頻中學習操作如何?如果將人類視為一種特殊形式的機器人,那么全世界有80億個機器人正在各類環境中持續運行——而我們希望機器人能夠在這些環境中操作

    近期關于手-物體交互預測的研究[12]在預測人類操作的長期意圖方面取得了有希望的成果。如果能夠利用這些人類數據來訓練機器人策略,不僅能夠輕松擴展訓練數據的數量,更重要的是能夠提升任務和場景的多樣性
    這使得機器人能夠在當前難以適應的場景或即使遠程操作也具有挑戰性的任務中進行訓練

作者的關鍵觀察是:人類動作空間與機器人動作空間之間的差異可能并不大,并且可以通過少量幾何變換進行近似

與其在機器人數據上訓練機器人視覺-語言-動作(VLA)模型[13,14,15,16],來自1 UC San Diego,?2 UIUC,?3 MIT,?4 NVIDIA的研究者提出在人體數據上訓練人體第一視角VLA(EgoVLA)

  • 其對應的論文為:EgoVLA: Learning Vision-Language-Action Models from Egocentric Human Videos
  • 其項目網址為:rchalyang.github.io/EgoVLA/
    截止到25年8月中旬,他們暫未開源,如果他們計劃開源,則期待

具體而言

  1. 給定若干幀視覺觀測、語言指令以及當前手部姿態作為輸入,VLA將在未來幾個步驟內預測人類動作
    動作空間包括人類手腕和手部關節角度。這個人類動作空間可以通過逆向運動學將手腕位置轉換為末端執行器位置,并通過動作重定向將人類手部關節轉換為機器人手部關節,從而轉化為機器人動作空間
  2. 因此,人體VLA本質上已經是一種機器人策略,只是輸入為人手圖像,且動作輸出仍存在誤差。但可以通過遙操作收集少量機器人演示,對VLA進行進一步微調來糾正這一點

    如此,便無需大規模機器人數據進行訓練

為了評估機器人操作性能,作者提出了一種基于NVIDIA IsaacSim[17]的新型仿人雙臂操作基準測試,稱為Ego Humanoid Manipulation Benchmark。在該基準測試中,作者設置了12項任務,包括執行原子動作的簡單任務以及由多個原子動作組合而成的長時序任務

作者為每個任務收集了100個演示數據,并利用該基準測試對模型進行評估。在實驗中,作者首先在Ego-Centric Human Manipulation數據集上訓練EgoVLA模型,并針對特定任務在收集到的仿人操作演示上進行微調,說白了,就是通過人類第一視角的視頻做預訓練,然后用真機數據做微調

1.1.2 相關工作:涉及靈巧操作、VLA

第一,對于靈巧操作

靈巧操作的研究已從基于控制的方法[19,20,21,22,23,24,25]發展到以學習為驅動的方法[26,27]

  1. 早期工作側重于精度,但在多樣化場景中的泛化能力有限。基于學習的方法引入了姿態向量生成[28,29,30]、中間表示[31,32]和接觸圖[33,34],但大規模靈巧操作仍然是一個未解難題
  2. 近期的研究嘗試利用第一視角人類視頻訓練特定任務的策略[35,36]
    相比之下,作者旨在直接通過第一視角人類演示開發通用型操作模型

第二,對于VLA

  1. 視覺-語言模型(VLMs)[37,38,39]在多模態任務中展現出了強大的泛化能力[40,41,42,43,44]。在此基礎上,視覺-語言-動作模型(VLA)[16,14,45,13,15,46]通過大規模機器人數據對VLMs進行微調,實現了感知與動作的集成
  2. 然而,VLA的訓練對數據需求極高,通常需要大量的遠程操作[47,48]或腳本化執行[49,50]。OpenVLA[14]和Octo[13]利用了眾包機器人數據集[1],但在可擴展性方面仍面臨瓶頸

作者提出了一種替代方案:通過人類第一視角視頻進行策略學習,并結合小規模目標域微調

第三,對于第一人稱視覺

  1. 第一人稱視覺研究[51,52,53]傳統上在數據規模和多樣性方面受到限制。近期的數據集[54,55]在覆蓋范圍上有所提升,但主要關注超出現有機器人能力的活動。更簡單的數據集[56,57]雖然捕捉了日常交互,但缺乏姿態標注
  2. 為了解決這一問題,作者精選了有針對性的數據集組合,并引入了一個專為靈巧操作學習優化的第一人稱人體視頻數據集

第四,對于從野外視頻中學習

  1. 已有多項研究 [58,59] 提出從野外視頻中提取可供性或交互線索。受第一視角視覺的啟發,近期研究 [60,61,62,63,64,65,66] 利用人類視頻進行預訓練表征,并展示了積極的遷移效果
  2. 然而,大多數工作側重于無監督學習,未充分利用細粒度的手部或手腕姿態信息
    相比之下,作者的工作在VLA框架下使用高質量的第一視角數據,直接提升靈巧策略學習,充分利用可穿戴手部追蹤技術的最新進展

1.2?從第一人稱人類視頻中學習操作技能

本節將介紹作者第一人稱人類操作數據集的構建過程,EgoVLA在該數據集上的訓練方法,如何彌合人類與仿人機器人之間的體現差異,以及EgoVLA在操作任務中的部署

1.2.1?以自我為中心的人體操作數據集

借鑒語言模型和視覺-語言模型訓練的經驗,作者強調數據集結構在提升模型性能中的重要性

  1. 他們構建了一個大規模的人類第一視角操作數據集,專注于包含技能豐富的視頻序列及其對應的姿態標注。該綜合數據集包含第一視角的RGB觀測、手腕姿態、手部姿態和攝像頭姿態
  2. 該數據集整合了來自四個來源的序列,其相對比例如圖3所示:

    HOI4D包含4000段視頻,捕捉了如抓取-放置、重新定位和關節物體交互等單手操作
    HOT3D提供了833分鐘與33個剛性物體交互的視頻,并配有精確的三維手部和攝像頭姿態標注

    HoloAssist則包含了166小時的復雜任務錄制。例如電池更換、家具組裝和機器安裝
    盡管其手部姿態標注較為噪聲,但它捕捉了豐富的雙手交互
    且為避免HoloAssist因標簽噪聲而被過度代表,作者對其進行了1/10的均勻采樣,以平衡任務和數據來源
    TACO包含2,317個動作序列,涵蓋151組工具-動作-物體三元組

對于數據處理:第一人稱視頻由于攝像機的持續移動,給學習帶來了挑戰

為了解決這一問題,作者利用世界坐標系下的攝像機位姿,將未來手腕的位置投影到當前攝像機幀中,從而確保監督的一致性。訓練樣本通過以3幀每秒的頻率采樣RGB觀測值生成,以實現計算效率與時間連續性的平衡。他們的數據集共包含約500,000對圖像與動作,涵蓋多種操作任務

1.2.2 EgoVLA模型:基于NVILA-2B + 基于Transformer的動作頭

作者在視覺-語言模型的基礎上構建了EgoVLA,以利用強大的視覺和語義推理能力

  1. 具體而言,他們采用NVILA-2B[67]作為主干網絡,該模型具有強大的視覺-語言理解能力和緊湊的體積,從而實現意圖推斷和高效微調

    如圖2所示「EgoVLA以視覺歷史、語言指令和動作查詢token作為輸入。潛在特征通過動作頭被轉換為人類動作。且采用手腕姿態和MANO手部參數[18]作為人類動作空間

    EgoVLA的輸入包括當前和歷史的第一視角視覺觀測、語言指令、動作查詢token以及人體本體感知
    這些輸入由VLM主干網絡進行編碼,并通過動作頭進一步處理,以預測未來的人類或機器人動作

    其中
    \rightarrow? 視覺觀測由六幀RGB圖像組成:包括當前觀測幀以及以0.2秒間隔采樣的前五幀,總共覆蓋1秒的歷史。每幀分辨率為384×384
    \rightarrow? 語言指令用于描述即時期望的行為。該設計使模型聚焦于技能執行,而非高層次規劃,從而確保語言輸入與預測動作之間具有清晰的映射關系
    \rightarrow? 人體本體感狀態包括手腕的平移/旋轉以及手部姿態參數。這些信息在傳遞至動作頭之前,會通過多層感知機(MLP)進行處理
  2. 每個預測動作包括腕部姿態『相機坐標系下的三維平移和 rot6D 表示[68]的旋轉以及手部關節角度后者通過 MANO 手部模型[18]的前 15 個主成分(PCA)表示,說白了,就是通過MANO給人手手部關節建模,類似SMPL給人體建模一樣

    EgoVLA被訓練用于回歸相機坐標系下的未來腕部姿態和手部關節參數。其目標函數為:\mathcal{L}=\lambda_{\text {wrist trans }} \mathcal{L}_{\text {wrist trans }}+\lambda_{\text {wrist rot }} \mathcal{L}_{\text {wrist rot }}+\lambda_{\text {joint }} \mathcal{L}_{\text {joint }}

    其中
    \mathcal{L}_{\text {wrist trans }}\mathcal{L}_{\text {joint }}?分別為腕部平移和手部關節角度回歸的 L2 損失。\mathcal{L}_{\text {wrist rot }}是 rot6D[68] 腕部朝向的旋轉損失。\lambda_{\text {wrist trans }}\lambda_{\text {joint }}\lambda_{\text {wrist rot }}為加權系數

    至于動作頭是一個基于 Transformer(300M)的結構,由六個編碼器層組成,每層隱藏單元數為1536
    它的輸入包括人類(或機器人)的本體感覺狀態,以及與動作查詢token對應的潛在嵌入表示,并預測一個在1秒時間范圍內的動作序列A_{t}=\left[a_{t}, a_{t+1}, \ldots, a_{t+H}\right](以30 Hz的頻率,未來30步)用于雙手
    作者使用詞匯表中最后的H=30個詞ID作為動作查詢token

對于訓練細節:作者首先在自有的第一視角人類操作數據集上對EgoVLA進行預訓練,共20個周期。隨后,在機器人示范數據上進行115個周期的后續訓練,其中在第100個周期后降低學習率

在訓練過程中,包含視覺編碼器在內的整個模型都會進行微調。更多訓練配置詳見補充材料

1.2.3?將EgoVLA遷移到人形機器人

人類和人形機器人在操作框架上具有相似性,均使用雙臂和雙手。然而,由于攝像頭姿態、手部形態以及視覺外觀的差異,直接將EgoVLA遷移到人形機器人上具有一定挑戰性

為實現部署,作者利用少量機器人演示數據對EgoVLA進行微調,并借助如圖4所示的統一動作空間『統一動作空間:MANO手部參數被用作人類與機器人共享的動作空間。對于機器人手,在訓練過程中,優化后的MANO參數能夠產生與機器人手指尖相同的位置。在部署階段,一個小型MLP將預測的指尖位置映射為關節指令

首先,對于將機器人數據重新映射到人類表示

為了在機器人數據上進行微調,作者首先需要將機器人的動作空間與人類表示對齊

  • 對于末端執行器的姿態,通過三維變換來對齊機器人和人類的坐標系
  • 對齊手部配置則更加復雜:作者估算能夠最好地近似機器人手部驅動的MANO[18]參數(相當于通過SMPL模型近似人體姿態),通過最小化預測(人體)指尖位置(機器人)觀測指尖位置之間的差異來實現:
    \underset{\Theta}{\operatorname{minimize}} \quad \mathcal{L}(\Theta)= \frac{1}{5} \sum_{i=1}^{5} \operatorname{SmoothL1}\left(\mathbf{J}_{\text {pred }}(\boldsymbol{\Theta})_{i}, \mathbf{J}_{\text {obs }, i}\right)

    其中
    \rightarrow??\Theta \in \mathbb{R}^{15}為MANO手部參數
    \rightarrow??\mathbf{J}_{\text {pred }}(\boldsymbol{\Theta})表示通過MANO正向運動學計算得到的(人類的)指尖位置
    \rightarrow??\mathbf{J}_{\text {obs }} \in \mathbb{R}^{5 \times 3}為觀測到的機器人指尖位置
    該統一動作空間使得EgoVLA可以直接在機器人演示數據上進行微調,無需額外的架構更改或重新初始化

其次,對于人體手到機器人手的映射

在推理階段,由EgoVLA預測的手腕和手部姿態會被映射到機器人的執行器,如圖4(底部行)所示

  1. 首先,手腕姿態通過三維變換被轉換為機器人末端執行器的姿態,并通過逆向運動學(IK)求解相應的手臂關節角度
    其次,對于手部驅動,作者使用MANO模型根據預測的MANO參數計算三維手部關鍵點
  2. 然后,利用一個輕量級的多層感知機(MLP),根據三維手部關鍵點預測機器人手部的關節指令
    該MLP在機器人演示數據上訓練,其中手部動作被重新定向為人體手部的表示
    This MLP is trained on robot demonstrations where hand actuations are retargeted into human hand representations.

    該映射實現了平均指尖位置誤差為5 \times 10^{-5}
    此外,通過該重定向流程回放原始演示能夠保持任務的有效性,表明重定向過程中引入的小誤差不會顯著影響控制性能。更多實現細節見補充材料

1.3?Ego 仿人操作基準

除了數據稀缺之外,基于學習的機器人技術面臨的另一大挑戰是缺乏可擴展、穩健且可復現的評估方式。現實世界中的評估通常成本高昂、耗時,并且存在安全性和可復現性的擔憂——這些障礙在資源有限的環境(如學術實驗室)中尤為突出

最新研究[69]表明,基于仿真的評估結果與現實世界性能高度相關,因此可作為可靠的替代手段

  1. 故為了實現仿人操作的一致性基準測試,作者提出了Ego仿人操作基準,該基準基于NVIDIA Isaac Lab[70]構建。Ego仿人操作基準并非用于直接的仿真到現實遷移,而是借鑒LIBERO[71]和SIMPLER[69]的做法,將仿真作為一個可控且可復現的測試平臺,用于評估操作策略
  2. 作者的仿真平臺采用Unitree H1[72]仿人機器人,配備兩只Inspire靈巧手[73],涵蓋了12項操作任務
    \rightarrow? 既包括短時域原子動作(如推箱子、翻杯、倒球、關抽屜、開抽屜、開筆記本、疊易拉罐)
    \rightarrow??也包括長時域多階段技能(如易拉罐分類、易拉罐插入、易拉罐卸載、插入并卸載易拉罐、將易拉罐疊入抽屜),如圖5所示

此外,對于

  • 觀測與動作空間
    作者的基準測試為觀測提供了機器人關節位置、末端執行器位姿、接觸力以及自中心RGB-D視覺輸入
    雖然EgoVLA僅使用自中心視覺、末端執行器位姿、手部關節驅動和任務描述,但還為未來研究提供了額外的模態
    機器人通過末端執行器控制手臂,以及通過PD關節控制手部。每只手具有12個自由度(6個主動關節,6個聯動關節)
    最終的36維動作空間將手臂逆向運動學與手部直接驅動相結合。控制頻率為30 Hz

    且還為每個任務提供逐步的成功指示器和子任務完成標志。每個子任務的定義和成功度量標準詳見補充材料
  • 多樣化視覺背景
    仿真環境允許對視覺條件進行完全控制。比如包含了5種房間紋理(Room 1–5)和5種桌面紋理(Table 1–5),從而生成25種不同的視覺背景組合,用于對模型泛化能力的穩健評估
  • 演示數據
    為支持模仿學習,作者通過Meta Quest 3結合Open Television [10]采集了專家演示。演示數據均在Room 1、2或3中采集,桌面紋理固定為Table 1
    針對每個任務,作者采集了100條成功的演示,單次演示的幀數根據任務復雜度在100至500之間

// 待更

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/pingmian/93123.shtml
繁體地址,請注明出處:http://hk.pswp.cn/pingmian/93123.shtml
英文地址,請注明出處:http://en.pswp.cn/pingmian/93123.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

廚具新風尚,解鎖廚房新體驗

在快節奏的現代生活中,廚房已不僅僅是烹飪的場所,更是家庭溫馨與創意的源泉。一款好的廚具,不僅能讓烹飪變得輕松愉悅,更能為餐桌增添無限風味。今天,就讓我們一起走進廚具的新世界,解鎖那些令人愛不釋手的…

手機長焦進化史:攀過十年,終抵云巔

今天,華為相機解決方案專家熊諶飛在《長焦十年之路對談》直播中,首次系統揭秘了華為手機長焦技術的十年進化史。從P9雙攝到Pura 80系列“一鏡雙目”,每一代影像旗艦,都有一段鮮為人知的誕生秘辛。不少觀眾這才恍然大悟&#xff1a…

鈣鈦礦光伏:十年磨一劍,產業化突圍路在何方?

2013年,一種具有高效太陽能轉化率、高電荷傳輸率、低成本、制作簡單等優點的新型太陽能電池材料——鈣鈦礦突然出現在大眾視野。相比于又重又硬、轉換效率通常只有22%-26%的傳統晶體硅太陽能板,鈣鈦礦太陽能電池薄如蟬翼可彎曲&am…

斷言:assert()的實用指南

目錄 一、斷言概述 二、基本用法 三、工作原理 四、斷言的優點 五、啟用和禁用斷言 六、性能考慮 七、最佳實踐 八、示例代碼 一、斷言概述 assert.h 頭文件定義了宏 assert(),用于在運行時驗證程序是否符合指定條件。如果條件不滿足,程序會報錯并…

開發避坑指南(27):Vue3中高效安全修改列表元素屬性的方法

需求 Vue3 中如何遍歷list并修改list元素的屬性的值? 解決辦法 1、?使用 map 方法? const newList list.value.map(item > {return {...item,modifiedProperty: newValue // 修改的屬性名稱和屬性值} })Vue 中的 map() 函數是 JavaScript 數組的高階函數&…

L4 級別自動駕駛 硬件架構設計

L4 級自動駕駛(根據 SAE 標準,屬于 “高度自動化”)的核心是系統在特定場景下(如城市道路、高速路)可完全自主完成駕駛任務,無需駕駛員干預,且在系統失效時能自動實現安全降級。其硬件架構需滿足…

【網絡安全測試】手機APP安全測試工具NowSecure 使用指導手冊(有關必回)

以下是 NowSecure安全測試工具 的詳細使用指導,涵蓋從環境準備、測試配置到報告分析的完整流程,適合團隊協作或合規性審計場景: NowSecure 使用指導手冊 1. 工具簡介 定位:自動化移動應用(Android/iOS)安全…

Matlab(5)進階繪圖

一、Advanced 2D plots1. Logarithm Plotsx logspace(-1,1,1000); % 從-1到1生成等間隔的1000個點 y x .^ 2; subplot(2,2,1); plot(x,y); title(Plot); subplot(2,2,2); semilogx(x,y); title(Semilogx); subplot(2,2,3); semilogy(x,y); title(Semilogy); subplot(2,2,4);…

運維學習Day22——Anisible自動化與基本使用

文章目錄01-Ansible 自動化介紹Ansible 自動化介紹手動執行任務和自動化執行任務基礎架構即代碼Ansible 與 DevOps什么是 ANSIBLE?Ansible 特點Ansible 概念和架構Ansible WayAnsible 用例Ansible 部署準備實驗環境控制節點受管節點LinuxWindows網絡設備02-Ansible …

Codeforces Deque工藝

題目來源: 問題 - 2128B - Codeforces 這道題有些地方表達的并不是特別準確,首先就是從最左端與最右端移除一個元素,實際含義是從原數組的最左端或者最右段依次取出一個元素構成一個新的數組,使得這個新數組的數組符合題目的“好…

談談《More Effective C++》的條款30:代理類

在《More Effective C》的條款30中,Scott Meyers深入探討了**代理類(Proxy Classes)**的設計與應用。代理類是一種通過重載運算符模擬原始對象行為的設計模式,其核心目標是在不直接暴露原始對象的情況下,提供額外功能、…

實用AI在線開發工具網址匯總(含免費限額,國內可訪)

AI在線開發工具 標題分類屬性在線開發工具1https://www.builder.io/介紹詳見:AI在線編碼三劍客對決:Replit/Builder/Blot在線開發工具2https://replit.com/介紹詳見:AI在線編碼三劍客對決:Replit/Builder/Blot在線開發工具3https…

react+vite來優化下每次使用hook函數都要引入的情況

前言:react項目中,每個頁面都得引入react/react-dom等元素,就像uniapp的項目中得onload,onshow等生命周期一樣,這里也可以用vite的插件:unplugin-auto-import 來解決我們每次都需要調用才能使用hook方法的問題。安裝&a…

【排序算法】⑤冒泡排序

系列文章目錄 第一篇:【排序算法】①直接插入排序-CSDN博客 第二篇:【排序算法】②希爾排序-CSDN博客 第三篇:【排序算法】③直接選擇排序-CSDN博客 第四篇:【排序算法】④堆排序-CSDN博客 第五篇:【排序算法】⑤冒…

如何使用gpt進行模式微調(2)?

對 GPT(Generative Pre-trained Transformer)類大模型進行微調(Fine-tuning),是將其適配到特定任務或領域的關鍵步驟。以下是 ??全流程指南??,涵蓋方法選擇、數據準備、訓練配置、評估部署等核心環節&a…

基于飛算JavaAI實現圖書管理系統框架部署

摘要 本文詳細介紹了如何利用飛算JavaAI技術實現圖書管理系統的框架部署。首先闡述了飛算JavaAI的基本概念、特點和優勢,接著對圖書管理系統的需求進行分析,然后按照軟件開發流程,從系統設計、代碼生成、框架搭建到部署測試,逐步展…

ODE-by-Matlab-01-人口增長模型

博客地址:Matlab微分方程01-模型 馬爾薩斯模型 馬爾薩斯模型是人口增長模型中最簡單的模型,它由英國牧師家馬爾薩斯在1798年提出。 他利用在教堂工作的機會,收集英國100多年的人口數據,發現人口的相對增長率是常數。 在這個基礎…

云原生環境 Prometheus 企業級監控實戰

目錄 一:基于 kubernetes 的 Prometheus 介紹 1:環境簡介 2:監控流程 3:Kubernetes 監控指標 二:Prometheus 的安裝 1:從 Github 克隆項目分支 2:安裝 Prometheus Operator --server-si…

Python爬蟲實戰:研究django-dynamic-scraper 框架,構建電商動態數據采集系統

1. 引言 1.1 研究背景 據 Statista 數據,2025 年全球互聯網數據總量將突破 175ZB,其中 80% 為非結構化數據(網頁、文本、圖像等)。高效提取這些數據對企業競爭情報、學術研究至關重要。網絡爬蟲作為數據獲取的核心工具,經歷了從靜態頁面抓取到動態內容解析的演進,但傳統…

掌握MATLAB三維可視化:從基礎到實戰技巧

目錄 1. 引言:三維可視化的重要性 2. 基礎三維圖形繪制 2.1 三維曲線圖(plot3) 2.2 三維散點圖(scatter3) 2.3 三維網格圖(mesh) 2.4 三維曲面圖(surf) 3. 參數曲面…