MMA: Multi-Modal Adapter for Vision-Language Models論文解讀

abstract

預訓練視覺語言模型(VLMs)已成為各種下游任務中遷移學習的優秀基礎模型。然而,針對少樣本泛化任務對VLMs進行微調時,面臨著“判別性—泛化性”困境,即需要保留通用知識,同時對任務特定知識進行微調。如何精確識別這兩類表示仍然是一個挑戰。在本文中,我們為VLMs提出了一種多模態適配器(MMA),以改善文本和視覺分支表示之間的對齊。MMA將不同分支的特征聚合到一個共享特征空間中,以便梯度可以跨分支傳遞。為了確定如何融入MMA,我們系統地分析了視覺和語言分支中跨不同數據集的特征的判別性和泛化性,發現:(1)高層包含可辨別的數據集特定知識,而低層包含更具泛化性的知識;(2)語言特征比視覺特征更具判別性,并且兩種模態的特征之間存在較大的語義鴻溝,尤其是在低層。因此,我們僅在Transformer的少數高層中融入MMA,以實現判別性和泛化性之間的最佳平衡。我們在三個任務上評估了我們方法的有效性:新類別泛化、新目標數據集泛化和域泛化。與許多最先進的方法相比,我們的MMA在所有評估中均取得了領先的性能。代碼位于https://github.com/ZjjConan/Multi-Modal-Adapter。

Introduction

研究背景與挑戰

視覺語言模型(VLMs)的潛力:

  • CLIP等VLMs通過大規模圖像-文本對預訓練,能夠將視覺和語言特征映射到共享空間,在多種下游任務中表現出色。
  • 然而,其龐大的參數量(如CLIP有數億參數)導致少樣本微調困難:
    • 過擬合風險: 直接微調所有參數容易在小樣本數據上過擬合。
    • 計算成本高: 全參數微調需要大量資源,不適用于實際應用。

現有方法的局限性

當前主流方法(如提示學習、單模態適配器)存在不足:

  • 提示工程(Prompt Engineering):
    • 依賴人工設計文本提示,需專業知識且難以優化。
  • 單模態適配器:
    • 獨立優化視覺或文本分支的適配器,未考慮跨模態特征對齊,導致任務特定知識學習不充分。

核心問題:區分性與泛化性困境

關鍵矛盾:

  • 少樣本場景下,模型需同時滿足:
    • 區分性(Discrimination): 學習任務相關的細粒度特征。
    • 泛化性(Generalization): 保留預訓練獲得的通用知識。

現有方法的缺陷:

  • 現有適配器(如AdaptFormer)在所有層添加模塊,可能破壞低層的通用特征,導致泛化能力下降。

作者的新發現

通過系統分析CLIP模型的視覺和文本編碼器特征,作者得出兩個關鍵觀察:

  • 層次特性:
    • 高層特征(靠近輸出的層) 具有更強的數據集特異性(高區分性),適合微調。
    • 底層特征(靠近輸入的層) 包含更多跨任務通用知識(高泛化性),應盡量保留。
  • 模態差異:
    • 文本特征比視覺特征更具區分性,尤其在低層存在顯著跨模態語義鴻溝,導致對齊困難。

解決方案:多模態適配器(MMA)

基于上述發現,作者提出:

  • 分層適配策略: 僅在高層Transformer塊(如ViT的5-12層)插入適配器,保留底層的通用性。
  • 跨模態共享投影:
    • 設計獨立投影層處理視覺和文本特征,并通過共享投影層促進跨模態梯度傳播,增強特征對齊。

主要貢獻

  • 方法論創新:
    • 提出首個針對VLMs的多模態適配器,通過共享投影層實現跨模態特征對齊。
    • 基于層次分析的適配器插入策略,平衡區分性與泛化性。
  • 實驗驗證:
    • 在少樣本場景下的三大任務(新類識別、跨數據集遷移、域泛化)中,MMA均達到SOTA性能。
  • 開源代碼:
    • 提供完整實現代碼,促進后續研究。

2. Related Work

視覺語言模型(Vision-Language Models, VLMs)

代表性模型: 包括CLIP、ALIGN、FILIP、Florence、LiT和Kosmos等。

核心方法: 通過對比學習(如CLIP的對比損失)在大規模圖像-文本對(如CLIP的4億對,ALIGN的10億對)上進行自監督訓練,學習跨模態的聯合表示。

優勢與挑戰:

  • 優勢: 預訓練模型在零樣本任務中表現優異,無需微調即可應用于多種下游任務。
  • 挑戰: 直接微調所有參數在少樣本場景下會導致過擬合,且難以平衡任務特定知識與預訓練通用知識。

VLMs的高效遷移學習(Efficient Transfer Learning)

作者將現有方法分為兩類:提示學習(Prompt Learning) 和 適配器(Adapters),并分析其優缺點:

2.1 提示學習(Prompt Learning)

目標: 通過設計輸入提示(如文本模板)引導模型輸出,避免全參數微調。

典型工作:

  • 單模態提示:
    • CoOp: 優化連續的文本提示向量。
    • CoCoOp: 根據圖像實例動態生成提示。
    • LASP: 通過文本到文本的損失對齊提示與預訓練知識。
  • 多模態提示:
    • MaPLe: 在視覺和文本編碼器中同時插入可學習的提示,并通過耦合函數對齊跨模態特征。

局限性:

  • 提示設計依賴人工經驗,優化過程可能過擬合到特定任務。
  • 多模態提示研究較少,且未充分挖掘跨模態交互。

2.2 適配器(Adapters)

目標: 在預訓練模型中插入輕量級模塊(如小網絡),僅優化新增參數。

典型工作:

  • 單模態適配器:
    • Clip-Adapter/Tip-Adapter: 在圖像編碼器后添加適配層。
    • AdaptFormer: 在Transformer塊中插入適配模塊。
  • 多模態適配器:
    • 如文本-視頻檢索中的跨模態適配器,但未深入分析特征層次特性。

局限性:

  • 大多數適配器僅針對單模態設計,未考慮跨模態對齊。
  • 適配器插入位置缺乏理論指導(如是否應覆蓋所有層)。

現有工作的不足與本文切入點

問題1:跨模態對齊不足

  • 現有方法(如單模態提示或適配器)未有效利用視覺與文本特征的交互,導致模態間語義鴻溝。

問題2:特征特性未系統分析

  • 缺乏對不同層次特征的區分性(discriminability)和泛化性(generalizability)的研究,導致適配策略(如插入層數)依賴經驗。

3 Method

3.1 Preliminary(CLIP模型基礎)

  • CLIP結構:CLIP由文本編碼器(Text Encoder, T \mathcal{T} T)和圖像編碼器(Image Encoder, V \mathcal{V} V)組成,通過對比損失在大規模圖像-文本對上預訓練,使相關樣本的特征在共享空間中接近。
    • 圖像編碼器流程
      圖像經 PatchEmbed 分割為固定大小的補丁并投影為特征 x 0 x_0 x0?,與可學習的類別標記 c 0 c_0 c0? 拼接后,通過 L L L 層 Transformer 塊 V i \mathcal{V}_i Vi? 提取特征,最終由 PatchProj 投影為圖像特征 x x x
    • 文本編碼器流程
      文本經 TextEmbed 分詞并投影為詞嵌入 w 0 j w_0^j w0j?,通過 L L L 層 Transformer 塊 T i \mathcal{T}_i Ti? 提取特征,最終由 TextProj 投影為文本特征 w w w

在這里插入圖片描述
圖1. 各種基于Transformer的CLIP模型中不同層的數據集級識別準確率。本實驗旨在識別樣本所屬的數據集。我們使用不同隨機種子運行三次,并報告各層識別準確率的平均值和標準差。XEmbed指Transformer塊(即自注意力層和前饋層[13])之前的文本或圖像嵌入層,而\(X Proj\)指文本或圖像投影層。請注意,本實驗僅使用所有數據集的訓練樣本進行評估。

3.2 MMA: Multi-Modal Adapter(多模態適配器設計)

特征分析:判別性與泛化性
  • 通過 數據集級識別實驗(Dataset-level Recognition)分析CLIP各層特征的特性:
    1. 高層特征(Transformer高層)包含更多 數據集特定的判別性知識,適合微調;低層特征更具 跨數據集的泛化性,需凍結以保留通用知識。
    2. 文本特征視覺特征更具判別性,且 低層模態間語義鴻溝更大,對齊難度更高,因此僅在高層引入適配器。

在這里插入圖片描述
圖2. 針對基于Transformer的CLIP模型提出的多模態適配器(MMA)架構圖。我們的MMA對圖像編碼器和文本編碼器同時進行調優。訓練過程中僅優化額外添加的適配器,而整個預訓練CLIP模型的參數保持凍結。基于我們的分析,為了在判別性與泛化性困境之間取得良好平衡,我們的方法僅對每個編碼器的少數較高層(≥k)進行調優。此外,MMA在圖像和文本表示之間共享權重,以從不同分支學習共享線索。通過這一設計,MMA消除了每對圖像-文本對之間特征層面的交互[85],大大降低了計算成本。

宏觀設計:僅在高層引入適配器
  • 適配器位置:僅在圖像和文本編碼器的 高層 Transformer 塊(從第 k k k 層到最后一層)中添加適配器 A v \mathcal{A}^v Av A t \mathcal{A}^t At,低層保持凍結。
    • 圖像編碼器:
      { [ c i , x i ] = V i ( [ c i ? 1 , x i ? 1 ] ) , i = 1 , 2 , … , k ? 1 [ c j , x j ] = V j ( [ c j ? 1 , x j ? 1 ] ) + α A j v ( [ c j ? 1 , x j ? 1 ] ) , j = k , … , L \begin{cases} \left[c_i, x_i\right] = \mathcal{V}_i\left(\left[c_{i-1}, x_{i-1}\right]\right), & i=1,2,\dots,k-1 \\ \left[c_j, x_j\right] = \mathcal{V}_j\left(\left[c_{j-1}, x_{j-1}\right]\right) + \alpha \mathcal{A}_j^v\left(\left[c_{j-1}, x_{j-1}\right]\right), & j=k,\dots,L \end{cases} {[ci?,xi?]=Vi?([ci?1?,xi?1?]),[cj?,xj?]=Vj?([cj?1?,xj?1?])+αAjv?([cj?1?,xj?1?]),?i=1,2,,k?1j=k,,L?
      其中 α \alpha α 為縮放因子,平衡預訓練知識與任務特定知識。
    • 文本編碼器:
      { [ w i j ] = T i ( [ w i ? 1 j ] ) , i = 1 , 2 , … , k ? 1 [ w j j ] = T j ( [ w i ? 1 j ] ) + α A j t ( [ w i ? 1 j ] ) , j = k , … , L \begin{cases} \left[w_i^j\right] = \mathcal{T}_i\left(\left[w_{i-1}^j\right]\right), & i=1,2,\dots,k-1 \\ \left[w_j^j\right] = \mathcal{T}_j\left(\left[w_{i-1}^j\right]\right) + \alpha \mathcal{A}_j^t\left(\left[w_{i-1}^j\right]\right), & j=k,\dots,L \end{cases} ? ? ??[wij?]=Ti?([wi?1j?]),[wjj?]=Tj?([wi?1j?])+αAjt?([wi?1j?]),?i=1,2,,k?1j=k,,L?
微觀設計:跨模態對齊的共享投影層
  • 獨立投影層:圖像和文本分支分別通過獨立的 “Down” 和 “Up” 投影層( W k d v , W k u v W_{kd}^v, W_{ku}^v Wkdv?,Wkuv? W k d t , W k u t W_{kd}^t, W_{ku}^t Wkdt?,Wkut?)提取任務特定特征。
  • 共享投影層:通過共享權重 W k s W_{ks} Wks? 聚合雙模態特征,促進跨模態梯度傳播和語義對齊,公式為:
    A k v ( z k ) = W k u v ? δ ( W k s ? δ ( W k d v ? z k ) ) \mathcal{A}_k^v(z_k) = W_{ku}^v \cdot \delta\left(W_{ks} \cdot \delta\left(W_{kd}^v \cdot z_k\right)\right) Akv?(zk?)=Wkuv??δ(Wks??δ(Wkdv??zk?))
    其中 z k z_k zk? 為圖像或文本分支的輸入特征, δ \delta δ 為激活函數。

4. Experiments

4.1 實驗設置

任務與數據集

  1. 新類別泛化(Base-to-Novel Generalization)

    • 評估模型從基類(Base Classes)遷移到新類(Novel Classes)的能力。
    • 數據集:11個圖像分類數據集,包括ImageNet、Caltech101(通用目標)、OxfordPets、StanfordCars(細粒度)、SUN397(場景)等。
    • 配置:16-shot設置(每類16個訓練樣本),僅在基類訓練,測試基類與新類準確率。
  2. 跨數據集評估(Cross-Dataset Evaluation)

    • 模型在ImageNet上訓練后,直接遷移到其他10個數據集(如DTD紋理、EuroSAT衛星圖像等)進行測試,評估零樣本遷移能力。
  3. 域泛化(Domain Generalization)

    • 測試模型在分布外(Out-of-Distribution)數據集上的魯棒性,使用ImageNet的4種變體:ImageNet-V2(視覺偏差)、ImageNet-Sketch(草圖)、ImageNet-A(對抗樣本)、ImageNet-R(真實擾動)。

實現細節

  • 模型基礎:基于CLIP的ViT-B/16架構,凍結預訓練參數,僅優化MMA適配器。
  • 適配器配置
    • 新類別泛化:從第5層(k=5)開始添加適配器,共享層維度32,訓練5個 epoch,批次大小128(ImageNet)/16(其他數據集)。
    • 跨數據集與域泛化:k=9,訓練1個 epoch,使用SGD優化器,余弦學習率調度。
  • 基線與對比方法:包括CLIP零樣本、文本提示學習(CoOp、CoCoOp)、多模態提示學習(MaPLe)、適配器方法(LASP、RPO)等。

4.2 主要結果

1. 新類別泛化(表1)

  • 性能對比
    • MMA在11個數據集上的平均調和均值(HM)為79.87%,顯著優于SOTA方法(如LASP-V的79.48%、MaPLe的78.55%)。
    • 基類準確率(83.20%)與新類準確率(76.80%)均領先,表明其有效平衡了判別性與泛化性。
  • 關鍵發現
    • 文本提示方法(如CoOp)在新類表現較差(63.22%),因缺乏跨模態對齊;MMA通過共享投影層提升對齊,新類準確率提升超3%。

2. 跨數據集評估(表2)

  • 零樣本遷移能力
    • MMA在10個目標數據集上的平均準確率為66.61%,優于MaPLe(66.30%)、LASP(63.88%)等,尤其在細粒度(如StanfordCars)和遙感數據(EuroSAT)上優勢明顯。
    • 在源數據集ImageNet上,MMA準確率與CoOp相當,但遷移到其他數據集時更魯棒。

3. 域泛化(表3)

  • 分布外魯棒性
    • MMA在3/4個數據集(ImageNet-V2、ImageNet-A、ImageNet-R)上性能最優,準確率分別為64.33%、51.12%、77.32%,顯著優于CLIP和提示學習方法。
    • 結果表明,MMA通過高層適配器保留了預訓練模型的泛化性,對域 shift 更魯棒。

4.3 消融實驗

1. 適配器層數選擇(圖4)

  • k值影響
    • 當k=5時,HM達到最高79.87%。k<5時(如k=1),低層特征泛化性強但判別性不足,新類準確率下降;k>5時(如k=9),高層特征過度擬合基類,新類性能降低。
    • 結論:高層適配器(k=5)最佳,平衡了數據集特定知識與通用知識。

2. 共享投影層的重要性(表4a)

  • 對比實驗
    • 移除共享投影層(No SharedProj)導致HM從79.87%降至79.20%,驗證跨模態對齊的必要性。
    • 僅單模態適配器(Only V-Adapter/Only L-Adapter)性能低于雙模態,表明融合文本與視覺特征的重要性。

3. 共享層維度與縮放因子α(表4b、4c)

  • 維度影響
    • 維度32時性能最佳(HM=79.87%),過大維度(如128)因參數過多導致過擬合,新類準確率下降。
  • α的平衡作用
    • α=0.001時,HM最高。α過大會偏向基類擬合(如α=0.01時新類74.32%),過小則難以學習任務特征(α=0.0001時基類79.40%)。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/pingmian/82383.shtml
繁體地址,請注明出處:http://hk.pswp.cn/pingmian/82383.shtml
英文地址,請注明出處:http://en.pswp.cn/pingmian/82383.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

螞蟻集團 CTO 何征宇:AGI時代,海量數據帶來的質變|OceanBase 開發者大會實錄

5 月 17 日&#xff0c;“第三屆 OceanBase 開發者大會”在廣州舉辦&#xff0c;會中&#xff0c;螞蟻集團 CTO 何征宇&#xff0c;進行了題為《AGI時代&#xff0c;海量數據帶來的質變》的主題分享。他深度剖析了AI 時代下&#xff0c;數據應用范式的變革&#xff0c;以及生成…

python網絡爬蟲的基本使用

各位帥哥美女點點關注&#xff0c;有關注才有動力啊 網絡爬蟲 引言 我們平時都說Python爬蟲&#xff0c;其實這里可能有個誤解&#xff0c;爬蟲并不是Python獨有的&#xff0c;可以做爬蟲的語言有很多例如&#xff1a;PHP、JAVA、C#、C、Python。 為什么Python的爬蟲技術會…

網頁模板素材網站 web前端網頁制作模板

在當今數字化時代&#xff0c;Web 前端網頁制作對于企業和個人來說至關重要。無論是企業官網、個人博客還是電商網站&#xff0c;一個美觀、功能性強且易于維護的網頁設計能夠有效提升用戶體驗和品牌形象。然而&#xff0c;從零開始設計一個網頁往往需要耗費大量的時間和精力&a…

ROS系列(一):ROS入門指南 —— 核心解析與版本演進

引言 機器人操作系統&#xff08;ROS&#xff09;的誕生&#xff0c;不僅是一場技術革命&#xff0c;更是一張重新定義機器人開發范式的藍圖。從實驗室的原型驗證到工業場景的規模化落地&#xff0c;從單機智能到群體協作&#xff0c;ROS以開源、模塊化和生態驅動的特性&#…

將 Docker 鏡像推送到 GitLab Container Registry 的完整步驟

一、前提準備 GitLab 項目: 在 GitLab 上擁有一個項目&#xff0c;例如 your-group/your-project-name。重要: 確保項目路徑&#xff08;尤其是項目名稱部分&#xff09;全部使用小寫字母。例如&#xff0c;如果初始是 Your-Project&#xff0c;請在項目設置中將其路徑修改為 y…

Java-HashMap基礎與擴展學習總結

?面試官?&#xff1a; “HashMap 是 Java 中最常用的數據結構之一&#xff0c;你能說說它的底層實現嗎&#xff1f;比如哈希沖突是怎么解決的&#xff1f;” ?你?&#xff08;結合源碼與優化場景&#xff09;&#xff1a; “好的&#xff0c;HashMap 底層是數組鏈表/紅黑…

嵌入式學習之系統編程(五)進程(2)

一、進程的退出 &#xff08;一&#xff09;僵尸進程與孤兒進程 &#xff08;二&#xff09;相關函數 1、exit函數 2、_exit函數 3、atexit函數 二、進程空間的回收&#xff08;相關函數&#xff09; 1、wait函數 2、waitpid函數 3、練習 4、exec族 5、system函數 一…

AI時代新詞-Transformer架構:開啟AI新時代的關鍵技術

一、什么是Transformer架構&#xff1f; Transformer架構 是一種基于自注意力機制&#xff08;Self-Attention Mechanism&#xff09;的深度學習模型架構&#xff0c;最初由Vaswani等人在2017年的論文《Attention Is All You Need》中提出。它主要用于處理序列數據&#xff08…

基于cornerstone3D的dicom影像瀏覽器 第二十三章 mpr預設窗值與vr preset

文章目錄 前言一、mpr窗口預設窗值二、vr preset三、調用流程 前言 實現mpr窗口預設窗值&#xff0c;vr窗口預設配色 效果如下&#xff1a; 一、mpr窗口預設窗值 可參考 第十五章 預設窗值 邏輯一樣的&#xff0c;把windowWidth, windowCenter值轉換為voiRange值&#xff0c;…

shell之通配符及正則表達式

通配符與正則表達式 通配符&#xff08;Globbing&#xff09; 通配符是由 Shell 處理的特殊字符&#xff0c;用于路徑或文件名匹配。當 Shell 在命令參數中遇到通配符時&#xff0c;會將其擴展為匹配的文件路徑&#xff1b;若沒有匹配項&#xff0c;則作為普通字符傳遞給命令…

繼電保護與安全自動裝置:電力系統安全的守護神

電力系統是現代社會賴以生存的基礎設施&#xff0c;而繼電保護和安全自動裝置則是保障電力系統安全穩定運行的守護神。 它們默默無聞地工作著&#xff0c;在電力系統出現異常時&#xff0c;能夠迅速準確地切除故障&#xff0c;防止事故擴大&#xff0c;保障電力供應。 那么&…

Flink流處理基礎概論

文章目錄 引言Flink基本概述傳統數據架構的不足Dataflow中的幾大基本概念Dataflow流式處理宏觀流程數據并行和任務并行的區別Flink中幾種數據傳播策略Flink中事件的延遲和吞吐事件延遲事件的吞吐如何更好的理解事件的延遲和吞吐flink數據流的幾種操作輸入輸出轉換操作滾動聚合窗…

Tomcat 使用與配置全解

一、 Tomcat簡介 Tomcat服務器是Apache的一個開源免費的Web容器。它實現了JavaEE平臺下部分技術規范&#xff0c;屬于輕量級應用服務器。 1. Tomcat版本 Tomcat版本 JDK版本 Servlet版本 JSP版本 10.0.X 8 and later 5.0 3.0 9.0.x 8 and later 4.0 2.3 8.0.x 7…

Unity3D仿星露谷物語開發52之菜單頁面

1、目標 創建菜單頁面&#xff0c;可通過Esc鍵開啟或關閉。 當把鼠標懸停在上面時它會高亮&#xff0c;然后當點擊按鈕時標簽頁會被選擇。 2、 創建PauseMenuCanvas &#xff08;1&#xff09;創建Canvas 在Hierarchy -> PersistentScene -> UI下創建新的Cavans命名為…

Spring Boot 調優的 12 個關鍵節點

數據庫連接池調優&#xff1a;精準匹配系統資源 癥狀&#xff1a; 默認配置下&#xff0c;連接池資源使用不當&#xff0c;高并發時連接耗盡或排隊。 常見誤區&#xff1a; spring:datasource:hikari:maximum-pool-size: 1000 # 設置過大connection-timeout: 30000 # 設置…

前端流行框架Vue3教程:28. Vue應用

28. Vue應用 應用實例 每個 Vue 應用都是通過 createApp函數創建一個新的 應用實例 main.js import {createApp} from vue import App from ./App.vue// app:Vue的實例對象 // 在一個Vue項目中&#xff0c;有且只有一個Vue的實例對象 const app createApp(App)/* 根組件選項…

MongoDB 數據庫遷移:完整指南與最佳實踐

在現代數據驅動的應用中&#xff0c;數據庫遷移是一項常見的任務&#xff0c;無論是升級 MongoDB 版本、更換服務器硬件&#xff0c;還是遷移到云環境&#xff08;如 MongoDB Atlas&#xff09;&#xff0c;都需要一個可靠的遷移策略。錯誤的遷移方式可能導致數據丟失、應用停機…

MQTT-Vue整合

Vue整合 依賴環境 nodejs 版本 > 18安裝 element plus npm install element-plus安裝 mqtt npm install mqtt初始化Vue項目 使用 vite 創建項目 執行命令 npm create vitelatest輸入項目名稱 vue-mqtt-demo MQTT連接 連接組件代碼 components/MqttDemo.vue <script…

IP 地址反向解析(IP反查域名)原理與應用

一、IP 地址反向解析的原理與技術細節 IP 地址反向解析&#xff08;Reverse IP Lookup&#xff09;是一種將 IP 地址映射回其關聯域名或主機名的網絡技術&#xff0c;與常見的正向 DNS 解析&#xff08;將域名解析為 IP 地址&#xff09;形成互補。這一過程在網絡安全研究、漏…

Mermaid 文件支持的圖表

Mermaid 文件后綴支持多種類型的圖表&#xff0c;包括但不限于&#xff1a; 流程圖&#xff1a;用于描述流程和決策的圖表&#xff0c;常用于業務流程的表示和分析。 時序圖&#xff1a;用于描述事件發生的順序和時序關系的圖表&#xff0c;常用于系統交互和消息傳遞的分析。 …