【論文閱讀 | CVPR 2024 |Fusion-Mamba :用于跨模態目標檢測】

論文閱讀 | CVPR 2024 |Fusion-Mamba :用于跨模態目標檢測

  • 1.摘要&&引言
  • 2.方法
    • 2.1 預備知識
    • 2.2 Fusion-Mamba
      • 2.2.1 架構
      • 特征提取與多模態融合(FMB模塊)
      • FMB的應用與輸出
      • 2.2.2 關鍵組件
        • 3.2.2.1 SSCS 模塊:淺層跨模態特征交互
        • 3.2.2.2 DSSF 模塊:深層跨模態特征關聯
        • 3.2.2.3 特征增強與融合
      • 2.2.3 損失函數
    • 2.3 與基于 Transformer 的融合方法對比
  • 3. 實驗
    • 3.1 實驗設置
      • 3.1.1 數據集
      • 3.1.2 評估指標
      • 3.1.3 實現細節
    • 3.2 與現有最優方法的對比
      • 3.2.1 LLVIP數據集
      • 3.2.2 M3FD 數據集
      • 3.2.3 FLIR-Aligned 數據集
      • 3.2.4 熱力圖可視化
    • 3.3 消融實驗
      • 3.3.1 SSCS 和 DSSF 模塊的影響
      • 3.3.2 FMB 位置的影響。
      • 3.3.3 DSSF 模塊數量的影響。
      • 3.3.4 DSSF 模塊雙向注意力的影響
  • 4. 結論

在這里插入圖片描述

題目:Fusion-Mamba for Cross-modality Object Detection

會議: Computer Vision and Pattern Recognition(CVPR)

論文:https://arxiv.org/abs/2404.09146

代碼:未公開

年份:2024

1.摘要&&引言

跨模態融合通過有效整合不同模態的互補信息,顯著提升了目標檢測性能,使其在更廣泛的應用場景中更具實用性和魯棒性。
現有融合策略通常通過精心設計的神經網絡模塊來結合不同類型的圖像或融合不同主干特征。
然而,這些方法忽視了模態差異對跨模態融合性能的影響 —— 由于不同模態的相機焦距、位置和角度差異,其特征難以有效融合。

本文中,基于改進的 Mamba 與門控機制,通過在隱藏狀態空間中關聯跨模態特征來研究跨模態融合。

我們設計了 Fusion-Mamba 模塊FMB),將跨模態特征映射到隱藏狀態空間進行交互,從而減少跨模態特征差異,增強融合特征的表示一致性。FMB 包含兩個模塊:狀態空間通道交換SSCS)模塊促進淺層特征融合,雙狀態空間融合DSSF)模塊實現隱藏狀態空間的深層融合。在公共數據集上的大量實驗表明,我們的方法在 M3FD 數據集上 mAP 提升 5.9%,在 FLIR-Aligned 數據集上提升 4.9%,超越了現有最優方法,展現了卓越的目標檢測性能。據我們所知,這是首次探索 Mamba 在跨模態融合中的潛力,并為跨模態目標檢測建立了新基線。

在這里插入圖片描述

圖1. 熱力圖可視化。(a)和(b)為初始RGB和IR輸入圖像;?和(d)為使用YOLOv8單模態生成的熱力圖;(e)為基于CNN融合模塊的YOLO-MS熱力圖;(f)和(g)為基于Transformer融合模塊的ICAFusion和CFT熱力圖;(h)為我們的FMB熱力圖,其定位效果更佳。

在這里插入圖片描述

圖2. 所提出的Fusion-Mamba方法架構。檢測網絡包含雙流特征提取網絡和三個Fusion-Mamba模塊(FMB),其頸部和頭部與YOLOv8相同。頂部是我們的檢測框架, ? i \phi_{i} ?i? φ i \varphi_{i} φi?分別是RGB和IR分支的卷積模塊,用于生成 F R i F_{R_{i}} FRi?? F I R i F_{IR_{i}} FIRi??特征; F ^ R i \hat{F}_{R_{i}} F^Ri?? F ^ I R i \hat{F}_{IR_{i}} F^IRi??是通過FMB增強的特征圖; P 3 P_{3} P3? P 4 P_{4} P4? P 5 P_{5} P5?是增強特征圖的求和輸出,作為頸部最后三個階段的特征金字塔輸入。底部展示了FMB的設計細節。

本文提出 Fusion-Mamba 方法,旨在隱藏狀態空間中融合特征,為跨模態特征融合開辟新范式。我們受 Mamba 啟發,利用其線性復雜度構建隱藏狀態空間,并通過門控機制進一步改進,實現更深層、更復雜的融合。我們的 Fusion-Mamba 方法核心在于創新的 Fusion-Mamba 模塊(FMB),如圖 2 所示。在 FMB 中,我們設計了狀態空間通道交換(SSCS)模塊用于淺層特征融合,以提升跨模態特征的交互能力;以及雙狀態空間融合(DSSF)模塊,用于構建隱藏狀態空間以實現跨模態特征關聯與互補。這兩個模塊有助于減少融合過程中的模態差異,如圖 1(h)所示,其熱力圖表明我們的方法更有效地融合了特征,使檢測器更聚焦于目標。本工作的貢獻如下:

  • 1)所提出的 Fusion-Mamba 方法探索了 Mamba 在跨模態融合中的潛力,增強了融合特征的表示一致性。我們基于門控機制改進的 Mamba,構建了跨模態交互的隱藏狀態空間,以減少跨模態特征差異。

  • 2)我們設計了包含兩個模塊的 Fusion-Mamba 塊:狀態空間通道交換(SSCS)模塊促進淺層特征融合,雙狀態空間融合(DSSF)模塊實現隱藏狀態空間的深層融合。

  • 3)在三個公共 RGB-IR 目標檢測數據集上的大量實驗表明,我們的方法實現了現有最優性能,為跨模態目標檢測方法提供了新基線。

2.方法

2.1 預備知識

狀態空間模型

狀態空間模型(SSMs)常用于表示線性時不變系統,其通過中間隱狀態 h (t)∈??處理一維輸入序列 x (t)∈?,生成輸出 y (t)∈?。從數學上看,SSMs 通常表示為線性常微分方程(ODEs):

h ′ ( t ) = A h ( t ) + B x ( t ) , y ( t ) = C h ( t ) + D x ( t ) , \begin{aligned} h'(t) &= A h(t) + B x(t), \\ y(t) &= C h(t) + D x(t), \end{aligned} h(t)y(t)?=Ah(t)+Bx(t),=Ch(t)+Dx(t),?

其中系統行為由一組參數定義,包括狀態轉移矩陣 A∈??×?、投影參數 B、C∈??×1,以及跳躍連接 D∈?。為簡化表述,可通過設置 D=0 移除 D x (t) 項。

離散化

式 1 中 SSMs 的連續時間特性在深度學習場景中應用時面臨重大挑戰。為解決此問題,需通過離散化過程將 ODEs 轉換為離散函數,這是確保模型與輸入數據中底層信號采樣率對齊、促進高效計算操作的關鍵 。考慮輸入 x?∈??×?(遵循 [40] 的長度為 L 的信號流中的采樣向量),時間尺度參數 Δ 的引入允許根據零階保持(ZOH)原理,將連續參數 A 和 B 轉換為離散形式 ? 和 B?。
因此,式 1 離散化為:
h k = A ~ h k ? 1 + B ~ x k , y ( t ) = C ~ h k + D x k , A ~ = e Δ A , B ~ = ( Δ A ) ? 1 ( e Δ A ? I ) Δ B , C ~ = C , \begin{aligned} h? &= \tilde{A} h_{k-1} + \tilde{B} x?, \\ y(t) &= \tilde{C} h? + D x?, \\ \tilde{A} &= e^{ΔA}, \\ \tilde{B} &= (ΔA)^{-1}(e^{ΔA} - I)ΔB, \\ \tilde{C} &= C, \end{aligned} hk?y(t)A~B~C~?=A~hk?1?+B~xk?,=C~hk?+Dxk?,=eΔA,=(ΔA)?1(eΔA?I)ΔB,=C,?
其中 B、C∈??,I 為單位矩陣。離散化后,SSMs 通過具有結構化卷積核 K?∈??的全局卷積計算:
y = x ? K ~ , K ~ = ( C B ~ , C A ~ B ~ , ? , C A ~ L ? 1 B ~ ) . ( 3 ) y = x * \tilde{K}, \quad \tilde{K} = (C \tilde{B}, C \tilde{A} \tilde{B}, \cdots, C \tilde{A}^{L-1} \tilde{B}). \quad (3) y=x?K~,K~=(CB~,CA~B~,?,CA~L?1B~).(3)

基于式 2 和式 3,Mamba 設計了一種簡單的選擇機制,根據輸入 ### 參數化 Δ、A、B 和 C 的 SSM 參數,用于 1D 語言序列建模中沿序列長度維度選擇性傳播或遺忘信息。

2D 選擇性掃描機制

2D 視覺數據與 1D 語言序列的不兼容性使得 Mamba 直接應用于視覺任務時存在不足。例如,2D 空間信息在視覺任務中至關重要,而在 1D 序列建模中僅占次要地位,這種差異導致感受野有限,無法捕捉與未探索塊的潛在相關性。中引入 2D 選擇性掃描(SS2D)機制以解決上述挑戰,其概述如圖 3 所示。

在這里插入圖片描述

圖3. RGB圖像上二維選擇性掃描(SS2D)的示意圖。首先,圖像經過掃描擴展,生成四個不同的特征序列;隨后,每個序列獨立通過S6塊處理;最后,通過掃描合并S6塊的輸出,生成最終的二維特征圖。

SS2D 首先將圖像塊沿四個不同方向掃描擴展,生成四個獨立序列,這種四向掃描方法確保特征圖中的每個元素包含不同方向上所有其他位置的信息,從而在無需計算復雜度線性增加的情況下建立全面的全局感受野。隨后,每個特征序列通過選擇性掃描狀態空間序列模型(S6) 處理,最后聚合特征序列以重建 2D 特征圖。
SS2D 是視覺狀態空間(VSS)塊的核心元素,如圖 2 所示,將用于構建跨模態特征融合的隱藏狀態空間。

2.2 Fusion-Mamba

2.2.1 架構

模型架構如圖 2 所示。其檢測主干包含雙流特征提取網絡和三個 Fusion-Mamba 模塊(FMB),檢測網絡包含用于跨模態目標檢測的頸部和頭部。

在這里插入圖片描述

特征提取與多模態融合(FMB模塊)

特征提取網絡從 RGB 圖像和紅外(IR)圖像中分別提取局部特征,記為 F R i F_{R_i} FRi??(RGB局部特征)和 F I R i F_{IR_i} FIRi??(IR局部特征)。

在這里插入圖片描述

為減少跨模態特征差異并增強融合一致性,將 F R i F_{R_i} FRi?? F I R i F_{IR_i} FIRi?? 輸入多模態融合塊(FMB)。FMB的核心流程如下:

  1. 淺層特征融合(SSCS模塊)
    首先通過狀態空間通道交換(State Space Channel Swap, SSCS)模塊 F R i F_{R_i} FRi?? F I R i F_{IR_i} FIRi?? 進行淺層交互,生成交互特征 F ~ R i \tilde{F}_{R_i} F~Ri??(RGB交互特征)和 F ~ I R i \tilde{F}_{IR_i} F~IRi??(IR交互特征)。

  2. 深層特征融合(DSSF模塊)
    交互特征進一步輸入雙狀態空間融合(Dual State Space Fusion, DSSF)模塊,在隱藏狀態空間中完成深層特征融合,生成互補特征 F ˉ R i \bar{F}_{R_i} FˉRi??(RGB互補特征)和 F ˉ I R i \bar{F}_{IR_i} FˉIRi??(IR互補特征)。

  3. 局部特征增強
    將原始特征與互補特征逐元素相加,增強局部表征能力:
    F ^ R i = F R i + F ˉ R i , F ^ I R i = F I R i + F ˉ I R i (A) \hat{F}_{R_i} = F_{R_i} + \bar{F}_{R_i}, \quad \hat{F}_{IR_i} = F_{IR_i} + \bar{F}_{IR_i} \tag{A} F^Ri??=FRi??+FˉRi??,F^IRi??=FIRi??+FˉIRi??(A)
    其中 F ^ R i \hat{F}_{R_i} F^Ri?? F ^ I R i \hat{F}_{IR_i} F^IRi?? 表示增強后的RGB和IR局部特征。

  4. 融合特征生成
    增強特征直接相加生成最終融合特征 P i P_i Pi?
    P i = F ^ R i + F ^ I R i (B) P_i = \hat{F}_{R_i} + \hat{F}_{IR_i} \tag{B} Pi?=F^Ri??+F^IRi??(B)

FMB的應用與輸出

FMB僅應用于模型的最后三個階段(生成 P 3 P_3 P3? P 4 P_4 P4? P 5 P_5 P5?),這些融合特征作為 YOLOv8 頸部(Neck)和頭部(Head)的輸入,最終輸出目標檢測結果(如圖 4 所示)。
在這里插入圖片描述

2.2.2 關鍵組件

給定輸入的 RGB 圖像 I R I_R IR? 和紅外(IR)圖像 I I R I_{IR} IIR?,首先通過一系列卷積塊提取局部特征。具體而言,RGB 分支的第 i i i 階段局部特征 F R i F_{R_i} FRi?? 和 IR 分支的第 i i i 階段局部特征 F I R i F_{IR_i} FIRi?? 可表示為:
F R i = ? i ° ? i ? 1 ° ? ° ? 1 ( I R ) , F I R i = ψ i ° ψ i ? 1 ° ? ° ψ 1 ( I I R ) F_{R_i} = \phi_i \circ \phi_{i-1} \circ \cdots \circ \phi_1(I_R), \quad F_{IR_i} = \psi_i \circ \psi_{i-1} \circ \cdots \circ \psi_1(I_{IR}) FRi??=?i?°?i?1?°?°?1?(IR?),FIRi??=ψi?°ψi?1?°?°ψ1?(IIR?)
其中 ? i \phi_i ?i? ψ i \psi_i ψi? 分別表示 RGB 和 IR 分支第 i i i 階段的卷積塊

現有跨模態融合方法主要關注空間特征的集成,但未充分考慮模態間的特征差異,導致融合模型難以有效建模不同模態目標間的相關性,最終降低模型的表示能力。受 Mamba[8] 在狀態空間序列建模中的強大能力啟發,我們設計了融合 Mamba 塊(Fusion-Mamba Block, FMB),通過構建跨模態特征交互與關聯的隱藏狀態空間,解決上述問題。FMB 的核心由兩個關鍵模塊組成:狀態空間通道交換(State Space Channel Swap, SSCS)模塊雙狀態空間融合(Dual State Space Fusion, DSSF)模塊,二者協同減少跨模態特征差異,增強融合特征的表示一致性。算法 1 詳細給出了 SSCS 和 DSSF 模塊的計算流程。

3.2.2.1 SSCS 模塊:淺層跨模態特征交互

SSCS 模塊的目標是通過通道交換操作和 VSS 塊(見圖 2)增強跨模態特征的淺層交互,豐富通道多樣性以提升融合性能。具體步驟如下:

在這里插入圖片描述

  1. 通道交換操作(CS)
    首先通過通道交換生成 RGB 和 IR 的新局部特征 T R i T_{R_i} TRi?? T I R i T_{IR_i} TIRi??,公式為:
    T R i = C S ( F R i , F I R i ) , T I R i = C S ( F I R i , F R i ) (5) T_{R_i} = CS(F_{R_i}, F_{IR_i}), \quad T_{IR_i} = CS(F_{IR_i}, F_{R_i}) \tag{5} TRi??=CS(FRi??,FIRi??),TIRi??=CS(FIRi??,FRi??)(5)
    其中 C S ( ? , ? ) CS(\cdot, \cdot) CS(?,?) 表示通道交換操作,實現方式為:將 F R i F_{R_i} FRi?? F I R i F_{IR_i} FIRi?? 沿通道維度均分為四部分,從 F R i F_{R_i} FRi?? 中選擇第 1、3 部分,從 F I R i F_{IR_i} FIRi?? 中選擇第 2、4 部分,按順序拼接后生成新的 RGB 局部特征 T R i T_{R_i} TRi??;IR 局部特征 T I R i T_{IR_i} TIRi?? 以類似方式生成(交換通道選擇順序)。

  2. 淺層融合增強
    T R i T_{R_i} TRi?? T I R i T_{IR_i} TIRi?? 分別應用 VSS 塊(VSS Block),進一步強化跨模態交互:
    F ~ R i = V S S ( T R i ) , F ~ I R i = V S S ( T I R i ) (6) \tilde{F}_{R_i} = VSS(T_{R_i}), \quad \tilde{F}_{IR_i} = VSS(T_{IR_i}) \tag{6} F~Ri??=VSS(TRi??),F~IRi??=VSS(TIRi??)(6)
    其中 V S S ( ? ) VSS(\cdot) VSS(?) 表示圖 2 所示的 VSS 塊(基于門控機制的狀態空間模型[21]), F ~ R i \tilde{F}_{R_i} F~Ri?? F ~ I R i \tilde{F}_{IR_i} F~IRi?? 分別為 RGB 和 IR 分支的淺層融合特征輸出。

3.2.2.2 DSSF 模塊:深層跨模態特征關聯

為進一步減少模態差異,DSSF 模塊通過在隱藏狀態空間中建模跨模態目標相關性,實現深層特征融合。其核心是利用門控機制構建雙向信息交互,具體步驟如下:

在這里插入圖片描述

  1. 隱藏狀態投影
    首先通過無門控的 VSS 塊 P in ( ? ) P_{\text{in}}(\cdot) Pin?(?) 將淺層融合特征 F ~ R i \tilde{F}_{R_i} F~Ri?? F ~ I R i \tilde{F}_{IR_i} F~IRi?? 投影到隱藏狀態空間:
    y R i = P in ( F ~ R i ) , y I R i = P in ( F ~ I R i ) (7) y_{R_i} = P_{\text{in}}(\tilde{F}_{R_i}), \quad y_{IR_i} = P_{\text{in}}(\tilde{F}_{IR_i}) \tag{7} yRi??=Pin?(F~Ri??),yIRi??=Pin?(F~IRi??)(7)
    其中 y R i y_{R_i} yRi?? y I R i y_{IR_i} yIRi?? 表示 RGB 和 IR 分支的隱藏狀態特征。

  2. 門控參數生成
    同時,通過雙流門控操作生成門控參數 z R i z_{R_i} zRi?? z I R i z_{IR_i} zIRi??,用于調制隱藏狀態轉移:
    z R i = f θ i ( F ~ R i ) , z I R i = g ω i ( F ~ I R i ) (8) z_{R_i} = f_{\theta_i}(\tilde{F}_{R_i}), \quad z_{IR_i} = g_{\omega_i}(\tilde{F}_{IR_i}) \tag{8} zRi??=fθi??(F~Ri??),zIRi??=gωi??(F~IRi??)(8)
    其中 f θ i ( ? ) f_{\theta_i}(\cdot) fθi??(?) g ω i ( ? ) g_{\omega_i}(\cdot) gωi??(?) 分別表示 RGB 和 IR 分支的帶參數門控函數(參數為 θ i \theta_i θi? ω i \omega_i ωi?)。

  3. 隱藏狀態交互與調制
    利用門控參數 z R i z_{R_i} zRi?? z I R i z_{IR_i} zIRi?? 對隱藏狀態 y R i y_{R_i} yRi?? y I R i y_{IR_i} yIRi?? 進行雙向調制,實現跨模態信息互補:
    y R i ′ = y R i ? z R i + z R i ? y I R i , y I R i ′ = y I R i ? z I R i + z I R i ? y R i (9) y'_{R_i} = y_{R_i} \cdot z_{R_i} + z_{R_i} \cdot y_{IR_i}, \quad y'_{IR_i} = y_{IR_i} \cdot z_{IR_i} + z_{IR_i} \cdot y_{R_i} \tag{9} yRi??=yRi???zRi??+zRi???yIRi??,yIRi??=yIRi???zIRi??+zIRi???yRi??(9)
    其中 y R i ′ y'_{R_i} yRi?? y I R i ′ y'_{IR_i} yIRi?? 為交互后的隱藏狀態特征, ? \cdot ? 表示逐元素乘積。式(9)通過門控機制動態調整跨模態信息的傳遞權重,增強隱藏狀態空間的關聯性。

  4. 投影回原空間與殘差連接
    將交互后的隱藏狀態 y R i ′ y'_{R_i} yRi?? y I R i ′ y'_{IR_i} yIRi?? 通過投影操作 P out ( ? ) P_{\text{out}}(\cdot) Pout?(?)(含線性變換)映射回原始特征空間,并與淺層融合特征 F ~ R i \tilde{F}_{R_i} F~Ri?? F ~ I R i \tilde{F}_{IR_i} F~IRi?? 殘差連接,生成互補特征:
    F  ̄ R i = P out ( y R i ′ ) + F ~ R i , F  ̄ I R i = P out ( y I R i ′ ) + F ~ I R i (10) \overline{F}_{R_i} = P_{\text{out}}(y'_{R_i}) + \tilde{F}_{R_i}, \quad \overline{F}_{IR_i} = P_{\text{out}}(y'_{IR_i}) + \tilde{F}_{IR_i} \tag{10} FRi??=Pout?(yRi??)+F~Ri??,FIRi??=Pout?(yIRi??)+F~IRi??(10)

3.2.2.3 特征增強與融合

為進一步增強局部特征的表示能力,將原始特征 F R i F_{R_i} FRi?? F I R i F_{IR_i} FIRi?? 與互補特征 F  ̄ R i \overline{F}_{R_i} FRi?? F  ̄ I R i \overline{F}_{IR_i} FIRi?? 逐元素相加,得到增強后的局部特征:
F ^ R i = F R i + F  ̄ R i , F ^ I R i = F I R i + F  ̄ I R i (11) \hat{F}_{R_i} = F_{R_i} + \overline{F}_{R_i}, \quad \hat{F}_{IR_i} = F_{IR_i} + \overline{F}_{IR_i} \tag{11} F^Ri??=FRi??+FRi??,F^IRi??=FIRi??+FIRi??(11)

在這里插入圖片描述

算法 1 Fusion-Mamba 塊(FMB)算法

2.2.3 損失函數

經過 FMB 增強的 RGB 和 IR 特征(即式(12) 中的 F ^ R i \hat{F}_{R_i} F^Ri?? F ^ I R i \hat{F}_{IR_i} F^IRi??)通過逐元素相加生成融合特征 P i P_i Pi?,作為 YOLOv8 頸部的輸入以提升檢測性能。總損失函數遵循經典目標檢測框架 [12,13],定義為:
L = λ coord L coord + L conf + L class (13) \mathcal{L} = \lambda_{\text{coord}} \mathcal{L}_{\text{coord}} + \mathcal{L}_{\text{conf}} + \mathcal{L}_{\text{class}} \tag{13} L=λcoord?Lcoord?+Lconf?+Lclass?(13)
其中:

  • λ coord \lambda_{\text{coord}} λcoord? 是平衡定位損失 L coord \mathcal{L}_{\text{coord}} Lcoord? 權重的超參數;
  • L conf \mathcal{L}_{\text{conf}} Lconf? 為置信度損失,用于衡量預測框與真實框的匹配程度;
  • L class \mathcal{L}_{\text{class}} Lclass? 為分類損失,用于優化目標的類別預測。
    各損失項的具體實現細節可參考 Ultralytics YOLOv8 的官方文檔 [jocher2022ultralytics]。

2.3 與基于 Transformer 的融合方法對比

現有基于 Transformer 的跨模態融合方法 [6,26] 通常采用以下流程:將 RGB 和 IR 特征展平后與卷積特征拼接,生成中間融合特征;再通過多頭交叉注意力機制完成跨模態融合。然而,這類方法存在以下局限性:

  1. 模態差異建模不足:僅依賴空間交互(如注意力權重分配),難以有效捕捉跨模態目標間的深層相關性,導致融合特征的表示一致性受限。
  2. 局部信息丟失:全局注意力機制需展平特征圖,破壞了局部空間結構,可能丟失細粒度的位置信息。

相比之下,本文提出的 FMB 塊在跨模態融合中具有顯著優勢:

  • 局部信息保留:通過沿四個方向掃描特征(如水平、垂直、對角線等),生成四組局部塊,避免全局展平操作,在融合過程中有效保留特征的局部結構。
  • 隱藏空間深度交互:將特征投影到隱藏狀態空間,通過雙向門控注意力機制(如 DSSF 模塊中的門控參數 z R i z_{R_i} zRi?? z I R i z_{IR_i} zIRi??)動態調制跨模態信息傳遞,抑制冗余特征并增強互補信息的融合。
  • 計算效率更優:Transformer 的全局注意力機制時間復雜度為 O ( N 2 ) O(N^2) O(N2) N N N 為序列長度),而 FMB 基于 Mamba 的狀態空間模型,時間復雜度僅為 O ( N ) O(N) O(N)。實驗驗證表明,在相同檢測模型架構下,將基于 Transformer 的融合模塊替換為 FMB 塊,單張圖像的推理時間可節省 7-19ms(詳見實驗部分)。

綜上,FMB 通過局部信息保留、隱藏空間深度交互及高效計算機制,在減少跨模態差異的同時提升了融合效率,優于傳統基于 Transformer 的融合方法。

3. 實驗

3.1 實驗設置

3.1.1 數據集

實驗在三個廣泛使用的可見光-紅外(RGB-IR)基準數據集上進行評估,覆蓋低光、多場景及晝夜環境,具體信息如下:

  • LLVIP:低光環境下的行人檢測數據集,包含15,488對對齊的RGB-IR圖像。數據采集于夜間低光照條件,聚焦行人目標檢測。遵循官方劃分,使用12,025對圖像訓練,3,463對測試。

  • M3FD:多模態多場景數據集,包含4,200對對齊的RGB-IR圖像,覆蓋不同光照(如強光、弱光)、季節(春、夏、秋、冬)和天氣(晴、雨、霧)場景。數據涵蓋自動駕駛和道路監控中常見的6個類別(行人、車輛、自行車等)。由于無官方劃分,采用文獻[18]的訓練/測試分割。

  • FLIR:晝夜場景數據集,包含5個類別(人、汽車、自行車、狗、其他車輛)。遵循文獻[38],使用FLIR-Aligned子集,其中4,129對訓練,1,013對測試。

3.1.2 評估指標

采用目標檢測領域最常用的兩個指標:

  • mAP??:IoU閾值為0.50時的平均精度(Average Precision),反映模型對目標定位和分類的基礎能力;
  • mAP:IoU閾值在0.50到0.95(步長0.05)范圍內的平均精度,綜合評估模型在不同重疊度下的魯棒性。

此外,報告在A800 GPU上對輸入尺寸為640×640的圖像進行5次運行評估的平均推理時間(單位:ms),衡量模型的計算效率。

3.1.3 實現細節

所有實驗基于雙流框架[6],在單張A800 GPU上完成。默認使用YOLOv5-l或YOLOv8-l作為主干網絡(Backbone),頸部(Neck)和頭部(Head)結構與對應YOLO版本保持一致。訓練超參數設置如下:

  • 批量大小(Batch Size):4;
  • 優化器:SGD,動量(Momentum)0.9,權重衰減(Weight Decay)0.001;
  • 輸入尺寸:640×640;
  • 訓練輪次(Epochs):150;
  • 初始學習率(Initial LR):0.01;
  • Fusion-Mamba模塊參數:SSCS模塊數量1,DSSF模塊數量8;
  • 定位損失權重: λ coord = 7.5 \lambda_{\text{coord}} = 7.5 λcoord?=7.5(其他超參數與YOLOv8默認配置一致)。

3.2 與現有最優方法的對比

為驗證Fusion-Mamba的有效性,我們在LLVIP數據集上與兩類方法對比:單模態檢測方法(僅RGB或僅IR)和多光譜融合方法(同時利用RGB-IR特征)。實驗結果如表1所示(此處假設表1為對比數據)。

在這里插入圖片描述

3.2.1 LLVIP數據集

LLVIP作為低光行人檢測數據集,單模態檢測中IR模態因對光照不敏感,性能普遍優于RGB模態(如僅IR的Cascade R-CNN mAP為58.4%)。融合方法通過跨模態信息互補,理論上應優于單模態檢測。

  • 與單模態方法對比:基于ResNet50主干的RSDet(融合方法)在LLVIP上mAP為62.9%,較僅IR的Cascade R-CNN(58.4%)提升4.5%;而僅IR的簡單YOLOv5框架(無融合)已達到61.9% mAP,顯著優于部分融合方法(如DIVFusion僅9.9% mAP),說明低質量融合可能破壞IR模態的固有優勢。

  • 與多光譜融合方法對比:在相同YOLOv5主干下,Fusion-Mamba的mAP為62.8%(較僅IR的YOLOv5提升0.9%),較RSDet(61.3%)提升1.5%。核心優勢源于SSCS模塊的淺層通道交換(增強跨模態信息交互)和DSSF模塊的深層門控融合(抑制冗余特征并捕捉互補信息),有效減少了模態差異,提升了融合特征的表示一致性。

  • 與YOLOv8主干對比:基于YOLOv8-l的Fusion-Mamba進一步優化了性能,達到mAP??=97.0%、mAP=64.3%,為當前LLVIP上的最優結果。

3.2.2 M3FD 數據集

我們將我們的方法與 7 種基于 YOLOv5 的現有最優檢測器和 1 種基于 YOLOv7 的現有最優檢測器進行比較。如表 2 所示,與基于相同 YOLOv5 主干的現有最優方法相比,我們的 Fusion-Mamba 在所有類別上使用 mAP??和 mAP 指標均表現最佳;基于 YOLOv8 主干的方法在 People、Bus、Motorcycle 和 Truck 類別上實現了新的現有最優結果,同時 mAP??和 mAP 指標進一步提升了 3% 和 4.4%。此外,盡管 YOLOv5 的特征表示能力低于 YOLOv7,我們使用 YOLOv5 主干的方法仍比基于 YOLOv7 的 SuperFusion 高出 1.5% mAP 和 mAP??,這得益于我們 FMB 的有效性,提升了跨模態特征的固有互補性。

在這里插入圖片描述

3.2.3 FLIR-Aligned 數據集

如表 3 所示,Fusion-Mamba 在 Aligned-FLIR 數據集上也表現最佳。與基于雙流 YOLOv5 主干的 CrossFormer 相比,我們基于 YOLOv8 和 YOLOv5 的方法在 mAP??上分別超越它們 5.6% 和 5%,在 mAP 上分別超越 4.9% 和 2.3%。我們還比 RSDet 高出 3.8% mAP??和 5.6% mAP。在速度方面,我們使用 YOLOv5 的方法實現了最快速度,與基于 Transformer 的 CFT 和 CrossFormer 方法相比,一對圖像的檢測分別節省 7ms 和 19ms。在參數方面,我們基于 YOLOv5 的方法比 CrossFormer 方法節省約 100M 參數。盡管我們基于 YOLOv8 的方法比 YOLOv5 增加了約 40M 參數,但 mAP 顯著提升了 2.6%。該結果表明,我們基于隱藏空間建模的方法更好地整合了不同模態之間的特征,抑制了模態差異,以最佳的性能和計算成本權衡增強了融合特征的表示能力。

在這里插入圖片描述

3.2.4 熱力圖可視化

為直觀展示我們模型的高性能,我們從三個實驗數據集中各隨機選擇一對圖像,可視化 P?熱力圖,并與其他融合方法進行比較。如圖 5 所示,與其他方法相比,我們的模型更聚焦于目標,而非分散或聚焦于無關部分。更多示例見補充材料。我們還在補充材料中可視化了目標檢測結果,以評估我們方法的有效性。

在這里插入圖片描述

3.3 消融實驗

我們使用 FLIR-Aligned 數據集進行消融實驗,以分別驗證 SSCS 和 DSSF 模塊的有效性,并進一步探索 DSSF 模塊數量和位置的影響。特別地,我們還評估了 DSSF 模塊雙向注意力的效果。所有實驗均基于 YOLOv8 主干進行。

3.3.1 SSCS 和 DSSF 模塊的影響

FMB 中移除 SSCS 和 DSSF 的結果匯總于表 4。
在這里插入圖片描述

移除 SSCS 模塊后(表 4 第二行),檢測器性能在 mAP??和 mAP 上分別下降 2% 和 1.1%。原因在于,沒有兩模態特征的初始交換和淺層映射融合,在后續深層融合中特征差異未得到有效減少。同時,沒有 DSSF(表 4 第三行),僅淺層融合交互無法在特征融合過程中有效抑制冗余特征并激活有效特征,導致檢測器性能在 mAP??和 mAP 上分別下降 2.5% 和 2.4%。同時移除 SSCS 和 DSSF,直接通過兩局部模態特征相加獲得融合特征(表 4 第四行),其性能在 mAP??和 mAP 上分別顯著下降 4.8% 和 7.6%。這些結果表明,FMB 的這兩個組件對跨模態目標檢測有效。

3.3.2 FMB 位置的影響。

遵循 [6,14] 的工作,我們也設置三個 FMB 用于特征融合。在此,我們進一步探索 FMB 位置的影響,即應在哪些階段添加 FMB。我們選擇三組多級特征:{P?, P?, P?}、{P?, P?, P?} 和 {P?, P?, P?} 進行消融實驗,其中 P?是使用 FMB 在第 i 階段的融合特征。如表 5 所示,位置 {P?, P?, P?} 在性能和計算復雜度之間實現了最佳權衡,因此我們默認選擇此位置進行實驗。

在這里插入圖片描述

表 5. FLIR-Aligned 數據集上 FMB 位置的影響。

3.3.3 DSSF 模塊數量的影響。

我們已在表 4 中驗證了 DSSF 的有效性,在此進一步評估 DSSF 模塊數量的影響,結果匯總于表 6。

在這里插入圖片描述

我們選擇四種 DSSF 數量(即 2、4、8、16),并保持其他模型設置與上述實驗一致。可以看出,模塊數量設置為 8 時實現最佳性能,8 個 DSSF 模塊將達到飽和,增加數量會導致互補特征漂移,從而降低融合性能。

3.3.4 DSSF 模塊雙向注意力的影響

在這里插入圖片描述

為進一步探索我們門控機制中 DSSF 模塊雙向注意力的有效性,我們分別移除 RGB 分支中的 IR 注意力(即式 9 中的 z_{IR?}?y_{R?})、IR 分支中的 RGB 注意力(即式 10 中的 z_{IR?}?y_{R?})以及雙向注意力。結果如表 7 所示。移除 IR 注意力或 RGB 注意力后,由于減少了兩特征間的注意力交互,mAP??分別下降 1.6% 或 1.1%;當移除雙向注意力時,DSSF 模塊變為 VSS 塊的堆疊,mAP??下降 2%。值得注意的是,IR 和 RGB 注意力分支與其他分支共享權重,與移除雙向注意力相比,這相當于僅添加激活函數和特征加法操作。因此,雙向注意力的使用對模型參數和運行時間沒有顯著影響,但顯著提升了檢測性能。

4. 結論

本文提出了一種新穎的 Fusion-Mamba 方法,通過精心設計的 SSCS 模塊和 DSSF 模塊實現多模態特征融合。具體而言,SSCS 交換紅外和可見光通道特征以實現淺層特征融合;隨后,DSSF 進一步設計用于在基于 Mamba 的隱藏狀態空間中實現更深層的多模態特征交互,門控注意力用于抑制冗余特征以增強特征融合的有效性。在三個公共 RGB-IR 數據集上進行的大量實驗表明,我們的方法實現了現有最優性能,且推理效率高于 Transformer。我們的工作證實了 Mamba 在跨模態融合中的潛力,相信我們的工作能為 Mamba 在跨模態任務中的應用激發更多研究。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/pingmian/85770.shtml
繁體地址,請注明出處:http://hk.pswp.cn/pingmian/85770.shtml
英文地址,請注明出處:http://en.pswp.cn/pingmian/85770.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Nginx-Ingress-Controller自定義端口實現TCP/UDP轉發

背景1 使用deployment部署一個http服務,配合使用ingresstls的解析在ingress終止。 apiVersion: networking.k8s.io/v1 kind: Ingress metadata:annotations:name: test.comnamespace: rcs-netswitch-prod spec:defaultBackend:service:name: rcs-netswitch-prodpo…

基于Vue.js的圖書管理系統前端界面設計

一、系統前端界面設計要求與效果 (一)系統功能結構圖 設計一個基于Vue.js的圖書管理系統前端界面。要充分體現Vue的核心特性和應用場景,同時結合信息管理專業的知識。要求系統分為儀表盤、圖書管理、借閱管理和用戶管理四個主要模塊&#x…

Perplexity AI:對話式搜索引擎的革新者與未來認知操作系統

在信息爆炸的數字時代,傳統搜索引擎提供的海量鏈接列表已無法滿足用戶對高效、精準知識獲取的需求。Perplexity AI作為一款融合人工智能與實時網絡檢索的對話式搜索引擎,正通過技術創新重新定義人們獲取信息的方式。這家成立于2022年的硅谷初創企業&…

第七講 信號

1. 信號鋪墊 信號: Linux 系統提供的, 簡單輕量的, 用于向指定進程發送特定事件, 讓接受信號進程做識別和對應處理實現進程控制的一種異步通信機制. 1~31 普通信號 34 ~ 64 實時信號 信號概覽 下面是Linux系統中所有標準信號的名稱及其對應的數字: SIGHUP (1…

2025年滲透測試面試題總結-2025年HW(護網面試) 02(題目+回答)

安全領域各種資源,學習文檔,以及工具分享、前沿信息分享、POC、EXP分享。不定期分享各種好玩的項目及好用的工具,歡迎關注。 目錄 2025年HW(護網面試) 02 1. 有趣的挖洞經歷 2. 高頻漏洞及修復方案 3. PHP/Java反序列化漏洞 4. 服務器入…

Odoo 18進階開發:打造專業級list,kanban視圖Dashboard

🎯 項目概述 在現代企業級應用中,數據可視化已成為提升用戶體驗的關鍵要素。Odoo 18 作為領先的企業資源規劃系統,為開發者提供了強大的視圖定制能力。本教程將帶您深入了解如何在list(列表)視圖和Kanban(…

LabVIEW儀表檢測

依托LabVIEW 圖形化開發平臺,集成 NI、Keysight、Fluke 等硬件,構建自動化儀表檢測工裝系統。方案覆蓋從二維碼識別、程序燒寫、多維度校準到數據管理的全流程自動化檢測,解決傳統人工檢測中效率低下(單卡檢測效率提升 62.5%&…

Java八股文——消息隊列「場景篇」

什么是消息隊列? 面試官您好,消息隊列(Message Queue, MQ),從本質上講,是一個實現了“先進先出”(FIFO)隊列數據結構的、專門用于在不同系統或服務之間進行可靠異步通信的中間件。 …

CTE vs 子查詢:深入拆解PostgreSQL復雜SQL的隱藏性能差異

1 SQL優化的關鍵抉擇 在PostgreSQL數據庫性能優化領域,CTE(公共表表達式) 和子查詢的選擇往往決定了復雜SQL查詢的執行效率。許多開發者習慣性地認為兩者功能等價,但實際執行路徑卻存在顯著差異。本文將深入剖析兩者的底層機制&a…

【fargo】x264的intra refresh 1:編碼

【fargo】x264的intra refresh 2:識別NAL類型、 NAL slice header 解析器大神的理論分析: H264Encoder 編碼輸出一幀 D:\XTRANS\thunderbolt\ayame\zhb-bifrost\player-only\echo\codec\x264\echo_h264_encoder.cppbool H264Encoder::encode

npm下載離線依賴包

項目中需要用到mermaid以來,使用npm安裝: npm install mermaid 但是客戶現場是離線環境,無法直接使用npm install mermaid安裝,所以需要考慮下載離線依賴包,命令為: npm pack mermaid 下載后&#xff1…

【教程】不同架構(armv7l等)下載Miniconda安裝包

轉載請注明出處:小鋒學長生活大爆炸[xfxuezhagn.cn] 如果本文幫助到了你,歡迎[點贊、收藏、關注]哦~ 目錄 armv7l架構 aarch、arm、x86架構 armv7l架構 wget http://repo.continuum.io/miniconda/Miniconda3-latest-Linux-armv7l.sh bash Miniconda3-…

【C++特殊工具與技術】嵌套類

在 C 中,類的嵌套(Nested Class)是一種強大的封裝手段。通過將一個類定義在另一個類(稱為外圍類,Enclosing Class)的內部,我們可以將關聯緊密的功能邏輯集中管理,同時限制嵌套類的作…

Python安裝cartopy報錯,解決cartopy環境配置問題

1、嘗試過各種辦法,說依賴包的問題,下載了沒用,說版本問題沒用。conda安裝成功了,運行仍然報錯。采用了一個笨辦法解決(高效便捷)。 用 conda-forge 重建環境,因為依賴混亂,重新創建…

python實戰項目77:足球運動員數據分析

python實戰項目77:足球運動員數據分析 一、數據集介紹二、加載數據集三、查看數據3.1 查看數據大小3.2 查看數據前幾行3.3 查看數據基本信息四、數據預處理4.1 查看并處理缺失值4.2 查看并處理重復值五、運動員身高和體重分布5.1 查看身高和體重列數據情況5.2 數據類型轉換5.3…

安卓官方版fat-aar:使用Fused Library將多個Android庫發布為一個庫

安卓官方版fat-aar:使用Fused Library將多個Android庫發布為一個庫 - Wesley’s Blog 在開發 sdk 時,內部一般會劃分好幾個模塊。但當需要打包成一個模塊發布時,往往需要依賴第三方插件。比如著名的 fat-aar:https://github.com/kezong/fat-…

VR看房:重塑房地產行業生態的技術革命

在科技浪潮的席卷下,虛擬現實(VR)技術正深刻重塑房地產行業格局。VR看房這一創新模式的興起,打破了傳統看房的諸多限制,從根本上變革了購房者的看房體驗,也為房地產企業的運營帶來全新契機與挑戰。 一、VR…

vscode+react+ESLint解決不引入組件,vscode不會報錯的問題

解決不引入組件&#xff0c;vscode不會報錯的問題 routes.jsx 全部代碼如下 export const routes [{path:"/",element:<Home/>} ]在項目根目錄下新建個 eslint.config.js 加入下面的代碼&#xff0c;要保證node_modules里安裝了 eslint-plugin-react&a…

Android制作AAR包并混淆后加載調用

為將部分算法代碼封裝為AAR包供其他項目調用&#xff0c;我基于零經驗的情況搭建了一個Demo進行功能驗證&#xff0c;在此記錄流程以備后續參考。 1、新建一個Android Project&#xff0c;選擇No Activity 2、創建 MyClasses 類用于封裝相關代碼 3、創建taar包并在其中定義MyAl…

常見應用層協議介紹

在計算機網絡中,應用層協議是 OSI 模型中的最高層,負責為用戶提供直接的網絡服務。 一、基于TCP的協議 應用層協議端口號基于的傳輸層協議關鍵特性HTTP80TCP無狀態、明文傳輸HTTPS443TCP (TLS加密)HTTP+SSL/TLS加密FTP20(數據)/21(控制)TCP雙通道傳輸、支持認證SSH22TCP加密替…