摘要
問題一:但在對自模態和跨模態的全局長距離依賴關系進行建模方面仍顯不足。什么意思?
自模態(Intra-modal)全局依賴:在同一模態內,長距離像素之間的信息交互對于理解全局背景很重要,但 CNNs 主要依賴局部卷積,難以直接捕捉遠距離的關聯。
跨模態(Cross-modal)全局依賴:CNNs 在不同模態的全局匹配和特征對齊上也存在一定的局限性,因為它們主要依賴局部感受野,而難以建模全局語義。
現有的問題:
CNN 的局部感受野限制:CNN 主要依賴固定大小的卷積核(如 3×3、5×5),只能捕捉局部特征,無法直接建模遠距離的特征關系。
缺乏全局特征聚合:要捕獲全局依賴關系,通常需要堆疊多個卷積層或使用特定的注意力機制(如 Transformer、Self-Attention),而 CNNs 天生缺乏這種能力。
跨模態信息融合不足:CNNs 主要依靠特征拼接或逐層交互,但可能無法充分利用兩種模態之間的全局信息。
解決方法:使用 Transformer 結構:如 ViT(Vision Transformer)、Swin Transformer 等,利用自注意力機制建模長距離依賴。這種問題在多模態任務(如 RGB-D SOD、RGB-T SOD)中特別關鍵,因為不同模態可能在不同空間位置包含互補的信息,而 CNN 難以直接建立全局的跨模態依賴。
問題二:考慮到RGB模態和深度模態之間的先驗相關性什么意思?
在 RGB 模態和深度(Depth)模態之間,存在某種“先驗相關性”(prior correlation),即在物理世界或視覺任務中,RGB 圖像的顏色、紋理等信息,與深度圖的幾何結構、距離信息之間存在某種內在聯系。
具體解釋:
-
RGB 和深度的互補性:
- RGB 模態 提供顏色、紋理、照明等外觀信息,但在低光照、遮擋或相似背景的情況下可能會失效。
- 深度模態 提供幾何結構、空間距離信息,不受光照變化的影響,但在細節和紋理上可能較為粗糙。
- 它們的先驗相關性:一般來說,深度大的地方(遠處)往往顏色和紋理信息較少,而深度較小的地方(近處)通常包含豐富的細節和顏色變化。例如,前景目標通常具有與背景不同的深度信息,結合 RGB 和深度可以更好地區分目標與背景。
-
如何利用這種相關性:
- 設計聯合特征提取網絡:利用 RGB 和深度的互補性,設計可以共享或交互特征的網絡結構,比如跨模態注意力(Cross-modal Attention)、特征對齊等機制。
- 利用深度引導 RGB 處理:使用深度信息來調整 RGB 處理,比如通過深度引導注意力機制(Depth-Guided Attention),讓 RGB 網絡更關注物體的幾何結構。
- 聯合學習 RGB-深度特征:利用 Transformer、圖神經網絡(GNN)等方法,在全局范圍內建模 RGB 和深度之間的關系,而不僅僅是局部卷積操作。
示例:
在 RGB-D 顯著性檢測(RGB-D SOD)任務中,可以:
- 用深度信息增強 RGB 的邊緣特征,因為深度往往在物體邊界處有明顯變化。
- 用深度信息提供目標的層次結構,使得前景目標更容易從背景中分離。
- 設計模態間的特征交互模塊,讓 RGB 和深度特征在不同尺度上相互補充。
問題三:為了緩解Transformer天然帶來的塊效應和細節破壞問題什么意思?
為什么 Transformer 會帶來塊效應和細節破壞?
1.塊效應:ransformer 在圖像任務中的典型實現(如 ViT、Swin Transformer)通常會 將輸入圖像劃分為固定大小的塊(patches),然后獨立處理這些塊并進行全局建模。但這樣會導致:
局部連續性丟失:相鄰 patch 之間的聯系較弱,導致邊緣可能出現不連續或割裂現象。
像素級精細信息丟失:由于 patch 處理是基于塊,而不是像素級的連續操作,可能會導致一些小目標或紋理細節無法被充分捕捉。
2.細節破壞:
Transformer 主要依賴 自注意力機制(Self-Attention) 進行全局信息交互,但對于高頻紋理、細小結構等信息,可能無法像 CNN 那樣精準捕捉和恢復。
由于 Transformer 缺少 CNN 的 平移不變性(Translation Invariance),對于小目標或細節恢復時,可能會導致某些特征變得模糊或消失。
多層 Transformer 可能會對輸入進行多次降采樣(如 Swin Transformer 的分層結構),進一步造成細節丟失。
3.如何緩解 Transformer 的塊效應和細節破壞?
為了彌補這些缺陷,研究者通常會在 Transformer 結構中 引入 CNN 或其他增強機制,例如:
-
局部增強模塊(Local Enhancement Module)
- 在 Transformer 結構中引入 CNN,使其具備局部感知能力,增強邊緣和細節信息。
- 例如 Swin Transformer 通過滑動窗口注意力(Shifted Window Attention)減少塊效應。
-
多尺度特征融合(Multi-scale Feature Fusion)
- 結合不同尺度的信息,避免由于塊劃分導致的細節丟失。例如,利用金字塔結構(FPN)增強細節恢復能力。
-
引入 CNN 進行后處理(Hybrid CNN-Transformer)
- 在 Transformer 之后加上 CNN 結構,進行細節恢復和邊緣修復。例如,一些方法會在最后階段添加卷積層,以平滑塊邊界,提高像素級細節。
-
額外的約束機制
- 例如 全局+局部注意力(Global-Local Attention) 結合 Transformer 的全局感知能力和 CNN 的局部感知能力,避免塊效應。
一:簡介
問題一:現有的RGB-D顯著性目標檢測(SOD)方法可分為三類:純卷積神經網絡(CNNs)模型、純Transformer模型以及Transformer輔助的CNNs模型。?
1. 純 CNN 模型
代表方法:傳統的 RGB-D SOD 方法主要基于卷積神經網絡(CNN),通過級聯、多尺度特征提取、注意力機制等方式來融合 RGB 和深度信息。
特點:
(1)依賴 CNN 的 局部感知能力 和 平移不變性,對細節和邊緣信息較敏感。
(2)采用 多尺度特征融合,利用 FPN(Feature Pyramid Network)、U-Net 等結構增強目標檢測能力。
(3)使用 注意力機制(如通道注意力、空間注意力) 來優化 RGB-D 特征交互。
劣勢:受限于 CNN 結構的 局部感受野,難以建模全局依賴關系,在長距離依賴關系建模方面存在不足。
典型方法:DMRA(CVPR 2019),JL-DCF(CVPR 2020),BiANet(IJCAI 2020),BBS-Net(ECCV 2020)
2.純Transformer模型
代表方法:最近的 RGB-D SOD 方法開始使用 Transformer 結構來建模長距離依賴,并捕獲全局上下文信息。
特點:
(1)采用 自注意力機制(Self-Attention),可以建模 全局依賴關系,彌補 CNN 的局部感受野限制。
(2)適合處理大尺度目標和長距離關系,比如場景中的遠近目標。
劣勢:由于 Transformer 采用 patch 分塊 機制,可能會導致 塊效應(Block Effect),影響細節表現。計算復雜度較高,訓練數據需求大,難以在小數據集上訓練出良好效果。
典型方法:Trans-SOD(AAAI 2022),TriTransNet(CVPR 2022),HDFNet(AAAI 2022)
3.Transformer 輔助 CNN 模型
代表方法:考慮到 CNN 和 Transformer 各自的優缺點,許多方法采用 CNN + Transformer 結合的混合架構,利用 CNN 提取局部特征,同時使用 Transformer 建模全局依賴,以提高 RGB-D SOD 任務的性能。
特點:
(1)CNN 負責提取局部細節信息(如邊緣、紋理)。
(2)Transformer 負責捕獲全局依賴關系(建模 RGB-D 之間的長距離交互)。
優勢:
(1)既能保留 CNN 的細節建模能力,又能結合 Transformer 的長距離依賴建模能力,提升檢測精度。
(2)計算復雜度相較于純 Transformer 更低,同時比純 CNN 能更好地建模模態間關系。
劣勢:仍然需要優化 Transformer 的塊效應問題,如引入 局部增強機制。
典型方法:LDF(CVPR 2022),DCFM (AAAI 2023),PICR-Net(ACM MM 2023)
問題二:在 基于 Transformer 的模型 中,交叉注意力機制(Cross-Attention) 是一種常見的跨模態交互方法,特別適用于 多模態任務(如 RGB-D、RGB-T、視覺-語言等)。
交叉注意力是一種 特殊的注意力機制,用于 不同模態 之間的信息交互。例如:在RGB-D任務中,
(1)RGB 模態 可以作為 查詢(Queries, Q),而 深度模態 作為 鍵(Keys, K)和值(Values, V)。
(2)反過來,也可以用 深度模態 作為查詢,RGB 作為鍵和值。
(3)這樣,不同模態之間的信息可以相互作用,從而增強跨模態特征融合能力。
4.交叉注意力在 RGB-D SOD 任務中的作用
在 RGB-D 顯著性檢測任務中,交叉注意力可以用于:
- 模態對齊:確保 RGB 和深度模態在特征空間對齊,避免信息偏差。
- 跨模態特征融合:允許 RGB 信息增強深度信息(反之亦然)。
- 長距離依賴建模:相比于 CNN 的局部卷積,交叉注意力可以捕捉遠距離模態間的依賴關系。
二:有關工作
三:提出的方法
問題一:
圖2:所提出的PICR-Net的整體框架。首先,將RGB圖像和深度圖像輸入到雙流編碼器中,以提取相應的多級特征和
。隨后,同一層的特征通過跨模態點感知交互模塊進行多維度交互,在這個過程中,之前輸出的顯著圖
被用于提取全局引導信息。在網絡的末端,卷積神經網絡引導優化(CNNR)單元從預訓練的VGG16模型中提供具有更高分辨率和更多細節的卷積特征,以優化并輸出最終的高質量顯著圖
。
一、整體架構概覽
PICR-Net是一種基于雙模態交互的顯著性檢測網絡,核心思想是通過跨模態關系建模和點感知交互,融合RGB與深度圖(或熱成像)信息。
主要特點:
(1)雙分支編碼:RGB和深度圖獨立編碼,通過Swin Transformer提取多尺度特征
(2)四級漸進融合:4個階段(Stage 1-4)的跨模態交互,逐步融合全局與局部特征
(3)混合注意力機制:結合通道注意力(CA)與空間關系建模
(4)多層級監督:通過Black 1-6等中間模塊實現多級預測
二、輸入預處理階段
?1. 輸入規格
- ?RGB輸入:224×224×3(H×W×C)
- ?深度圖輸入:224×224×3(通過復制單通道為三通道適配網絡)
- ?關鍵標注:
224x224x3->3136x96
?表示將輸入圖像分割為 ?56×56個patch?(224/4=56),每個patch嵌入為96維向量(3136=56×56)
問題:為什么通過線性變換將48維向量映射為96維嵌入向量?
將 ?48維向量?映射為 ?96維嵌入向量?是 ?Vision Transformer(ViT)??等模型中的一個關鍵步驟,目的是通過線性變換 ?增加特征表達能力,同時為后續的Transformer模型提供合適的輸入格式。
問題:Patch Embedding的作用是干嘛?
Patch Embedding?是 ?Vision Transformer(ViT)??等模型中的關鍵步驟,用于將圖像轉換為適合Transformer處理的序列化輸入。
含義:3136:Patch總數(56×56,即224/4×224/4)? ?96:每個Patch的嵌入維度。
?2. Patch Embedding
- ?模塊名稱:Patch Embedded
- ?功能:
將輸入圖像分割為4×4的非重疊塊(類似ViT),通過線性投影(Linear Vision)生成初始嵌入向量 - ?生成內容:
- RGB分支:3136×96(56×56×96)
- 深度分支:3136×96
?注:3136=56×56,對應原圖1/4分辨率特征圖
?三、四階段編碼與交互(Stage 1-4)?
每個階段包含模態內特征提取?+ ?跨模態交互,層級結構如下:
?Stage 1(1/4分辨率)?
-
?Swin Transformer Block
-
?輸入:3136×96(56×56網格)
-
?操作:基于窗口的自注意力(窗口大小7×7),局部關系建模
-
?輸出:3136×96 → ?784×192?(下采樣到28×28,通道數翻倍)
-
問題:為什么在Stage 1中特征圖的尺寸變成了784×192?
-
?Point-aware Interaction
-
?模塊名稱:Point-aware Interaction
-
?功能:
通過1×1卷積(Conv2D+ReLU)實現跨通道特征重組,公式: -
?輸出:保持尺寸784×192(H/8×W/8×2C)
-
?Stage 2(1/8分辨率)?
-
?Swin Transformer Block
-
?輸入:784×192(28×28網格)
-
?輸出:196×384(14×14網格,通道再翻倍)
-
-
?Cross-modality Relation Modeling
-
?模塊名稱:Ralation Modeling(應為Relation Modeling)
-
?功能:
通過雙線性注意力計算RGB與深度特征的跨模態相似度矩陣: -
?輸出:增強后的196×384特征
-
?Stage 3-4(1/16-1/32分辨率)?
-
?操作升級:
-
窗口注意力 → ?移位窗口注意力?(Shifted Window),擴大感受野
-
引入Channel-wise Attention (CA):動態重標定通道權重
?關鍵標注:
H/32×H/32×8C
?表示最終輸出49×768特征(7×7網格,768通道)
-
?四、跨模態融合核心模塊
?1. 多模態動態注意力(MDAM)?
-
?模塊標識:For kition Mode(實際應為Fusion Module)
-
?結構:
-
?輸入:來自兩個模態的同級特征(如Stage 2的196×384)
-
?操作:
① 通道拼接(Conat) → ② 3×3卷積降維 → ③ 通道注意力(CA) -
?輸出:融合后的196×192特征
-
?2. 殘差連接設計
-
?模塊標識:Sub-2+(應為Sub-block)
-
?功能:
通過跳躍連接(如←
箭頭)將底層細節特征與高層語義特征結合,防止梯度消失
?數學表達:
?五、解碼與輸出階段
?1. 多級預測(Black 1-6)?
-
?模塊標識:Black 1, Black 2-6/2-6(應為Decoder Block)
-
?功能:
-
通過反卷積逐步上采樣(如
Ex 10×168
表示10×168特征擴展) -
每級輸出一個顯著性圖(S1-S4),用于中間監督
-
?2. 最終輸出層
-
?模塊標識:Sout
-
?操作:
-
拼接所有解碼層特征(F6, F10等)
-
通過1×1卷積 + Sigmoid生成顯著性概率圖
-
-
?輸出規格:224×224×1(與原圖同分辨率)