匯總結果來源:ICCV 2025 Accepted Papers
若文中出現的 論文鏈接 和 GitHub鏈接 點不開,則說明還未公布,在公布后筆者會及時添加. 若筆者未及時添加,歡迎讀者告知.
文章根據題目關鍵詞搜索,可能會有遺漏. 若筆者出現遺漏,歡迎告知.
部分文章還未公布正文,只有名稱.
利用自監督視覺Transformer特征提升生成對抗遷移性
Boosting Generative Adversarial Transferability with Self-supervised Vision Transformer Features
論文鏈接
GitHub鏈接
摘要:深度神經網絡(DNN)的能力來自于從所提供的數據中提取和解釋特征。通過利用DNN中的中間特征,而不是依賴硬標簽,我們精心設計了對抗性擾動,使其能更有效地泛化,提升黑盒遷移性。在以往的工作中,這些特征普遍來自監督學習。受到自監督學習與Transformer架構之間卓越協同效應的啟發,本文探究利用自監督視覺Transformer(ViT)表示是否能夠提高對抗性遷移性。我們提出了dSVA——一種生成式雙重自監督ViT特征攻擊方法,它同時利用了對比學習(CL)中的全局結構特征和掩碼圖像建模(MIM)中的局部紋理特征,這兩種是適用于ViT的自監督學習范式。我們設計了一種新穎的生成式訓練框架,該框架包含一個生成器以創建黑盒對抗樣本,以及通過利用聯合特征和自監督ViT的注意力機制來訓練生成器的策略。我們的研究結果表明,CL和MIM使ViT能夠關注不同的特征趨勢,當協同利用這些趨勢時,具有很強的對抗泛化能力。通過破壞自監督ViT提煉出的雙重深度特征,我們獲得了顯著的黑盒遷移性,能夠遷移到各種架構的模型上,且性能優于現有技術水平。
探索機器人領域中視覺-語言-行動模型的對抗性漏洞
Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics
論文鏈接
GitHub鏈接
摘要:最近在機器人領域,視覺-語言-行動(VLA)模型作為一種變革性方法應運而生,使機器人能夠在端到端學習框架內整合視覺和語言輸入,從而執行復雜任務。盡管 VLA 模型具備強大的能力,但它們也帶來了新的攻擊面,使其易受對抗攻擊。鑒于這些漏洞在很大程度上尚未得到探索,本文系統地量化了基于VLA的機器人系統的穩健性。認識到機器人執行任務的獨特需求,我們的攻擊目標針對機器人系統固有的空間和功能特性。具體而言,我們引入了兩個利用空間基礎破壞機器人行動穩定性的無目標攻擊目標,以及一個操縱機器人軌跡的有目標攻擊目標。此外,我們設計了一種對抗補丁生成方法,在相機視野內放置一個小的彩色補丁,從而在數字和物理環境中有效地實施攻擊。我們的評估顯示,任務成功率顯著下降,在一系列模擬機器人任務中降幅高達100%,這凸顯了當前VLA架構中存在的關鍵安全漏洞。通過揭示這些漏洞并提出可行的評估指標,我們推動了對基于VLA的機器人系統安全性的理解和提升,強調了在實際世界部署之前持續開發強大防御策略的必要性。
一個擾動足矣:針對視覺語言預訓練模型生成通用對抗擾動
One Perturbation is Enough: On Generating Universal Adversarial Perturbations against Vision-Language Pre-training Models
論文鏈接
GitHub鏈接
摘要:
利用合成數據擴展和駕馭對抗訓練
Scaling and Taming Adversarial Training with Synthetic Data
論文鏈接
GitHub鏈接
摘要:
基于對抗魯棒記憶的持續學習器
Adversarial Robust Memory-Based Continual Learner
論文鏈接
GitHub鏈接
摘要:
通過梯度引導采樣平衡探索與利用來增強對抗遷移性
Enhancing Adversarial Transferability by Balancing Exploration and Exploitation with Gradient-Guided Sampling
論文鏈接
GitHub鏈接
摘要:對抗攻擊對深度神經網絡的魯棒性構成了嚴峻挑戰,尤其是在不同模型架構的遷移場景中。然而,對抗攻擊的可遷移性在利用(最大化攻擊效力)和探索(增強跨模型泛化能力)之間面臨著一個基本困境。傳統的基于動量的方法過度優先考慮利用,即通過更高的損失最大值來提高攻擊效力,但泛化能力會減弱(損失面變窄)。相反,最近采用內迭代采樣的方法則過度優先考慮探索,即為了實現跨模型泛化而使損失面更平坦,但攻擊效力會減弱(局部最大值次優)。為了解決這一困境,我們提出了一種簡單而有效的梯度引導采樣(GGS)方法,該方法通過沿梯度上升方向引導采樣來協調這兩個目標,從而提高采樣效率和穩定性。具體而言,基于MI - FGSM,GGS引入內迭代隨機采樣,并利用前一次內迭代的梯度來引導采樣方向(采樣幅度由隨機分布決定)。這種機制促使對抗樣本處于平衡區域,既具有平坦性以實現跨模型泛化,又具有較高的局部最大值以獲得強大的攻擊效力。在多種深度神經網絡架構和多模態大語言模型(MLLM)上進行的綜合實驗表明,我們的方法優于當前最先進的遷移攻擊方法。
通過李雅普諾夫指數引導優化實現單域泛化的對抗性數據增強
Adversarial Data Augmentation for Single Domain Generalization via Lyapunov Exponent-Guided Optimization
論文鏈接
GitHub鏈接
摘要:
基于屬性感知文本反演的提示驅動的行人重識別可遷移對抗攻擊
Prompt-driven Transferable Adversarial Attack on Person Re-Identification with Attribute-aware Textual Inversion
論文鏈接
GitHub鏈接
摘要:
一物體,多謊言:統一視覺語言模型跨任務對抗攻擊基準
One Object, Multiple Lies: A Benchmark for Cross-task Adversarial Attack on Unified Vision-Language Models
論文鏈接
GitHub鏈接
摘要:
PBCAT:基于補丁的復合對抗訓練,抵御針對目標檢測的物理可實現攻擊
PBCAT: Patch-based composite adversarial training against physically realizable attacks on object detection
論文鏈接
GitHub鏈接
摘要:
大型目標檢測Transformer的對抗注意力擾動
Adversarial Attention Perturbations for Large Object Detection Transformers
論文鏈接
GitHub鏈接
摘要:
3D高斯濺射驅動的多視圖魯棒物理對抗偽裝生成
3D Gaussian Splatting Driven Multi-View Robust Physical Adversarial Camouflage Generation
論文鏈接
GitHub鏈接
摘要:
自動提示:通過大語言模型驅動的對抗性提示對文本轉圖像模型進行自動化紅隊測試
AutoPrompt: Automated Red-Teaming of Text-to-Image Models via LLM-Diven Adversarial Prompts
論文鏈接
GitHub鏈接
摘要:
用于物理目標檢測規避的梯度重加權對抗性偽裝
Gradient-Reweighted Adversarial Camouflage for Physical Object Detection Evasion
論文鏈接
GitHub鏈接
摘要:
通過超分辨率和擴散進行對抗凈化
Adversarial Purification via Super-Resolution and Diffusion
論文鏈接
GitHub鏈接
摘要:
SMP攻擊:利用語義感知多粒度Patchout提升基于特征重要性的對抗攻擊的可遷移性
SMP-Attack: Boosting the Transferability of Feature Importance-based Adversarial Attack with Semantics-aware Multi-granularity Patchout
論文鏈接
GitHub鏈接
摘要:
通過逆目標梯度競爭和空間距離拉伸增強定向對抗樣本的可遷移性
Enhancing Transferability of Targeted Adversarial Examples via Inverse Target Gradient Competition and Spatial Distance Stretching
論文鏈接
GitHub鏈接
摘要:
用于提升掌紋識別的統一對抗增強方法
Unified Adversarial Augmentation for Improving Palmprint Recognition
論文鏈接
GitHub鏈接
摘要:
用于穩健細粒度泛化的對抗重建反饋
Adversarial Reconstruction Feedback for Robust Fine-grained Generalization
論文鏈接
GitHub鏈接
摘要:
通過去偏置高置信度邏輯對齊實現對抗魯棒性
Towards Adversarial Robustness via Debiased High-Confidence Logit Alignment
論文鏈接
GitHub鏈接
摘要:
通過殘差擾動攻擊提升對抗遷移性
Boosting Adversarial Transferability via Residual Perturbation Attack
論文鏈接
GitHub鏈接
摘要:
概率魯棒性的對抗訓練
Adversarial Training for Probabilistic Robustness
論文鏈接
GitHub鏈接
摘要:
ZIUM:針對未學習模型的零樣本意圖感知對抗攻擊
ZIUM: Zero-Shot Intent-Aware Adversarial Attack on Unlearned Models
論文鏈接
GitHub鏈接
摘要:
FVGen:利用對抗視頻擴散蒸餾加速新視圖合成
FVGen: Accelerating Novel-View Synthesis with Adversarial Video Diffusion Distillation
論文鏈接
GitHub鏈接
摘要:
四面受困,堅韌提煉:通往零樣本魯棒性的多目標對抗路徑
Confound from All Sides, Distill with Resilience: Multi-Objective Adversarial Paths to Zero-Shot Robustness
論文鏈接
GitHub鏈接
摘要:
通過標簽信息消除緩解快速對抗訓練中的災難性過擬合
Mitigating Catastrophic Overfitting in Fast Adversarial Training via Label Information Elimination
論文鏈接
GitHub鏈接
摘要:
重新審視目標檢測器上的對抗補丁防御:統一評估、大規模數據集及新見解
Revisiting Adversarial Patch Defenses on Object Detectors: Unified Evaluation, Large-Scale Dataset, and New Insights
論文鏈接
GitHub鏈接
摘要:
ViT集成攻擊:增強集成模型以提升視覺Transformer中的對抗遷移性
ViT-EnsembleAttack: Augmenting Ensemble Models for Stronger Adversarial Transferability in Vision Transformers
論文鏈接
GitHub鏈接
摘要:
失敗案例更易學習,但邊界表示遺憾:在對抗訓練中促進平滑感知變化以實現準確性與魯棒性的權衡
Failure Cases Are Better Learned But Boundary Says Sorry: Facilitating Smooth Perception Change for Accuracy-Robustness Trade-Off in Adversarial Training
論文鏈接
GitHub鏈接
摘要:
FedPall:針對存在特征漂移的聯邦學習的基于原型的對抗協作學習
FedPall: Prototype-based Adversarial and Collaborative Learning for Federated Learning with Feature Drift
論文鏈接
GitHub鏈接
摘要:
利用空間不變性提升對抗遷移性
Leveraging Spatial Invariance to Boost Adversarial Transferability
論文鏈接
GitHub鏈接
摘要:對抗樣本通過難以察覺的擾動構建,揭示了深度神經網絡(DNN)的一個重大脆弱性。更關鍵的是,對抗樣本的可遷移性使攻擊者無需了解目標模型就能誘導出不合理的預測。DNN具有空間不變性,即物體的位置不影響分類結果。然而,現有的基于輸入變換的對抗攻擊僅關注單一位置的行為模式,未能充分利用DNN在多個位置展現出的空間不變性,從而限制了對抗樣本的可遷移性。為解決這一問題,我們提出一種基于多尺度、多位置輸入變換的攻擊方法,稱為空間不變性多樣性(SID)。具體而言,SID在局部感受野內使用混合空間 - 光譜融合機制,隨后進行多尺度空間下采樣,并通過隨機變換進行位置擾動,從而構建一組輸入來激活多樣的行為模式,以實現有效的對抗擾動。在ImageNet數據集上進行的大量實驗表明,SID比當前最先進的基于輸入變換的攻擊方法具有更好的可遷移性。此外,SID可以靈活地與其他基于輸入變換或基于梯度的攻擊方法相結合,進一步增強對抗樣本的可遷移性。
ODDR:基于異常檢測與降維的對抗補丁防御方法
ODDR: Outlier Detection & Dimension Reduction Based Defense Against Adversarial Patches
論文鏈接
GitHub鏈接
摘要:
對抗單純復形對SAM編碼器的破壞會引發下游模型故障
SAM Encoder Breach by Adversarial Simplicial Complex Triggers Downstream Model Failures
論文鏈接
GitHub鏈接
摘要:
視覺領域判別式自監督學習的對抗魯棒性
Adversarial Robustness of Discriminative Self-Supervised Learning in Vision
論文鏈接
GitHub鏈接
摘要:
DADet:通過擴散異常檢測保護圖像條件擴散模型免受對抗攻擊和后門攻擊
DADet: Safeguarding Image Conditional Diffusion Models against Adversarial and Backdoor Attacks via Diffusion Anomaly Detection
論文鏈接
GitHub鏈接
摘要:
GLEAM:通過全局-局部變換對視覺語言預訓練模型進行增強可遷移對抗攻擊
GLEAM: Enhanced Transferable Adversarial Attacks for Vision-Language Pre-training Models via Global-Local Transformations
論文鏈接
GitHub鏈接
摘要:
CIARD:循環迭代對抗魯棒性蒸餾
CIARD: Cyclic Iterative Adversarial Robustness Distillation
論文鏈接
GitHub鏈接
摘要:
DIA:擴散模型中確定性反演的對抗性暴露
DIA: The Adversarial Exposure of Deterministic Inversion in Diffusion Models
論文鏈接
GitHub鏈接
摘要:
IAP:通過感知感知定位和擾動優化的隱形對抗補丁攻擊
IAP: Invisible Adversarial Patch Attack through Perceptibility-Aware Localization and Perturbation Optimzation
論文鏈接
GitHub鏈接
摘要:
數據多樣性的對抗性利用可提升視覺定位性能
Adversarial Exploitation of Data Diversity Improves Visual Localization
論文鏈接
GitHub鏈接
摘要:
通過負海森矩陣跡正則化提升對抗遷移性
Boosting Adversarial Transferability via Negative Hessian Trace Regularization
論文鏈接
GitHub鏈接
摘要:
生成對抗擴散
Generative Adversarial Diffusion
論文鏈接
GitHub鏈接
摘要:
DisCoPatch:馴服對抗驅動的批量統計信息以改進分布外檢測
DisCoPatch: Taming Adversarially-driven Batch Statistics for Improved Out-of-Distribution Detection
論文鏈接
GitHub鏈接
摘要:
KOEnsAttack:通過知識正交化替代集成實現高效無數據黑盒對抗攻擊
KOEnsAttack: Towards Efficient Data-Free Black-Box Adversarial Attacks via Knowledge-Orthogonalized Substitute Ensembles
論文鏈接
GitHub鏈接
摘要:
TITAN:基于查詢令牌的域自適應對抗學習
TITAN: Query-Token based Domain Adaptive Adversarial Learning
論文鏈接
GitHub鏈接
摘要:
面向通用深度偽造檢測的開放不公平對抗緩解方法
Open-Unfairness Adversarial Mitigation for Generalized Deepfake Detection
論文鏈接
GitHub鏈接
摘要:
NAPPure:非加性擾動下穩健圖像分類的對抗凈化
NAPPure: Adversarial Purification for Robust Image Classification under Non-Additive Perturbations
論文鏈接
GitHub鏈接
摘要:
面向高效圖像和視頻合成的擴散蒸餾對抗分布匹配
Adversarial Distribution Matching for Diffusion Distillation Towards Efficient Image and Video Synthesis
論文鏈接
GitHub鏈接
摘要:
偽裝良性:一種利用協同感知漏洞的隱秘對抗攻擊
Pretend Benign: A Stealthy Adversarial Attack by Exploiting Vulnerabilities in Cooperative Perception
論文鏈接
GitHub鏈接
摘要: