核心思想分析
這篇論文的核心思想在于解決線性嵌入(linear embedding)與非線性流形結構之間的不匹配問題。傳統方法通過保留樣本點間的親和關系來提取數據的本質結構,但這種方法在某些情況下無法有效捕捉到數據的全局或局部特性。此外,線性嵌入假設數據具有全局線性結構,這種假設容易受到不同局部區域耦合以及空間尺度差異的影響,導致嵌入結果失真。
為了解決這些問題,作者提出了一種基于自適應鄰域保持的彈性線性嵌入方法(Scaled Robust Linear Embedding with Adaptive Neighbors Preserving, SLE)。SLE 引入了基于局部統計特性的自適應權重機制,以實現對流形數據的靈活嵌入。這些自適應權重可以被視為局部流形結構的彈性變形系數,能夠動態調整局部鄰域的大小,從而減少由于線性嵌入與非線性嵌入之間的差距帶來的影響。
目標函數
SLE 的目標函數旨在最小化以下表達式:
min ? p , S , W ∑ i = 1 n p i ( ∑ j = 1 n ∥ W T x i ? W T x j ∥ 2 ) + β ∑ i , j = 1 n ∥ W T x i ? W T x j ∥ 2 s i j \min_{p,S,W} \sum_{i=1}^n p_i \left( \sum_{j=1}^n \|W^T x_i - W^T x_j\|^2 \right) + \beta \sum_{i,j=1}^n \|W^T x_i - W^T x_j\|^2 s_{ij} p,S,Wmin?i=1∑n?pi?(j=1∑n?∥WTxi??WTxj?∥2)+βi,j=1∑n?∥WTxi??WTxj?∥2sij?
其中:
- p p p 是基于局部統計特征的自適應權重向量。
- S S S 是相似度矩陣, s i j s_{ij} sij? 表示樣本 x i x_i xi? 和 x j x_j xj? 之間的相似度。
- W W W 是投影矩陣,用于將高維數據映射到低維子空間。
- β \beta β 是正則化參數,控制相似度矩陣的稀疏性。
約束條件包括:
- s i T 1 = 1 s_i^T 1 = 1 siT?1=1, s i j ≥ 0 s_{ij} \geq 0 sij?≥0
- p ≥ 0 p \geq 0 p≥0, p T 1 n = 1 p^T 1_n = 1 pT1n?=1
- W T S t W = I W^T S_t W = I WTSt?W=I, 其中 S t = X H X T S_t = X H X^T St?=XHXT 是散點矩陣。
- R a n k ( L a ) = n ? c Rank(L_a) = n - c Rank(La?)=n?c, 其中 L a = D ? ( S + S T ) / 2 L_a = D - (S + S^T)/2 La?=D?(S+ST)/2 是拉普拉斯矩陣。
目標函數的優化過程
目標函數的優化通過交替更新四個變量 W W W, F F F, p p p, 和 S S S 來實現:
-
更新 W W W:
固定 S S S, F F F, 和 p p p,求解如下問題:
min ? W T S t W = I ∑ i = 1 n p i ( ∑ j = 1 n ∥ W T x i ? W T x j ∥ 2 ) + β ∑ i , j = 1 n ∥ W T x i ? W T x j ∥ 2 s i j \min_{W^T S_t W = I} \sum_{i=1}^n p_i \left( \sum_{j=1}^n \|W^T x_i - W^T x_j\|^2 \right) + \beta \sum_{i,j=1}^n \|W^T x_i - W^T x_j\|^2 s_{ij} WTSt?W=Imin?i=1∑n?pi?(j=1∑n?∥WTxi??WTxj?∥2)+βi,j=1∑n?∥WTxi??WTxj?∥2sij?
使用拉格朗日乘數法將其轉化為無約束優化問題,并通過特征值分解求解最優解。 -
更新 F F F:
固定 W W W, S S S, 和 p p p,求解如下問題:
min ? F T F = I 2 λ T r ( F L a F T ) \min_{F^T F = I} 2\lambda Tr(F L_a F^T) FTF=Imin?2λTr(FLa?FT)
最優解由拉普拉斯矩陣 L a L_a La? 的前 c c c 個最小特征值對應的特征向量組成。 -
更新 S S S:
固定 W W W, F F F, 和 p p p,求解如下問題:
min ? s i T 1 = 1 , s i j ≥ 0 ∑ j = 1 n d i x j s i j + λ d i f j s i j + ? i s i j 2 \min_{s_i^T 1 = 1, s_{ij} \geq 0} \sum_{j=1}^n d_{ixj} s_{ij} + \lambda dif_j s_{ij} + \phi_i s_{ij}^2 siT?1=1,sij?≥0min?j=1∑n?dixj?sij?+λdifj?sij?+?i?sij2?
每個節點 i i i 獨立求解,使用拉格朗日乘數法得到最優解。 -
更新 p p p:
固定 S S S, F F F, 和 W W W,求解如下問題:
min ? p 1 2 ∥ p + d s 2 α ∥ 2 ? η ( p T 1 n ? 1 ) ? ω T p \min_p \frac{1}{2} \|p + \frac{d_s}{2\alpha}\|^2 - \eta(p^T 1_n - 1) - \omega^T p pmin?21?∥p+2αds??∥2?η(pT1n??1)?ωTp
通過拉格朗日乘數法求解最優解。
主要貢獻點
- 自適應權重機制:引入基于局部統計特征的自適應權重,動態調整局部鄰域的大小,從而減少高方差區域對線性嵌入的影響。
- 集成優化框架:將彈性變形系數學習、相似度學習和子空間學習集成到一個統一的優化框架中,保證三者的聯合最優。
- 高效優化算法:提出了一種高效的替代優化算法,并進行了理論上的計算復雜度和收斂性分析。
- 實驗驗證:在人工和真實數據集上進行了廣泛的實驗,驗證了 SLE 在揭示和保持數據本質結構方面的強大能力。
實驗結果
實驗結果表明,SLE 在多個合成和真實數據集上均表現出色。具體而言:
- 聚類性能:SLE 在 ACC 和 NMI 指標上優于多種先進的聚類算法,如 K-means、R-Cut、N-Cut、NMF、SSR、PCAN、DUDR、KaUDDR 等。
- 投影可視化:在 Jaffe 面部數據集上的 2D 投影可視化顯示,SLE 能夠清晰地分離不同的類別,而其他方法的結果存在重疊或離散的問題。
- 敏感性分析:SLE 對參數 β \beta β, L L L, 和 k k k 的變化具有較好的魯棒性,能夠在較寬的參數范圍內保持穩定的性能。
- 收斂性分析:算法在 20 次迭代內即可收斂,符合理論分析的結果。
算法實現過程
- 初始化:初始化自適應權重 p p p、相似度矩陣 S S S 和投影矩陣 W W W。
- 迭代優化:
- 更新 W W W:通過特征值分解求解最優投影矩陣。
- 更新 S S S:使用拉格朗日乘數法求解每個節點的最優相似度。
- 更新 p p p:通過拉格朗日乘數法求解最優自適應權重。
- 更新 F F F:求解拉普拉斯矩陣的特征向量。
- 構建拉普拉斯矩陣:根據當前的相似度矩陣構建拉普拉斯矩陣。
- 調整參數 λ \lambda λ:根據零特征值的數量動態調整 λ \lambda λ 的值。
- 終止條件:當算法收斂時停止迭代。
通過上述步驟,SLE 能夠有效地在低維空間中保留數據的本質結構,同時處理噪聲和異常值的影響。