??????????????TFN: An interpretable neural network with time-frequency transform embedded for intelligent fault diagnosis - ScienceDirecthttps://www.sciencedirect.com/science/article/abs/pii/S0888327023008609?via%3Dihub
(看看玲娜貝兒,安慰一下自己,
撫平咱們在家還要開電腦干活的情緒……)
一. 文獻閱讀
1. 引言
本研究的主要貢獻可概括如下:
(1)提出了具有優異可解釋性的TFconv層,該層能提取時頻信息以獲得更佳診斷性能;
(2)所有基于內積的時頻變換方法均可作為核函數嵌入TFconv層,本文選取三種典型時頻變換方法構建對應TFconv層并展開分析;
(3)通過頻響分析闡釋了時頻網絡在頻域進行特征提取與預測決策的邏輯基礎。實驗結果表明,所提出的TFconv層在收斂速度、小樣本適應性和泛化能力方面具有顯著優勢。
2.準備工作
輸入信號 x(t):表示原始的振動信號(如滾動軸承故障信號),可能包含瞬時沖擊與頻率變化。
與多個核函數 ?的內積操作:每個
對應一個特定頻率;每個內積計算等價于提取該頻率分量在該時刻的能量。
Hadamard product、求和與模值操作:模塊化(modulo operator)處理實部與虛部能量;得到的是復數形式的時頻分布。
輸出為二維圖像 TF(t, f):橫軸為時間,縱軸為頻率,顏色表示幅值(能量)。
接著文獻介紹了一下一維CNN。
3.?方法
3.1. Structure of TFconv layer
圖 3 展示了 TFconv 層的完整處理流程:
a. 輸入信號:為原始的機械振動信號 x(t),是時間序列數據。
b. 卷積操作:用到兩個卷積核,實部核與虛部核(分別代表時頻核函數的實部與虛部)
分別與輸入信號卷積,得到實部特征 和虛部特征 ?
。
c. 雙向傳播(forward & back-forward) 表示在訓練過程中進行梯度反向傳播更新核函數中的可訓練參數。
d. 合并操作:對實部與虛部進行 模長計算 ??,對應于復數信號的模,用以得到最終的 時頻分布圖,即輸出特征。
e. 最終輸出得到類似于時頻圖的 2D 特征圖,既包含時域信息,又具備頻域分布結構,可直接用于下游分類任務。
對比 | 傳統卷積層 | TFconv 層(創新點) |
---|---|---|
實虛 結構 | 實值卷積核 | 拆分為實部核和虛部核,輸出合成采用模長運算 |
核函數生成 | 卷積核權重隨機初始化并訓練 | 卷積核由具有物理意義的核函數(如 STFT/小波)構造,訓練的是核函數的控制參數 |
可訓練參數 | 每個卷積核的所有參數(如每個權重)均為可訓練 | 僅訓練核函數的結構控制參數(如頻率因子 f,尺度因子 s,時間平移等) |
3.2?Kernel function of TFconv layer
該部分主要解釋了 TFconv 層中的核函數來自于傳統時頻變換(TFT)中的內積窗口函數(inner product window function),并介紹了三種典型的時頻核函數(STFT、chirplet、Morlet wavelet)及其參數含義和區別。
本文考慮三種典型的時頻核函數來構造 TFconv 卷積核:
- STFT(Short-Time Fourier Transform)核函數
-
CT(Chirplet Transform)核函數
-
Morlet WT(Wavelet Transform)核函數
它們的核函數在 TFconv 中用于構造可調卷積核,并擁有各自獨立的可調參數,后文將表格中說明。
核函數 | 中心頻率調節 | 帶寬調節方式 | 控制參數 |
---|---|---|---|
STTF(圖4a) | 固定中心頻率 | 固定帶寬 | f:頻率因子 |
Chirplet(圖4b) | 可調中心頻率 | 由調頻因子 α\alpha 控制線性擴展 | f0,α:調頻參數 |
Morlet Wavelet(圖4c) | 中心頻率可調 | 由尺度因子 ss 控制可伸縮帶寬 | s:尺度因子 |
3.3?Interpretability of TFconv layer
圖 | 內容說明 |
---|---|
5(a) | 傳統卷積層的 C-FR,響應圖呈現隨機分布,沒有明確頻率偏好,解釋性差。 |
5(b) | TFconv + STFT核的 C-FR,具有明確的頻率聚焦,響應集中在某些頻帶,受核函數調控。 |
5(c) | TFconv + Morlet核的 C-FR,響應更光滑,帶寬受核函數參數控制。 |
5(d) | O-FR 對比圖:實線為 TFconv 層,虛線為傳統卷積層。可見 TFconv 在0.2~0.3附近有明顯響應峰值,表示其能更好“關注”故障頻率所在頻段。 |
TFconv層中的O-FR可以視為模型關注頻率的指示器,揭示CNN“關注了哪些頻段”,對模型輸出影響最大的頻段即是關鍵故障頻帶。相比傳統卷積層,TFconv層具有“可控核函數”和“頻域解釋性”,對頻譜進行結構化選擇而非盲目學習。
推論: 若TFconv層輸出的 O-FR 與實際機械故障頻譜吻合,表明模型確實學會關注關鍵特征頻率。
為驗證TFconv層的有效性,本研究選用相對較淺的CNN作為主干網絡,所得TFN架構如表3所示。其中𝑛𝑐、𝑁和𝑛𝑝分別代表預處理層通道數、TFconv層長度以及分類類別數。𝑛𝑐和𝑁在TFconv層設計過程中確定,𝑛𝑝則由診斷任務決定。
Part | 層編號 | 網絡結構 | 輸出維度 |
---|---|---|---|
TFconv | 1 | TFconv(xtx_t),輸入尺寸為1×1024 | nc×1024 |
Backbone | 2 | 卷積(16卷積核,步長1)+BN+ReLU | 16×1010 |
3 | 卷積(32核,步長1)+BN+ReLU+最大池化(步長2) | 32×504 | |
4 | 卷積(64核,步長1)+BN+ReLU | 64×502 | |
5 | 卷積(128核,步長1)+BN+ReLU+自適應池化 | 128×4 | |
6 | Flatten | 512 | |
7 | Dense(256)+ReLU+Dense(npn_p) | np |
代碼復現已更新!
信號處理學習——文獻精讀與code復現之TFN——嵌入時頻變換的可解釋神經網絡(下)-CSDN博客