WWW 2025
1 intro
- 傳統GNN忽視了圖結構自身存在的缺陷:
- 圖結構常常會出現錯誤邊和缺失邊等數據問題,從而限制模型的效果
- —>為了解決上述問題,產生了圖結構學習算法(GSL)
- 目的在于優化結點連接和邊權重來生成新的鄰接矩陣
- 主流的方法是
- Φ是度量函數,如 cosine 相似度等
- 但是這種主流的方法存在兩個問題
- 建立連接時只依賴嵌入相似度而忽略了結點的信息質量
- 從鄰居結點接收模糊劣質的信息會干擾目標結點的嵌入學習
- 論文使用了一種代表性的 GSL 模型生成鄰接矩陣,然后移除了一定比例的高信息熵鄰居結點(噪聲鄰居)
- 發現該措施可以顯著提升 GNN 的性能
- 從鄰居結點接收模糊劣質的信息會干擾目標結點的嵌入學習
- 圖結構的對稱性限制了 GNN 捕捉復雜關系的能力
- 當前的 GSL 模型強制約束結點之間構建對稱連接
- 這意味著在信息聚合時,兩個結點之間的相互影響是相同的
- 但實際上結點之間的信息質量存在著差異,互相之間的關系一定程度上是非對稱的
- 當前的 GSL 模型強制約束結點之間構建對稱連接
- 建立連接時只依賴嵌入相似度而忽略了結點的信息質量
2 論文思路
- 提出?UnGSL(Uncertainty-aware Graph Structure Learning)
- 可以無縫整合至現有 GSL 模型的輕量級插件
- 利用可學習的結點閾值來自適應區分低熵鄰居和高熵鄰居,并根據它們的熵等級調整邊權重
- 主要流程
- 預訓練給定的 GSL 模型來獲得分類器,并計算結點的熵,將其轉化為 0 到 1 之間的置信度分數
- 為每個結點設置可學習的閾值,并重新訓練 GSL 模型
- 在訓練中,UnGSL 增強來自高置信度鄰居的邊權重,同時降低來自低置信度鄰居的邊權重
- 換言之,在原先的鄰接矩陣權重的基礎上乘一個系數
- uj鄰居的信息熵,εi 結點的可學習閾值,Sij原先的鄰接矩陣
- τ控制高置信度鄰居邊權重
- β控制低置信度鄰居邊權重