「AI秘籍」系列課程:
- 人工智能應用數學基礎
- 人工智能Python基礎
- 人工智能基礎核心知識
- 人工智能BI核心知識
- 人工智能CV核心知識
Interpretability 模型和 Explainability 模型之間的區別以及為什么它可能不那么重要
當你第一次深入可解釋機器學習領域時,你會注意到類似的術語隨處可見。Interpretability 與Explainability。解釋與說明。我們甚至無法決定該領域的名稱——是可解釋機器學習 (interpretable machine learning - IML) 還是可解釋人工智能 (explainable AI - XAI)?
我們將討論一個定義,并希望澄清一些事情。這就是 Interpretability 模型和 Explainability 模型之間的區別。不過,我們應該警告你……
沒有共性!
部分問題在于 IML 是一個新領域。定義仍在提出和爭論中。機器學習研究人員也很快為已經存在的概念創造新術語。因此,我們將重點關注一個潛在的定義 1。
Interpretability 與機器學習模型將原因和結果練習起來的準確性有關,指在機器學習中可以觀察到系統中因果關系(先驗推導)的程度。
Explainability 與隱藏在深層網絡中的參數證明結果的能力有關,是指機器學習的內部機制可以用人類語言解釋(后驗解釋)的程度。
具體來說,我們將:
- 了解如何將模型分類為 interpretable 或者 explainable。
- 討論 interpretability 的概念及其與此定義的關系
- 了解該定義的問題以及為什么可能沒有必要使用它來對模型進行分類
Interpretable 機器學習
如果某事物能夠被理解,我們就說它是可解釋的。考慮到這一點,如果一個模型能夠被人類自己理解,我們就說它是可解釋的。我們可以查看模型參數或模型摘要,并準確了解預測是如何做出的。這類模型的另一個術語是intrinsically interpretable model(本質上可解釋的模型)2。
Interpretable 模型可以被人類理解,無需任何其他輔助/技術。
決策樹是此類模型的一個很好的例子。圖 1給出了一棵經過訓練的樹,用于預測某人是否會拖欠(是)或不會拖欠(否)汽車貸款。要了解如何做出預測,我們只需遍歷樹的節點即可。
例如,假設一名29 歲、月收入3000 美元的女子提出申請。我們想了解為什么她會通過基于此模型的自動承保系統獲得貸款。此人超過25 歲,所以我們直接進入第一個節點。然后,她的收入≥2000,所以我們再次直接進入 “No” 葉節點。換句話說,該模型預測該學生不會違約,貸款將獲得批準。
假設我們還想要一個模型來預測一個人的最大貸款額度(Y)。我們使用一個人的年齡和收入作為特征。使用線性回歸,我們得到以下等式:
Y = 100 × a g e + 10 × i n c o m e + 200 Y = 100 \times age + 10 \times income + 200 Y=100×age+10×income+200
我們可以很容易地看出為什么上述學生的預計最高貸款額為33,100 美元。也就是說,貸款額增加了:
- 每增加一歲,需支付 100 美元
- 每增加 1 美元收入就增加 10 美元
因此,就像決策樹一樣,我們可以查看該模型的參數并了解它如何進行預測。這是因為這些模型相對簡單。決策樹有幾個節點,線性回歸模型有 3 個參數。隨著模型變得越來越復雜,我們不再能以這種方式理解它們。
Explainable 機器學習
您可以將 ML 模型視為一個函數。模型特征是輸入,預測是輸出。Explainable 模型是一種人類無法理解的復雜函數。這種模型的另一個名稱是黑盒模型。我們需要一種額外的方法/技術才能窺視黑盒并了解模型的工作原理。
Explainable 模型需要額外的技術才能被人類理解
這種模型的一個例子是隨機森林。隨機森林由許多決策樹組成。在做出最終預測時,會考慮所有單個樹的預測。要了解隨機森林的工作原理,我們必須同時了解所有單個樹的工作原理。即使只有少量的樹,人類也做不到這一點。
圖片來源:Satya Mallick & Sunita Nayak
當我們開始研究神經網絡等算法時,事情變得更加復雜。具體來說,用于圖像識別的卷積神經網絡 AlexNet3 有62,378,344 個參數 4。相比之下,我們上面的回歸模型只有3 個參數。人類不可能僅通過查看參數權重來理解 AlexNet 之類的模型的工作原理。
用于理解 explainable 模型的技術
因此,我們需要一些額外的技術來理解這些算法的工作原理。這些包括為特定模型創建的方法。例如,DeepLIFT: https://github.com/kundajelab/deeplift 就是為解釋神經網絡而創建的。它們還包括可應用于任何模型的模型無關方法。這些方法包括 LIME:https://github.com/marcotcr/lime、SHAP: https://github.com/slundberg/shap、PDPs 和 ICE Plots。
請記住,即使有了這些技術,我們也無法像使用i nterpretable 模型那樣確定模型的工作原理。這些技術只能提供模型如何進行預測的近似值。它們都有自己的假設和局限性。
這意味著在使用任何技術得出結論時都應保持一定程度的謹慎。如果可能,應結合使用多種技術。還應使用數據可視化和領域知識來驗證結論。
Interpretability
到目前為止,我們已經討論了模型是 interpretable 還是 explainable。然而,應用這個二元標志可能并不總是有意義的。模型的 Interpretability 是一個范圍。如果一個模型比另一個模型更容易讓人理解它的預測方式,那么這個模型就比另一個模型更容易解釋。
Interpretability 是指模型能被人類理解的程度2
圖 2給出了可解釋性頻譜。卷積神經網絡的可解釋性不如隨機森林,而隨機森林的可解釋性又不如決策樹。大多數模型通常可以歸類為可解釋或可解釋的。然而,存在一個灰色區域,人們對此的分類意見不一。
定義問題
這個灰色區域是我們發現這個定義的第一個問題。我們可能同意,一個有 2 棵樹的隨機森林是可解釋的。然而,一個有 100 棵樹的隨機森林是不可解釋的。在什么時候(即有多少棵樹),模型從 interpretable 變為 explainable ?即使是具有許多節點的決策樹或具有許多參數的回歸,如果沒有額外的技術,也可能變得過于復雜,人類無法理解。
問題是我們試圖根據人類的理解能力對模型進行分類。沒有正式的方法來衡量這一點。你理解模型的能力取決于你的技術技能和專業經驗。即使在專業人士中,也會有分歧。
另一個問題是我們定義什么為附加技術。為了理解哪怕是最簡單的模型,我們也會尋求其他方法的幫助。例如,在解釋線性回歸的權重時,通常使用相關矩陣。這是否意味著回歸現在是一個 explainable 模型?
這就引出了一個問題:我們真的需要這個定義嗎?IML 的目標是理解和解釋我們的模型。我們不需要將它們歸類為 interpretable 或 explainable。我們選擇的方法最終將取決于模型的類型和我們尋求回答的具體問題。
參考
C. Rudin, Stop explaining black-box machine learning models for high stakes decisions and use interpretable models instead (2019), https://arxiv.org/abs/1811.10154 ??
C. Molnar, Interpretable Machine Learning: A Guide for Making Black Box Models Explainable (2023), Chapter 3: Interpretability, https://christophm.github.io/interpretable-ml-book/taxonomy-of-interpretability-methods.html ?? ??
AlexNet, https://en.wikipedia.org/wiki/AlexNet ??
S. Mallick & S. Nayak, Number of Parameters and Tensor Sizes in a Convolutional Neural Network (CNN) (2018), https://www.learnopencv.com/number-of-parameters-and-tensor-sizes-in-convolutional-neural-network/ ??