預防臨床預測模型中可能的“算法歧視”
概要:如果訓練數據中存在性別方面的不均衡,會讓訓練出的模型存在性別方面的“算法歧視”,進而導致某種性別下存在更多的誤診誤治,最終造成醫療資源分配的不公平的倫理問題,導致模型不被臨床所接受。
預測模型的倫理問題逐漸被大家重視和討論。最開始是數據安全問題。經過一段時間的討論,大家已經有所共識——保護個人隱私,重視數據安全;現在最常被討論的倫理問題,叫做“算法歧視/偏見”,其描述的是算法可能會對某些問題形成偏見,因為所用的訓練數據帶有這種偏見。一個比較典型的例子是,Joy Buolamwini測試了許多面部識別商用軟件發現,白人男性性別被正確識別的概率高達99%。隨著膚色變暗,錯誤率也呈指數增長,近35%黑人女性無法被正確識別,其原因可能是黑人女性中訓練數據較少的緣故。
而在臨床預測模型中,“算法偏見”同樣也是存在的,而且是需要盡量避免的,因為(以性別為例):
1.訓練數據比例失衡導致算法偏見: 訓練數據反映了現實世界的數據分布,如果女性比例過低,那么算法就會學習到男性患者的數據特征,而無法準確識別女性患者的特征。這可能導致女性患者的疾病被誤診或漏診。
2. 算法偏見導致醫療資源分配不均: 預測模型的結果可能會影響臨床資源的分配。例如,如果模型預測女性患者患病的風險較低,那么她們可能更難獲得必要的診斷和治療。這可能會加劇現有的醫療資源不平衡,并導致女性患者的健康狀況惡化。
3. 分配不均有違公平: 所有患者,無論性別如何,都應該享有平等獲得準確診斷和治療的機會,這是醫學倫理的重要原則之一。訓練數據中的性別偏差會侵犯女性患者的公平權利。
為了解決這個問題,可以采取以下措施:
1. 收集更多女性患者的數據: 這是解決數據偏差有效的方法之一。可以通過多種途徑來收集更多女性患者的數據,比如,擴大研究范圍、與其他醫療機構開展多中心合作。
2. 開發對性別不敏感的算法: 在訓練數據中,舍棄有性別差異的預測變量,轉而采用沒有性別差異的預測變量。但這可能并不容易,因為臨床上許多的指標都是具有性別差異的,但也是個考察的方向。
總而言之,醫學領域對于倫理有著更嚴格的要求。 訓練數據中的性別等不均衡會造成模型的算法偏差,進而導致預測結果在性別之間的預測準確度不一致,最終對患者的健康和公平造成負面影響,需要引起足夠的重視,避免模型推倒重來。