縱觀人類的發展史,每一次科技進步都將對性別平等產生深刻影響。尤其是當下,人們對于借助人工智能技術快速發展來彌合性別不平等寄予厚望。
但很多人沒想過,人工智能技術本身是客觀中立、不存在“算法歧視”“性別偏見的嗎?
弗吉尼亞大學計算機科學專業教授在測試圖像識別軟件時曾發現,人臉識別系統會將廚房圖片中的男性識別為女性;在烹飪和體育活動方面,用搜索引擎搜索出來的圖片也存在明顯的偏向性,如烹飪形象與女性相關,而體育形象則多為男性……
這些社會活動中的性別“刻板印象”,折現出算法本身的“性別偏見”。作為人工智能的核心要素,算法通過解決問題的邏輯規則,將數據轉化為決策或預測。而在從數據運行到結果呈現,算法過程的每個環節都可能存在社會偏見,“性別偏見”往往被忽視卻又真實存在。
如何消除算法中的“性別偏見”?如何平衡性別平等與個性化推薦?是人工智能發展過程中需要解決的倫理問題。
女性的“隱形”與“缺失”
數據是算法運行的基礎,更是人工智能學習成長的“養料”。但實際上,當前的數據更偏向男性,在數據采集環節就可能埋下性別偏差的“種子”。
例如,美國加利福尼亞大學、華盛頓大學的研究人員在《柳葉刀·公共衛生》雜志上刊發的研究結果顯示,女性遭受的非致命性疾病未得到足夠重視。其中一項原因是,由于歷史和社會原因,臨床試驗中納入女性數據較少。
這意味著,當此類數據被“投喂”給AI,并用于醫療領域時,針對女性的疾病診斷、治療和預防策略可能并不完全準確和有效,AI提供的決策參考也會存在偏差。
維基百科也曾被指出在內容的質與量上存在性別偏差,其中女性條目數量占比不到五分之一。聯合國教科文組織發起#Wiki4Women倡議,通過創建、編輯和翻譯維基百科上的女性簡介和列表,改善百科中性別失衡的情況。這一舉措恰恰證明,數據世界中的女性“隱形”與“缺失”。
算法運行中同樣存在性別偏差的風險,且隱蔽性更強,這往往體現在內容推薦層面。學者鄧松在論文《算法性別歧視的認定與法律規制——以消費領域為例》中表示,算法設計者直接或間接、顯性或隱性的性別主觀思想,會直接反映到算法之中。具體表現為,算法通過一套內生的“歧視性”運算流程,對所收集的消費者數據進行分析, 并做出針對不同性別的不同商品推薦、價格標簽等行為。
中華女子學院社會學系副教授周旅軍則舉例表示,在算法運行過程中,AI可能會向女性用戶更多推薦美容、育兒類內容,而向男性用戶更多推薦科技、體育等內容,看似基于用戶興趣,實則可能加深性別分化。