GenAI 以前所未有的速度調解并擾亂了“一切照舊”,同時帶來了令人難以置信的力量,但也帶來了不可否認的責任。當然,現代企業非常熟悉技術進步。然而,人工智能的到來(和實施)無疑引起了相當大的沖擊,因為一些公司仍然試圖關注使用、風險和整體道德治理。?
不可否認的是,GenAI 在業務層面推動新產品開發,并能帶來無與倫比的增長機會和效益。要使其真正成功(并且可持續),就必須以負責任且合乎道德的方式進行部署。?
盡管企業責任的想法并不新穎,但隨著 GenAI 開始在業務運營中扮演更重要的角色,它往往會變得更具挑戰性。因此,生成式人工智能治理的需求和重要性日益增長。?
為了幫助組織實施符合道德的 GenAI 治理,同時利用Gen-AI 在監管合規方面的力量,我們整理了一些基本的入門技巧。??
什么是生成式人工智能治理?
首先,讓我們看看生成式人工智能治理需要什么。GenAI 治理是指專門設計用于鼓勵和確保整個組織負責任地使用 GenAI 技術的一組原則、政策和實踐。?
它著眼于定義標準、建立指南和實施控制來指導生成算法的開發和部署。它包括了解生成式人工智能的基礎知識以及可以自主生成創意輸出的人工智能系統所帶來的獨特挑戰。
誰負責 GenAI 道德治理??
GenAI 的道德治理涵蓋各個實體之間的共同責任。主要參與者包括政府機構、企業、研究人員和個人。
監管機構不僅在制定和實施法律框架以防止偏見、不公平和侵犯隱私方面發揮著關鍵作用,而且開發 GenAI 模型的公司以及使用這些模型的組織和企業也共同承擔責任。?
人工智能道德治理的五個支柱
五個首要支柱概括了人工智能的道德治理。這些支柱為道德人工智能開發和部署提供了基礎框架。?
問責制
問責制在人工智能道德治理中發揮著重要作用。人工智能的問責制具體圍繞人工智能開發人員、部署人員和用戶必須對其系統的結果負責的義務。?
這包括承認人工智能系統造成的任何真實或潛在的傷害,并建立糾正和糾正機制。確保問責制的兩種萬無一失的方法包括維護全面的審計跟蹤以及在明確的法律框架內開展工作,該框架概述了人工智能相關行動的細粒度責任和后果。?
透明度?
透明度和問責制是相輔相成的,缺一不可。關于人工智能道德治理,需要就人工智能系統的工作方式和使用的數據進行清晰、透明的溝通。當然,GenAI 以其輕松自如而聞名。?
盡管如此,其使用的影響對于所有利益相關者來說都需要同樣清晰且易于理解,使他們能夠就 GenAI 的使用做出決策,同時了解它可能對用戶和組織產生的影響。為了實現透明度,人類必須輕松理解人工智能系統并將其置于情境中,并且必須鼓勵促進理解和協作的開放標準和平臺。?
隱私?
隱私是 GenAI 道德治理的基石,確保個人數據受到保護并遵守用戶同意和數據保護法。GenAI 系統利用大量個人數據已不是什么秘密,這就是為什么必須采取嚴格的數據隱私和保護措施的原因。組織必須清楚地了解人工智能的使用可能如何影響任何監管數據隱私要求及其合規性。?
最終,如果 GenAI 應用程序無法保證數據隱私,企業將發現獲得客戶信任和保護內部數據極具挑戰性。?
安全?
在不斷發展的數字環境中,技術安全是人們最關心的問題。將 GenAI 添加到其中,對威脅形勢的擔憂呈指數級增長。GenAI 的道德治理包括優先考慮安全性以及始終存在的數據泄露或勒索軟件攻擊的風險。CIO 必須了解這些風險并確定其優先級,以及使用 GenAI 模型可能會如何影響其信息安全標準。?
可解釋性
可解釋性(也稱為“可解釋性”)是這樣一個概念:機器學習模型及其輸出可以以人類可接受的水平“有意義”的方式進行解釋。可解釋性在 GenAI 的道德和公平使用中發揮著重要作用。GenAI 模型及其使用必須在所有部門和用戶之間進行清晰的溝通。如果沒有正確(和合乎道德)的使用,GenAI 工具很少會給組織帶來任何好處。這在銀行或醫療保健等行業中發揮著特別重要的作用,在這些行業中,GenAI 的錯誤使用很容易包含固有的偏見,從而導致可操作的結果。?
生成式人工智能治理中的道德挑戰
他們將生成人工智能稱為技術前沿的“狂野西部”是有原因的。盡管人們普遍認識到與 GenAI 有關的道德風險,但在治理方面仍然存在一些運營挑戰。一些最常見的挑戰和風險包括:
-
知識產權與數據泄露
-
安全漏洞
-
無意中使用受版權保護的數據
在組織中實施生成式人工智能治理
識別并理解 GenAI 應用程序的基礎模型
成功的治理應該在任何形式的 GenAI 實施開始之前就開始。為什么?好吧,你無法公平(或準確)地管理你不真正理解的東西。這就是為什么第一步應該是識別和理解 GenAI 應用程序的基礎模型。基礎模型是構建應用程序的基礎模型。每個基礎模型都是獨特的,并且有其自身的功能和局限性。一些著名的基礎模型包括語言模型(如 OpenAI 的 GPT 系列)和視覺模型,它們專門從事圖像理解和生成,甚至是針對特定領域(例如醫療保健、金融或法律行業)量身定制的基礎模型。
包括關鍵參與者和利益相關者
要成功實施符合道德的 GenAI 治理,擁有合適的團隊成員至關重要。目標不是從頭開始,而是讓已經在治理框架中發揮重要作用的關鍵利益相關者參與治理流程。例如,隱私專業人員將提供有關復雜技術用例和監管要求的寶貴專業知識。?
同樣重要的是您的信息安全團隊,他們將針對如何主動保護您的數據免遭泄露提供獨特的見解,同時確保采取正確的訪問控制和安全措施來解決 GenAI 基礎設施中的任何漏洞。?
評估您的風險狀況
說到漏洞,每個組織都有自己獨特的威脅和風險狀況。因此,在 GenAI 道德治理中,必須徹底了解與用例的特定模型性能相關的風險。這包括識別任何法律、網絡安全、環境、信任相關、第三方相關、隱私甚至業務相關風險,然后繼續建立和實施適當的風險緩解措施。?
建立生成式人工智能治理框架
您的組織中需要有一個關于 GenAI 使用的清晰且規劃好的框架。這應包括合規框架中常見的所有基本原則。包括從政策、指定角色和職責、安全控制和安全意識培訓模型等所有內容,確保所有相關文檔在必要時可供操作員質疑和驗證。
生成式人工智能治理的未來
幸運的是,對于 GenAI 成功的道德治理,企業并非注定要無槳劃槳。2024 年,歐盟準備為生成型人工智能的全面監管奠定基礎。此外, 《通用數據保護條例》(GDPR)和即將出臺的《歐盟人工智能法案》(AIA)這兩項重要法規預計將在影響歐洲市場并成為全球治理的基準方面發揮核心作用。
在全球范圍內,由于生成式人工智能的采用越來越多,出現了不同的監管反應來密切關注。著名的例子包括美國國家標準與技術研究所 (NIST),它引入了人工智能風險管理框架。
盡管有最好的意圖和努力,如果沒有專家對您的安全態勢、數據和整體信息安全環境的洞察,成功的 GenAI 治理幾乎是不可能的。?
最終,您添加到技術堆棧中的每個工具或應用程序都歸結為您是否以合乎道德、負責任和安全的方式使用、獲取、保護和存儲信息和數據。當然,如果沒有專門的合規、隱私和安全團隊,這可能會具有挑戰性。?