作者:來自 Elastic?Darren Meiss
人工智能(AI)和生成式人工智能(GenAI)正在迅速改變公共部門,從理論探討走向實際應用。正確的數據準備、管理和治理將在 GenAI 的成功實施中發揮關鍵作用。
我們最近舉辦了一場名為 “人工智能時代的公共部門數據治理” 的網絡研討會,邀請了行業專家 IDC 研究總監 Max Klaps 和 Elastic 杰出架構師 Dave Erickson。他們探討了 GenAI 在政府、教育和國防領域的現狀,并深入分析了 GenAI 帶來的數據挑戰和機遇。
公共部門機構對 AI 的態度發生了重大轉變。最初,它們主要在不同的 AI 工具和試點項目上進行探索,如今的重點則是確定能夠帶來實際價值并與組織使命及關鍵績效指標(KPI)相契合的具體用例。
人工智能 ( AI ) 在政府中的發展
政府機構和其他公共部門組織對 AI 的應用方式發生了重大變化。最初,這些組織嘗試使用各種 AI 工具和試點項目。然而,現在的重點已經轉向識別能夠提供實際價值并符合組織使命和關鍵績效指標 ( key performance indicators - KPIs ) 的具體用例。
根據 IDC 的研究,大約一半的公共部門組織正在運行試點項目,20% 的組織已經在生產環境中實施 AI 。現在的關鍵問題是 AI 可以在哪些領域產生最大影響。各組織正在優先考慮那些能夠提升運營效率、增強韌性、減少錯誤、確保合規性并提高流程可觀察性的用例。最終目標是利用 AI ,尤其是生成式 AI ( GenAI ) ,為公共部門的工作人員、公民和學生帶來更好的成果。
優先考慮高影響力的用例
當前的重點集中在幾個關鍵用例上,被歸類為 “第一階段” ( horizon one ) ,其目標是取得早期成果、測試現有能力,并探索更具影響力和外部導向的未來用例。
第一階段的用例通常涉及內部流程,例如關鍵自然基礎設施保護、金融市場監管、動態數字立法、公共溝通和通知,以及為高等教育提供 AI 研究和寫作輔助。這些用例通常圍繞內容獲取、摘要和準備展開。
展望未來,公共部門領導者正在探索并擴大對任務成果有直接影響的用例。這些包括提升服務交付、減少稅務合規負擔、確保支付完整性并降低欺詐風險、將自然語言能力集成到 311 系統中,以及在高等教育中實現超個性化的學生招生和干預。
克服挑戰并確保數據準備就緒
實施 GenAI 并非沒有挑戰,常見的障礙包括:
-
治理 ( Governance )
-
風險 ( Risk )
-
安全性 ( Security )
-
成本控制 ( Cost control )
-
可擴展性 ( Scalability )
但一個反復出現的主題是數據準備的重要性。盡管高質量數據至關重要,但數量并不是主要問題。公共部門組織可以利用預訓練模型,并專注于為 AI 提供與特定用例相關的、精心整理的數據。這種方法被稱為 檢索增強生成 ( RAG, Retrieval Augmented Generation ),可以確保 AI 的回答基于權威信息,并降低錯誤或偏見輸出的風險。輸入生成模型的數據質量至關重要。

RAG:成功的關鍵模式
RAG 是為 生成式 AI ( GenAI ) 提供適當上下文的重要工作流。它不是僅依賴模型的 預先知識 ( pre-existing knowledge ),而是從組織的 專有數據 ( proprietary data )(如 文檔 ( documents )、圖像 ( images )、音頻 ( audio ))中檢索相關數據,并利用這些數據來優化 AI ( 人工智能 ) 的回答。這種方法可以提高 AI 生成答案的準確性 ( accuracy )、可信度 ( trustworthiness ) 和 可解釋性 ( explainability )。
Elastic 在實現 RAG 方面發揮著重要作用。我們的 向量數據庫 ( vector database ) 使組織能夠存儲、檢索和分析海量數據,從而更輕松地將 AI 關聯到權威信息。
負責任的 AI 和風險緩解
負責任的 AI ( Responsible AI ) 需要確保 AI 系統 ( AI systems ) 具備 道德性 ( ethical )、可解釋性 ( explainable ) 和 透明性 ( transparent )。組織可以采取以下措施來促進 負責任的 AI:
-
評估和分類不同用例的 風險等級 ( risk levels )
-
優先考慮 風險緩解策略 ( risk mitigation strategies ),例如實施 數據安全協議 ( data security protocols ) 和 檢測偏見 ( detecting bias )
-
建立 明確的責任和報告機制 ( clear accountability and reporting mechanisms )
-
與公眾溝通,解釋 AI 的風險 ( risks ) 和 機遇 ( opportunities )
在討論 AI 風險 ( AI risks ) 時,使用 統一的語言和框架 ( common language and framework ) 至關重要。例如,在 美國 ( United States ),可以參考 國家標準與技術研究院 ( NIST ) 的風險管理框架 ( Risk Management Framework, RMF )。
另一個關鍵點是,將 負責任 AI 的補償控制 ( compensating controls ) 與 AI 本身 ( AI itself ) 分開 —— 換句話說,就是 保持對 AI 監管措施 ( guardrails ) 的控制。此外,持續評估 ( continuous evaluation ) AI 生成的答案 對于確保公眾信任至關重要。
為 GenAI 培養人才
人 ( People ) 是 成功實施 GenAI ( 生成式 AI ) 的關鍵。組織需要投入 培訓 ( training ) 和 發展 ( development ),以確保員工適應這一變革。關鍵關注點包括:
-
為所有員工建立 AI 認知 ( AI awareness ) 和 風險培訓 ( risk training )
-
為 技術人員 ( technical staff ) 提供 AI 工具 ( tools ) 和 實踐機會 ( opportunities )
-
利用 合作伙伴生態系統 ( partner ecosystem ) 的專業知識,例如 學術研究機構 ( academic research institutions ) 和 標準機構 ( standards bodies )
-
創建空間,讓員工體驗 AI 的局限性 ( AI's limitations ),并學習如何將其 有效作為工具 ( use it effectively as a tool )。強調 摒棄 AI 是全知全能 ( all-knowing entity ) 的思維方式,并鼓勵更加 務實 ( practical ) 的方法,以理解 AI 的能力 ( capabilities ) 和 局限性 ( limitations )。
了解更多
收聽 《人工智能時代的公共部門數據管理》 以獲取更多關于 利用 GenAI 的巨大力量與潛力?的見解。
原文:Public sector data stewardship for the AI era | Elastic Blog