科技議題

首頁> 科技議題 - 智慧科技> 生成式人工智慧促進政府反貪腐和廉潔
生成式人工智慧促進政府反貪腐和廉潔 Generative AI for Anti-Corruption and Integrity in Government
2024/03
Organization for Economic Co-operation and Development (OECD)
https://www.oecd.org/content/dam/oecd/en/publications/reports/2024/03/generative-ai-for-anti-corruption-and-integrity-in-government_9859b6a8/657a185a-en.pdf
一、執行摘要
生成式人工智慧作為技術領域的一部分已存在一段時間,但近期在大型語言模型(LLMs)的發展使其影響力大幅提升。各國政府必須跟上這波創新浪潮,不僅是作為監管者,也要成為使用者。本報告探討了後者的挑戰,特別聚焦於反貪腐組織,包括反貪腐機構(ACAs)和監督機構,如最高審計機構(SAIs)和內部稽核單位。

根據59個來自39個國家的組織回應顯示,生成式AI提供了多項機會和效益,主要集中在大型語言模型的探索和使用。例如,巴西的反貪腐組織正在部署LLMs來分析大量數據以分辨詐欺。芬蘭、法國、希臘和英國的反貪腐組織則使用LLMs來協助起草檔案、分析試算表和總結文本,使審計人員和調查人員的日常工作更有效率。

然而,這些機構也強調了各種挑戰,從LLMs整合的技術問題到確保AI系統可信賴性的策略性議題。機構認知到LLMs是一項不斷演進的技術,可能產生"幻覺",即生成看似可信但實際上不準確或具誤導性的資訊。這種固有的複雜性可能損害決策的透明度和問責制,而這正是反貪腐組織所致力維護的原則。若無法減緩這些風險、抑制偏見並促進AI的負責任和道德使用,可能會產生有害的現實影響。

二、生成式AI:強化政府反貪腐與誠信治理的機會
反貪腐組織運用生成式AI,尤其是大型語言模型(LLMs),來加強其內部運作和反貪腐活動的各種機會。在當前科技快速發展的背景下,這項技術為政府部門提供了創新的解決方案。基於59個反貪腐組織的調查結果,發現最高審計機構在生成式AI的應用上相對領先,但大多數受訪機構仍處於起步階段,正在探索或開發相關工具。

(1) OECD關於誠信與反貪腐之生成式AI問卷調查
2024年1月,OECD透過三個重要社群網絡展開了全面的問卷調查:高級公共反貪官員工作小組、反貪科技與分析實踐社群,以及審計聯盟。這些社群的成員協助識別具有相關職權和專業知識的政府反貪腐組織。調查對象涵蓋了多個類型的組織,包括反貪腐機構(ACAs)、最高審計機構(SAIs)、內部審計或控制功能單位,以及負責政府整體廉政和反貪腐活動的部門。共有來自39個國家的59個組織參與回應,其中52個組織(佔88%)屬於核心反貪腐組織。這些受訪者大多負責其組織內的IT、數據科學、AI或數位計畫。

(2) 生成式AI專案成熟度概況
調查結果顯示出不同層次的專案成熟度:約50%(30個)的受訪機構表示尚未在實際運營中使用生成式AI,但正積極探索潛在應用場景;24%(14個)的機構已進入開發階段,在部分項目中進行實驗,但尚未完全整合到組織運營中。最高審計機構在這方面表現最為突出,47%(8個)已達到至少開發階段,遠高於其他類型組織。此外,25%的內部審計機構也達到了開發或更高階段。值得注意的是,在歐洲經濟區的組織中,34%已達到開發或中級階段,顯示出區域發展的不均衡性。

(3) 大型語言模型對反貪腐組織的機會與效益
大型語言模型為反貪腐組織帶來多方面的效益。在內部運營方面,76%的受訪機構將運營效率和非結構化數據分析列為最具價值的應用領域。特別是在調查和審計流程中,37%的機構認為LLMs在證據收集和檔審查方面具有最高價值,25%的機構看重其在選擇審計和調查項目方面的應用潛力。在反貪腐和反詐欺活動方面,文檔分析和文字模式識別被視為最有價值的應用場景,特別是在處理大量文檔和識別可疑模式時表現出色。然而,目前政府部門的實際應用案例仍然有限,許多組織仍在孵化想法階段,投資回報率也需要進一步評估。一些機構還特別提到LLMs在資產申報審查等特定領域的應用前景,這不僅可以提高效率,還能增強政府透明度。

(4) 附錄 1.A. 評估機構數位成熟度的關鍵面向
基於學術文獻回顧、專家討論及OECD協助政府的實際經驗,歸納出評估機構數位成熟度的四個關鍵面向:

策略與組織面向
強調數位轉型策略需要與領導層願景結合,並與組織現有優先事項保持一致。重點包括明確的角色分工、設立專責單位執行數位計畫,以及建立完善的數據管理和治理機制,確保數據的隱私、品質與安全。

人員與文化面向
著重於組織成員的數位能力建設,包括數位素養、數據分析能力及專業領域知識。建立支持數位創新的組織文化,透過培訓提升員工技能,並鼓勵實驗創新的精神。數據倫理的理解和實踐也是這個面向的重要元素。

技術與流程面向
強調技術應服務於組織目標,而非僅是工具的堆疊。需要審慎評估技術投資的成本效益,確保技術的採用能夠真正解決組織需求,並考慮對社會、人權和隱私的影響。

環境與夥伴關係面向
關注外部法規框架對數位轉型的影響,以及與各方利害關係人建立合作關係的重要性。包括與產業、學術界和民間社會組織的協作,確保數位發展符合法規要求,同時能夠有效推動創新。

三、生成式AI:政府反貪腐組織面臨的挑戰、風險與其他考量
本章節探討了生成式AI和大型語言模型(LLMs)為反貪腐組織帶來的機會與效益背後的獨特挑戰、風險和技術考量。59個受訪的反貪腐組織提出了與各自環境相關的問題,這些挑戰和關注點在LLMs的開發、部署和擴展方面具有普遍性,跨越不同類型的組織和地區。

(1) 反貪腐組織採用生成式AI和大型語言模型的主要挑戰概況
研究發現,技能短缺和IT限制是機構面臨的最大挑戰。許多機構表示,由於資源限制,要麼缺乏足夠的財務、人力和技術資源來完全採用LLMs,要麼其員工缺乏足夠的數位素養。預算限制的問題在內部審計機構中尤為突出。此外,數據隱私和安全問題也是機構的主要關注點,特別是在歐盟國家,需要確保符合法案的要求。

(2) 在負責誠信與反貪腐的機構中建立生成式AI和大型語言模型的能力
調查顯示,反貪腐組織主要依賴科技公司開發的現成基礎LLMs。他們可以選擇使用開源模型、私營企業開發的模型,或自行開發項目。大多數受訪機構要麼直接使用現成模型,要麼對基礎模型進行微調。然而語言障礙是一個主要挑戰,因為目前大多數LLMs都是用英語訓練的,這限制了許多想要用本地語言部署模型的反貪腐組織。

(3) 確保反貪腐組織負責任地發展與使用生成式AI和大型語言模型
反貪腐組織認識到需要在某些領域建立安全措施,但隨著計畫成熟,還需要做更多工作來確保AI系統的可信賴性。他們需要加強對偏見和歧視風險的關注,並解決LLMs內部使用和應用中的倫理問題。特別重要的是要加強對LLMs的監控和評估,包括考慮模型輸出的可解釋性和可說明性。這些挑戰的解決對於反貪腐組織採用LLMs至關重要。

(4) 減緩生成式AI作為破壞誠信的工具之風險
生成式AI雖然可以增強反貪腐組織的工作,但也需要更加警惕不斷演變的誠信風險。例如,LLMs為反貪腐組織提供了新的運營和評估風險的方法,但同時也可能加速和放大某些類型的詐欺和貪腐。特別需要注意的是對抗性攻擊的風險,如使用生成式AI創建進階釣魚通訊或進行身份盜用,以及深度偽造的資訊傳播等問題。這要求反貪腐組織在採用這些技術的同時,必須建立相應的風險防範機制。

這些挑戰需要反貪腐組織採取全面的應對策略,包括加強人才培養、完善技術基礎設施、建立健全的監管框架,並與各利害關係人保持密切合作,以確保生成式AI的負責任使用和發展。
高飛
英文