科技議題

首頁> 科技議題 - 智慧科技> 推動國家安全領域人工智慧治理與風險管理的框架
推動國家安全領域人工智慧治理與風險管理的框架 Framework to Advance AI Governance and Risk Managemnet in National Security
2024/10
The White House
https://ai.gov/wp-content/uploads/2024/10/NSM-Framework-to-Advance-AI-Governance-and-Risk-Management-in-National-Security.pdf
一、概述
人工智慧是當今最強大的技術之一,為推進美國國家安全提供了重大的創新機會。然而,這項創新必須以負責任且合法的方式進行,並遵循民主價值觀,包括人權、公民權利、公民自由、隱私與安全等核心原則。AI系統的性能應使美國政府人員能夠對使用AI系統建立信任和信心,且這些系統的使用不應削弱公眾對美國國家安全機構的信心。

此外,美國政府使用AI系統以及在AI系統資訊指導下使用武力時,必須遵守所有適用的法律和政策,包括國際人道主義法、人權法規定的義務,以及美國政府現有的負責任使用AI框架。這突顯了政府在國家安全領域應用AI技術時,始終將法律合規與道德考量置於首位的決心。

二、框架一:AI使用限制
(一) 禁止的AI使用案例
覆蓋機構必須避免以任何違反國內或國際法義務的方式使用AI,且不得以造成不可接受風險的方式使用AI。根據這些目標,機構被禁止使用AI的意圖或目的包括:僅基於個人行使受憲法和適用美國國內法保護的權利(如言論、結社和集會自由權)來進行個人檔案建置、目標鎖定或追蹤活動。同時不得利用AI非法壓制言論自由或法律諮詢權利,也不得基於族裔、國籍、種族、性別、性別認同、性取向、殘疾狀態或宗教非法歧視個人。除非基於合法和正當理由,如為了支持同意的美國政府人員的健康,否則不得從獲取的數據中檢測、測量或推斷個人的情緒狀態。

(二) 高影響力的AI使用案例
在軍事、情報或更廣泛國防背景下,AI應用雖有利於美國國家安全目標,但同時可能帶來重大新風險。AI使用的風險可能來自AI系統的失效,也可能來自無效輸出或在非預期環境中使用AI。此類高影響力AI活動需要充分的保障措施以降低風險。在本框架中,高影響力的AI使用指的是那些輸出成為決策或行動的主要依據,且可能對國家安全、國際規範、民主價值觀、人權、公民權利、公民自由、隱私或安全造成重大風險或不良影響的情境。機構必須審查現有或計劃中的每項AI使用,以判斷是否符合前述定義。

(三) 影響聯邦人員的AI使用案例
在本框架中,影響聯邦人員的AI使用案例包括那些輸出對個別軍事人員、聯邦文職人員或已獲得就業機會的個人產生法律上、實質上、約束性或其他類似重大影響的決策或行動的重要依據。機構必須審查每個現有或計劃的AI使用,以確定是否符合這個定義。如果AI用於控制或顯著影響以下活動的結果,則自動視為影響聯邦人員的情境:做出招聘決定(包括薪酬或福利方案的確定);決定是否晉升、降級或終止僱用員工;或者評估美國政府人員的工作表現、身體健康或心理健康診斷或結果。

(四) 額外的AI使用限制
各部門負責人應根據需要,結合其部門的任務、權限和職責,向這些清單添加禁止、高影響力或影響聯邦人員的AI類別。部門負責人應維護未經分類的公開清單,列出他們添加的禁止和高影響力AI類別,以及為加強監督和保護而創建的其他類別。前述清單可包含經分類的附件,以保護相關內容,且這些清單須提交給總統國家安全事務助理(APNSA),以加強監督與保護。

三、框架二:針對高影響力和影響聯邦人員的AI使用的最低風險管理實踐
(一) 風險和影響評估以及確保有效的人為監督
在本框架發布後180天內,覆蓋機構必須在使用新的或現有的高影響力AI之前遵循一系列最低風險管理實踐。首要任務是完成AI風險和影響評估,包括確定AI的預期用途、預期效益和潛在風險。評估應包含對AI預期用途和預期效益的分析,並以指標或定性分析作為支持。分析應證明預期會產生正面效益,並證明相較於其他策略,AI更適合完成相關任務。同時機構需要評估使用AI的潛在風險,以及將採取哪些額外的緩解措施來幫助降低這些風險。此外,機構還應記錄和評估AI可能的失效模式,並衡量AI功能的預期效益與其潛在風險。如果效益無法顯著超過未經緩解的風險,機構就不應使用該AI。

(二) 針對影響聯邦人員的AI的額外程式保障措施部分
在本框架發布後180天內,覆蓋機構除了應確保對高影響力AI要求的實踐外,還需執行針對影響聯邦人員AI使用的額外保障措施。這些措施包括在設計、開發和持續使用此類AI時,適當徵詢和納入勞動力及其代表的意見;在合適情況下,通知個人並獲得其對AI使用的同意;若AI用於作出對個人不利的就業相關決策或行動(如醫療診斷、就業資格評估或機密資訊的取得),機構應通知相關個人。此外,在受影響個人希望對AI決定提出上訴或爭議時,應提供切實可行的程序,讓受影響者獲得即時的人為審查及潛在的補救機會,並確保符合適用法律。

(三) 豁免部分
首席AI官員可在與各機構的負責公民自由和隱私之官員或其他相關官員協商後,基於系統特定和環境特定的風險評估,對特定AI應用或組件的最低風險管理實踐進行豁免。豁免期不得超過一年,但可在必要時續期。授予豁免的理由必須基於以下情況:若遵循最低風險管理要求將增加隱私、公民自由或安全風險,或對關鍵機構運營構成無法接受的阻礙,甚至對國家安全造成極為嚴重的損害。

(四) 首席AI官員部分
首席AI官員擁有多項重要權力,包括可以撤銷之前發出的豁免,且必須集中追蹤這些豁免權,不得委託授予豁免的權力。在授予或撤銷任何豁免時,必須立即向機構領導報告,並在三天內向部門負責人和總統國家安全事務助理報告,詳細說明範圍、理由和支持證據。如果AI使用的條件或環境發生重大變化,必須重新評估每項豁免。此外,必須每年審查所有授予的豁免,並確定是否重新授權每項豁免。

四、框架三:AI使用的編目和監控
(一) 清單部分
覆蓋機構必須對其高影響力AI使用案例進行年度清單盤點,包括那些在豁免下運行的案例,並向總統國家安全事務助理(APNSA)報告。清單必須至少包含每個包含的AI使用案例的描述、其目的和預期效益,以及此類使用所帶來的風險以及機構如何管理這些風險。部門負責人將定期發布和更新有關清單範圍、時間、機制和內容的詳細指示。

(二) 資料管理部分
在本框架發布後270天內,部門負責人應建立或更新現有的資料管理政策和程序,包括審查數據保留政策和程式,優先考慮企業應用並考慮到AI系統的獨特屬性,特別關注本框架中確定的高影響力AI系統使用。部門負責人應持續評估資料管理政策和程序,以確保它們能夠實現負責任的AI使用。這些更新應至少涉及以下主題:評估AI訓練數據的穩健性、代表性,以及在預期AI使用案例背景下可合理預見的有害偏見;針對訓練數據、提示詞建議最佳實踐和標準化,並審查部署後的數據質量和可靠性;處理可能具有超出收集直接基礎的實用性的AI模型,或是在訓練後發現數據不準確、不當獲取或過於敏感的情況。

(三) 監督和透明度部分
  在本框架發布後60天內,若尚未設置,覆蓋機構應任命一名首席AI官員負責AI相關事務。首席AI官員應具備必要的技能、知識、培訓、專業知識和權力來執行與AI相關的多項職責,包括向機構長官和其他高級長官提供AI政策建議,並在機構的高級決策論壇中發揮作用;建立必要的治理和監督流程,以確保符合AI國家安全和本框架的要求,並在與相關機構官員協調的情況下實現機構內負責任的AI使用。

同時,機構應設立AI治理委員會,由相關高級官員組成,負責管理機構的AI使用,包括評估和適當消除或緩解AI開發和使用的障礙,並管理相關風險。透明度對於贏得和保持公眾信任至關重要。為此,負責隱私和公民自由的官員或其他相關監督官員應定期(至少每年一次)就其與AI監督相關的活動提交報告,報告應盡可能以非機密形式提供,必要時可附加機密附件,並在符合機密或受控資訊保護的前提下向公眾公開。

五、框架四:培訓和問責
覆蓋機構應建立標準化的培訓要求和指導方針,以確保工作人員能夠負責任地開發與使用AI。這包括為隱私和公民自由官員提供AI培訓,為負責決定部署或開發AI系統的官員提供風險管理培訓,以及為AI開發人員、操作人員、使用者、主管和AI輸出的消費者提供相關培訓。

機構必須根據需要更新其政策和程式,以確保對參與AI開發、部署和使用的人員進行充分問責。在未制定適當政策或程序(如未獲得核准)的情況下,不應部署或使用任何AI系統。更新後的政策必須:明確界定AI生命週期中負責評估風險的角色與職責,包括但不限於資訊技術、法律、政策、安全、隱私、公民自由和安全相關風險;建立適當的機制,使相關人員(包括AI開發人員、操作人員和使用者)對其在AI系統決策和行動中的貢獻和使用負責;要求適當的文檔記錄和報告,包括本框架中指定的內容;提供報告AI濫用事件、調查報告事件和採取糾正行動的程序。

機構應適當更新舉報人保護措施,以明確AI系統的程式。這些程式應確保所有使用AI作為國家安全系統組成部分或出於軍事和情報目的的人員,都可以向相關監督官員報告關於AI不當傷害公民自由、隱私和安全的擔憂。這樣的全面問責制度旨在確保AI系統的安全和負責任使用,同時保護那些識別和報告潛在問題的個人。透過前述措施,機構可以在推進AI創新的同時維護必要的安全保障和道德標準。
高飛
英文