科技議題

首頁> 科技議題 - 政策動向> 促進人工智慧問責制
促進人工智慧問責制 Advancing Accountability in AI
2023/02
Organization for Economic Co-operation and Development (OECD)
https://www.oecd-ilibrary.org/science-and-technology/advancing-accountability-in-ai_2448f04b-en
隨著人工智慧(Artificial Intelligence;AI)技術的廣泛應用,人類面臨了更多的風險;為了確保人工智慧的可信賴性、尊重人權、民主價值、創新性與多元性,全世界的相關人員必須對人工智慧系統的運作狀況負起一定的責任。該報告以信任的建立為原則,參考了經濟合作暨發展組織架構(OECD人工智慧原則、AI系統生命週期等),以及ISO 31000風險管理原理(Risk management–Guidelines)、OECD責任商業行為盡職調查指南(OECD Due Diligence Guidance For Responsible Business Conduct)、美國國家標準暨技術研究院 (National Institute of Standards and Technology;NIST)的人工智慧風險管理架構 (Artificial Intelligence Risk Management Framework, AI RMF)涵蓋的資訊,針對AI的責任、風險管理,以及相關政策與文化的推動進行研究及探討。

OECD將人工智慧系統定義為:一種能夠透過特定目標來產生建議、預測或其他可影響環境的機器系統,除了能以自主運行為目的,還能依據資料庫來處理各種訊息,並在過程中生成模型、產出具體成果(普遍被稱為生成式AI;Generative AI)。隨著生成式AI快速發展帶來了許多社會問題,該篇報告依據OECD提出的價值觀進行了技術發展的風險面研究,首先,內文中針對"值得信賴的AI"一詞給予以下定義:
一、所開發的技術能造福人類和地球,並以促進包容性增長、永續發展和重視人類福祉為內容。概念包括:
(一) 準確性:AI系統必須能將資訊正確地分類,並依使用者需求給予正向的建議,避免使用者獲得錯誤的訊息。
(二) 可持續性:由於長期地進行AI的訓練,造成各個資料庫中心的負載過量,因此讓能源耗損降低的作法應該加速研議,避免在科技發展的過程中產生對環境不友善的負面效果。
(三) 社會及經濟上的包容性:AI對社會及經濟的影響性應該被審慎評估,尤其是對兒童、弱勢群體,以及對工作品質和自動化技術發展的幫助。
二、AI的技術發展應該基於「以人為本」的價值觀,包括人權、自由、平等、法治、社會正義、資料保護和隱私,以及消費者權利和商業公平,並要能透過安全機制給予適當的人為干預。針對這一點,可歸類出AI的三項風險,分別為:偏見和歧視的風險、隱私和資料治理(Data Governance)的風險,以及對其他人權和民主價值的風險。
三、AI系統的功能應該具備透明度與可追溯性。AI產業的所有參與者都應該積極地提供詳細且有意義的資訊,這些訊息除了要能夠讓使用者以此作為預測、建議或決策的基礎,還要具備適法性及地區性。
四、AI系統的功能應該具備實用性與安全性。在確保AI的運作擁有可追溯性及正確性的前提下,AI的所有參與者便能應用系統的風險管理方法來提高安全、降低風險。與AI實用性與安全性相關的技術概念包含:抵禦攻擊的能力、安全及備援的計畫、擁有可靠性/可重複性/可複制性/再現性/可預測性的功能設計。
五、AI的技術發展應該基於「問責制」,也是這篇研究的探討重點。AI產業的所有參與者都應該遵守原則並對AI的正常運行負責,所謂的"原則"包含:高度的隱私性、效率、可解釋性、安全性、透明度、準確性、公平性、可持續性等。

經合組織人工智慧原則(OECD AI Principles)也是其他組織發展AI的核心與標準;OECD於2019年5月通過的AI十大原則中,包括了相關人員與組織的問責制(International co-operation for trustworthy AI),內容概列為:
一、各國政府應積極推進這些原則,並在所屬地區進行相關管理。
二、各國政府應在OECD涉及之處共同促進AI資訊共享,並協助相關人員及組織獲得AI專業知識。
三、各國政府應推動所有利害關係人(Stakeholder)參與各項提升AI可信賴性與可操作的標準制定工作。
四、各國政府應鼓勵研究開發與AI相關的衡量工具,並且共同促成全球性的合作。

從對社會經濟、物理環境與人類的影響等層面來評估AI的應用是必要的,該報告研究整理出以下四個步驟來協助AI的風險控管:
一、將所有相關的事務及利害關係人進行定義。
二、評估個體、總體和社會層面上會面臨到的風險。
三、發展處理風險的對應方法,並以停止、預防或減輕負面影響為目標。
四、針對風險管理的過程進行監控、審查與紀錄。

由於AI的運作是藉由學習來不斷地演進,所以這是一個持續的過程,包含驗證演算完的資料是否產生飄移(Data Drift)、監控AI可能造成或已經造成的損害事件。風險管理期間,紀錄所有利害關係人執行的步驟、決策、動作,甚至是加以以備註都能加強問責制的實現。人工智慧的發展朝向符合監管、治理和道德標準,是重要的推動方向,因為人工智慧風險管理的核心目標是確保人工智慧是值得信賴、安全,且能具備人權和民主價值的。人工智慧生態系統中的利害關係人包括:
一、人工智慧服務、產品,以及資源的供應商;這些AI產業的參與者應提供原始數據和相關資訊說明,以避免惡意的二次使用或濫用。
二、人工智慧系統的創意、設計、開發、應用和運營者;包含了資料收集者、開發者、建模者、運用者和系統整合商、稽核者、認證者和監管機構。
三、人工智慧系統的用戶;泛指使用AI來實現特定任務或目標的個人或組織。 包括:第三方、開發商、供應商、承包商、採購商、系統檢測者、運用AI
的公共部門以及金融機構。這些人除了要在使用AI的同時負起法律和道德上的責任,也需要進行風險監測並給予定期報告,因此,相關的技能再培訓和提升是非常重要的。
四、受人工智慧系統影響的利益相關者;這些直接或間接受AI系統影響的組織或個人也涵蓋了弱勢群體及旁觀者。

「問責制」是健全的人工智慧生態組成的重要關鍵,所以此份報告希望能藉由當中的內容引發正向的討論、協助使用者識別出於惡意目的二次使用或濫用,並且藉此避免各種損害的發生。為了培養AI風險管理的文化、完善AI技術應用的安全規範,OECD的AI專家與其他相關國際組織一同積極投入風險評估架構的制定,用以應對不斷增長的AI產業穩健發展需求。
葉郁欣
英文