科技議題

首頁> 科技議題 - 智慧科技> 美國人工智慧權利法案藍圖
美國人工智慧權利法案藍圖 Blueprint for an AI Bill of Rights
2022/10
The White House
https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf
一、 背景與目的
現今民主面臨最大的挑戰之一為科技、數據和自動化系統的使用,這些工具的使用恐對美國民眾權利造成威脅,如系統的不安全、演算法的不平等與未經同意的數據蒐集等問題。然而,自動化系統同時也帶來了好處,如優化糧食種植技術和識別患者疾病等。這些工具幫助我們推動重要決策,使全球各行各業進行變革,讓我們生活更美好。為維護民主價值與公民權利,白宮科技政策辦公室(Office of Science and Technology Policy, OSTP)在2022年10月發布之《美國人工智慧權利法案藍圖》中,說明了五項原則,指導自動化系統的設計、使用和佈屬,以保護美國民眾免受威脅,供未來的政策制定者做參考。

二、 風險案例與保護原則
1. 安全有效的系統(Safe and Effective Systems)
雖然科技被使用來解決問題,但在某些情況下是會造成重大傷害的,不論是有意還是無意的。可能產生威脅或具風險的案例如:
(1) 開發模型預測住院患者得到敗血症的可能性,但其效果與系統設計者所說的大相逕庭,可能因錯誤預測而導致警報疲勞(alarm fatigue)。
(2) 網路社群平台無法分辨反言論(counter speech)與仇恨言論,進而使反言論被封鎖或隱藏。
(3) 物品追蹤器成為跟蹤者用來追蹤受害者位置的工具,藉由使追蹤器偶爾發出噪音與手機發出警報來保護民眾免於跟蹤,但並非所有手機都能接收到通知,因此仍存在安全問題。
(4) 利用不正確的犯罪預測數據,使警察經常盤查犯罪率並非最高的社區。
(5) 人工智能深偽技術的應用,允許非技術用戶在未經個人同意下創建或更改個人圖像,尤其可能對女性的個人或職業生活造成影響,並影響其身心健康。
(6) 公司以人工智能監視錄影機評估貨車司機駕駛習慣,但卻忽略了司機可能在路上遇到突發狀況,進而使司機被系統誤判而失去獎金。

然而,這些損害可以被防範,部分民間企業藉由道德審查,降低關鍵技術開發或新產品之風險,有些則是透過測試或持續監測降低損害,而政府則有公共諮詢程序可供使用。為了確保自動化系統的安全與有效,有以下三點期許:
(1) 應積極且持續的保護公眾免受傷害:在系統開發早期,徵求利益相關者和專家意見,並進行廣泛測試,且積極持續的識別和降低潛在風險,針對性能指標與危害評估進行持續的監控,對負責開發或使用系統的組織訂定明確的治理結構和程序。
(2) 避免使用不適合或不相關的數據和重複使用數據:使用相關且高質量的數據,並審查與標記敏感數據避免造成危害。
(3) 證明系統的安全性和有效性:確保自動化系統被獨立評估和提供定期更新的報告。

2. 演算法歧視保護(Algorithmic Discrimination Protections)
自動化系統可能產生一系列不公平的結果,並加劇現有的不平等。可能產生威脅或具風險的案例如:
(1) 就讀傳統黑人大學的貸款申請人,比未就讀傳統黑人大學的學生,被收取更高的貸款利息。
(2) 一間主要為男性員工的公司,其招聘工具會因歧視而拒絕女性求職者。如履歷中若含有「女性字眼」會在求職候選人名單上遭受到扣分。
(3) 大學使用「種族」做為模型預測的因子,預測學生是否可能輟學,得出黑人學生相較白人學生的輟學機率高出四倍。而這些風險分數被使用來指導學生選擇或放棄專業,有些人擔心黑人恐因此遠離數學或科學科目。
(4) 社群網路平台會藉由分析工具對網路評論判定正面或負面,但猶太人或同性戀被分析工具認為是負面的,這可能導致社群平台封鎖言論如「我是同性戀」。
(5) 在搜尋引擎上輸入「黑人女孩」、「亞裔女孩」和「拉丁裔女孩」時,主要呈現色情內容。
(6) 廣告投放系統受性別苛版印象所影響,如將超市收銀員的招聘廣告定位給女性,與計程車相關的工作定位給黑人。
(7) 機場安檢所使用的人體掃描儀,其操作方式是根據乘客性別選擇模式,這使得第三性被標記為需要進行額外審查。
(8) 全國殘疾法律學生協會表示擔心因殘疾人士的特定需求,如需要較長的休息時間或使用螢幕閱讀器和聽寫軟體,而被人工智能判定為潛在可疑對象。

以上由人工智慧或其他自動化系統中之具歧視性的演算法,需有預防措施,該功能應內建於自動化系統。部分企業透過測試產品品質,並制定審查程序以幫助識別潛在的歧視演算法,政府則透過制定自動化系統標準指南以防止歧視。以下為針對演算法歧視保護期許:
(1) 積極且持續的保護民眾免受演算法歧視:評估系統時應考量有色人種、老弱婦孺、非二元性別人士、殘疾人士與貧困人口等,並審查數據是否具有代表性或帶有偏見,避免使用人口特徵相關數據導致的算法歧視。可以藉由人口特徵數據進行一系列廣泛的測試,盡可能的降低或消除系統差異,並持續監控自動化系統。
(2) 證明系統可以防止算法歧視:針對潛在的演算法歧視進行獨立評估,同時需注意個人隱私與公開評估兩者間的平衡。報告需明確說明系統由誰進行評估以及必要的改善措施。

3. 數據隱私(Data Privacy)
美國聯邦法律尚未規範有關數據蒐集不斷擴大的問題,亦即美國在個人數據方面缺乏全面的法律與監管框架。資料仲介在消費者不知情或不同意的情況下蒐集數據,甚至數據可能不準確或錯誤,進而增加生活風險(是否有資格獲得貸款或工作)與造成心理健康問題;或是集結個人資料,以有害的方式分析組織團體。以下為案例說明:
(1) 保險公司從社群軟體蒐集數據,做為人壽保險費率的參考依據。
(2) 資料仲介蒐集的大量個資遭逢外洩,使數十萬的人面臨身分可能被盜用的危機。
(3) 住宅區入口裝設臉部辨識系統以協助警察執法,但同時也拍攝到當地住戶與非當地住戶的臉。
(4) 公司使用監控軟體監視有關工會的討論活動,甚至利用產生的數據監視個別員工並暗中干預討論。

以下為針對數據隱私的期許:
(1) 通過設計和默認保護隱私:自動化系統的設計與建構應默認保護隱私,並限制數據蒐集範圍,確定欲蒐集的數據為絕對必要,並制定明確的數據保留時間表,根據法律與政策的限制盡快刪除數據。此外,需能減輕和應對已識別的風險,其中不包括請求用戶同意分擔或轉移風險,因為再沒有進一步的條件支持下,無法合理預期用戶了解風險,並確保擁有最高的隱私保護安全機制如使用隱私增強技術。
(2) 保護民眾免受未經檢查的監視:加強監督自動化系統、系統開發者對民眾有限且適當的監視,和不可侵犯公民自由與權利。
(3) 為民眾提供適當且有意義的同意、訪問和控制其數據的機制:尋求民眾同意數據蒐集時,應針對特定用途請求同意,並為簡短且通俗易懂的同意請求。民眾應能訪問與更正和自己有關的數據,系統也應能撤回數據訪問請求和刪除數據,最終自動化系統要能支持民眾自行做出控制決策。
(4) 證明數據隱私和用戶控制受到保護:公開的獨立評估,針對數據的蒐集、處理和利用撰寫公開報告,同時也能提供快速、易於理解的報告給需要知道的民眾。此外,若用戶無法登入查看報告應要求用戶提供身分驗證。

4. 通知與解釋(Notice and Explanation)
民眾無法獲得自動化系統對生活所造成影響的相關知識,因此系統需要對人們提供「通知」與「解釋」,讓民眾知道現在是否有在使用自動化系統與系統決策的依據。以下為案例說明:
(1) 一位老年殘疾病人因系統採取新的演算法而失去醫療援助,且並未收到及時的解釋。
(2) 警務系統宣稱可以識別潛在槍枝暴力加害與收害者並將其列入觀察名單,然而卻未公開系統如何演算。
(3) 民眾因數據輸入錯誤或系統自身有缺失而被剝奪享有福利的資格,直到系統被要求給出解釋,才得更正錯誤。

以下為針對通知與解釋的期許:
(1) 提供易於理解且最新的使用通知與解釋
(2) 針對民眾解釋自動化系統如何針對目標做出決定
(3) 利用報告展示對通知和解釋的保護

5. 人類替代方案、考量與取消(Human Alternatives, Consideration, and Fallback)
人們可能不方便或無法使用自動化系統,民眾應該要有「方便選擇退出自動化系統的權利」,且不會因此處於不利地位。除此之外,因應系統故障或可能造成的傷害,人們也應該要有「替代方案」,如人工審查。以下為案例說明:
(1) 自動簽名匹配系統用來確定郵寄選票上的簽名是否與存檔簽名一致,但此系統對患有精神疾病、身障人士或更改姓名的選民較為不便。
(2) 科羅拉多州的失業救濟金制度,要求申請人須使用智慧型手機驗證身分,因此許多人無法獲得福利。
(3) 醫院系統搞錯患者用藥史,拒絕給予病人止痛藥,縱使患者向醫生說明情況,醫生仍不敢給予止痛藥。
(4) 員工被自動化系統解雇,但找不到任何人工審查、上訴或其他申訴管道。

以下為針對人類替代方案、考量與取消的期許:
(1) 提供若退出自動化系統則採用及時且無負擔的人工替代方案
(2) 如果自動化系統發生故障,或者民眾想上訴或質疑該系統,則應升級系統或提供及時的人工替代方案
(3) 與自動化系統有關的人皆需進行定期培訓、評估和對系統進行監督
(4) 敏感領域相關(如司法、教育和健康等領域)的自動化系統應實施額外的人工監督和保障措施。
(5) 藉由報告展示人類替代方案、考量與取消的可行性
許向華
英文