科技議題

首頁> 科技議題 - 政策動向> 人工智慧之倫理道德:問題與倡議
人工智慧之倫理道德:問題與倡議 The Ethics of Artificial Intelligence: Issues and Initiatives
2020/03
European Parliamentary Research Service (EPRS)
10.2861/6644
https://www.europarl.europa.eu/RegData/etudes/STUD/2020/634452/EPRS_STU(2020)634452_EN.pdf
歐洲議會研究服務處(European Parliamentary Research Service, EPRS)公佈的人工智慧之倫理道德:問題與倡議(The Ethics of Artificial Intelligence: Issues and Initiatives)研究報告,為探討因人工智慧(Artificial Intelligence, AI)技術的開發與實行,而產生與倫理道德相悖等諸多問題,並審視世界各國為此建立的不同準則與規範框架,以解決該問題,如公平利益分享機制、責任歸屬、勞力剝削、環境與氣候變化下的能源需求,以及人工智慧的複雜性與不確定性等。在過去五年中,人工智慧的倫理問題已從學術關注轉向政治辯論與公眾辯論,運用於軍備競賽的前景尤被看好,促使非政府組織、學術和工業團體與政府發起大量的國家和國際倡議,這些舉措使得大量的道德原則發佈(自2017年1月以來已發佈了至少22種不同的道德準則)。

人工智慧與機器學習的快速發展為全球帶來巨大的潛在利益,卻也在社會、法律與道德面產生法規管理上之需求與負面影響。依歐盟執委會(European Commission)下設之人工智慧高階專家工作小組(High-Level Expert Group on Artificial Intelligence, AI HLEG)賦予人工智慧之定義為:「人工智慧是指一種可透過分析其所處環境,並採取相對應之行動—伴隨著某些程度之自主性—來達成特定目標之系統。以人工智慧為基礎之系統,可以全然以軟體為基礎,於虛擬世界中發揮其作用(例如語音助手、影像分析軟體、搜索引擎、語音及臉部識別系統);或者人工智慧可被嵌入各種硬體設備中(例如先進機器人、自動駕駛汽車、無人駕駛飛機,以及物聯網應用等)」。人工智慧已日益影響各個領域,包括工業、醫療保健、財務與司法、交通、金融和休閒,其潛在利益包括:
一、 幫助人們獲得新技能與培訓;
二、 服務民主化;
三、 加速生產時間與反覆週期;
四、 減少能源消耗;
五、 提供空氣汙染與品質的即時環境監測;
六、 加強網絡安全防禦;
七、 提高國家產能;
八、 減少無效率的醫療;
九、 為人們創造愉悅的新體驗與互動;
十、 改善即時翻譯服務,以與全球各地的人們聯繫。

從長遠來看,人工智慧將可帶領許多領域突破現有的瓶頸,從基礎科學、應用科學、醫學到先進系統,但其備受關注的倫理問題,即人類開發人員、製造商與運營商應如何行事,減少不良設計、不當應用或濫用引起的倫理危害將帶來重大的道德挑戰,該報告將討論其涉及的以下幾個面向所帶來之影響:
一、 對社會的影響:包括人工智慧對勞動力市場與經濟的潛在影響,以及不同的人口群體可能受到的影響。人權與尊嚴問題將可以使現有的社會系統或偏見等風險得以解決,然而,人工智慧卻把權力與財富進一步集中在少數人的手中。
二、 對心理的影響:人機關係可能產生什麼影響?我們將如何解決依賴性與欺騙?是否應考慮賦予機器人人格地位,以及這樣做的法律與道德意義為何?
三、 對金融體系的影響:包括操縱和合謀的風險,以及建立責任制的必要性。
四、 對法律制度的影響:人工智慧可以透過多種方式影響法律制度,例如:將人工智慧用於犯罪活動之罪責承擔;或自動駕駛汽車的碰撞事故所伴隨而來的索賠法律問題等。
五、 對環境的影響:運用人工智慧愈趨頻繁將伴隨著對自然資源的使用增加,然而,人工智慧亦可改善人類處理廢棄物與資源回收效益。
六、 對信任度的影響:社會仰賴信任,為讓人工智慧承擔諸如外科手術之類的任務,民眾將需要信任該技術,而信任包括公平(人工智慧將是公正的)、透明度(人們將能理解人工智慧如何做出決定)、問責制(可以使某人對人工智慧的錯誤負責)與控制(可關閉功能日益強大的人工智慧)。

隨著人工智慧的技術不斷地與時俱進,各國紛紛湧現各種政策舉措以跟上人工智慧發展的步伐。加拿大於2017年3月發佈第一個人工智慧國家戰略,其次為日本與中國。2018年4月歐盟執委會下設之人工智慧高階專家工作小組,為第一個國際人工智慧戰略鋪路,並於2019年4月發佈人工智慧道德準則,建立管理人工智慧道德的國際舞台,且推行至全球創造跨區域的合作關係,以期解決人工智慧技術所伴隨的社會及環境問題。該準則列出人工智慧系統必須滿足以下七項關鍵要素才足以值得信賴。
一、 人類機構監督:人工智慧系統應透過支持人類機構和基本權利來實現公平社會,而不是減少、限制或誤導人類自治。
二、 穩健性與安全性:值得信賴的人工智慧系統需具足夠的安全性,以便讓人工智慧系統在任何時期皆能處理錯誤或不一致性。
三、 隱私與數據控管:有關公民的隱私數據不會被用來傷害或歧視他們。
四、 透明度:應確保人工智慧系統的可追溯性。
五、 多元化、無歧視與公平性:人工智慧系統應考慮人類的各種能力、技能和要求,並確保可訪問性。
六、 社會和環境福祉:人工智慧系統應用於增強積極的社會變革,強化可持續性和生態責任。
七、 問責制:應建立機制以確保人工智慧系統及其結果與責任歸屬。

該報告明確指出人工智慧的迅速發展所引起的多樣性與複雜性之大規模倫理道德問題,例如自動化帶來的工作損失、環境惡化與不平等現象加劇等,導致更多的道德難題產生。然而,並非所有國家都能理解道德規範的重要性,雖然已有許多國家已承諾建立人工智慧道德委員會,諸如德國、英國、印度、新加坡與墨西哥,阿拉伯聯合大公國甚至更開發「人工智慧道德工具包」,以及自我評估工具等,該些國家將具有道德規範的人工智慧戰略置於首位。

縱使全世界已有諸多國家為人工智慧的國際戰略提供一個統一的框架,但對政府而言,人工智慧仍有以下五項主要考量:
一、 有效使用數據:缺乏對數據基礎架構的瞭解,則無法有效實施數據治理流程。
二、 數據與人工智慧技能:政府的招聘預算有限,無法像大企業公司以高薪吸引更多具有相關專業的人才來開發一流的人工智慧解決方案。
三、 人工智慧生態系統:人工智慧的市場變化迅速,許多新創公司可能擁有人工智慧解決方案的能力,卻因其經驗有限,導致政府拒絕與之合作大型方案的可能性。
四、 傳統文化:政府執行方案有其既定的做法與流程,難以採行變革性技術,相較於私營部門,員工亦無法承擔風險與創新。
五、 採購機制:私營部門將演算法視為其智慧財產權之一,但政府難以依各部門之需求而分化演算法之價值,且政府的採購機制是緩慢且複雜的,難以應付變化迅速的人工智慧市場。

雖然該報告明確指出人工智慧發展引起的倫理道德等多樣性與複雜性的大規模問題,但也開始有愈來愈多的政府擬定具道德成份的國家人工智慧戰略,以解決人工智慧技術帶來的道德問題。健全的道德原則對於未來人工智慧的技術發展甚為重要,為釐清與人工智慧行為有關的責任問題,道德與立法框架將需隨著技術的發展而更迭。與此同時,政府需要開發最新的技術評估模式,包括道德風險評估流程,例如英國標準協會(BSI)編寫的「BS 8611:2016機器人與機器系統的倫理設計與應用指南」,為識別日常生活中使用的機器人和自治系統引起的潛在道德傷害提供指導,以消除或降低道德相關風險。

政策制定者能積極影響人工智慧發展方向,該如何在有效的風險管理中,以創新思維實現共享利益,透過數據共享與協作方式確保人工智慧的發展不會擴大全球的不平等現象,道德考量將是任何有關人工智慧政策的重要組成部份,不重視人工智慧倫理道德的政府將無法在互競的時代中取得成功。
熊慧鵬
英文