科技議題

首頁> 科技議題 - 智慧科技> 國際電工委員會白皮書–各產業的人工智慧
國際電工委員會白皮書–各產業的人工智慧 IEC White Paper - Artificial Intelligence across Industries
2019/12
國際電工委員會 (International Electrotechnical Commission, IEC)
https://basecamp.iec.ch/download/iec-white-paper-artificial-intelligence-across-industries-en/
AI能協助人類改善最迫切的問題,像是資源匱乏、人口老化、對抗貧窮等,但用來協助人類擬定決策的同時,也可能帶來相當巨大的風險與經濟問題,政府與政策制定者必需了解並妥切因應。AI是否被適切應用,以及廣為被社會各階層接受,取決於各方利害關係人及社群的參與,故產業界、立法者及標準化組織,如國際電工委員會(International Electrotechnical Commission, IEC)必需扮演重要推動者,以確保AI如預期方式執行。
國際電工委員會(IEC)長期作為提供工業與資訊技術系統標準化的機構,本白皮書由IEC Market Strategy Board下的AI專案團隊編寫,主要由德國AI研究中心(DFKI)及帶領專案團隊的海爾集團所完成,報告分析AI現況與展望未來5~10年的前景,從產業觀點深入探討四大潛力應用領域(包括智慧家居、智慧生產、智慧交通與自駕車、能源部門,有興趣的讀者請逕自參閱),並對產業、IEC與管制者提出若干建議,本文僅摘述其論述AI發展預測、挑戰與標準化情況,以及提供給各界發展AI的建議。

一、AI定義與發展預測
IEC對AI的定義為:「一種機器模仿人類與其他人類思維相關的認知功能,例如圖形比對、學習和解決問題。」易言之,所謂的智慧要滿足四種功能:感知、理解、行動和學習。一般來說,會將AI依據其功能區分為強AI或弱AI:強AI具有如同人類般的廣泛思考能力;弱AI則是有專門用途或用於解決特定問題。弱AI已經廣泛用於日常生活中,例如垃圾信件過濾器、利用弱AI來判斷何時啟動防鎖死煞車系統(Anti-Lock Brakes, ABS)、自駕車則是利用弱AI來感知周遭環境。
2016年企業累計投資於AI領域的金額達390億美元,其中有六成是機器學習,預計2025年的市場規模達1270億美元。根據國際數據資訊(IDC)預測,全球認知與AI系統支出將於2021年超過570億美元,其中55%集中於零售和金融業、離散製造業(discrete manufacturing)、醫療保健和自動化處理等五大產業。

二、推進AI發展的賦能者
運算力(computational power)、演算法、資料可及性(Availability of data)的改善加速AI的發展。
(一)運算能力:半導體依循著摩爾定律發展,隨著晶片尺寸從1970年代的10微米(nm)到2017年的10奈米(um),讓更多電晶體能整合至載體,且硬體架構亦被改良成更適合AI的應用,如圖形處理器(GPU)適合應用於深度神經網絡(DNN)或卷積神經網絡(CNN);現場可編程邏輯閘陣列(FPGA)運算速度比傳統CPU更快;專用積體電路(ASIC)含括不同類型,像是Google開發的張量處理器(TPU)或神經網路處理器(NPU),且業主宣稱TPU效能比CPU高15-30倍,每瓦單位效能(Performance per watt)比GPU高30-80倍
(二)資料可得性:可從網路獲得的資料量越來越多,如在1997年可作為臉部辨識訓練的圖片資料庫僅有165張,然而現在ImageNet 可提供AI演算法訓練的分類照片已達1500萬張。
(三)演算法的改進:AI在近期所取得的進展多跟深度學習有關,如將線性整流函數(rectified linear unit, ReLu)作為類神經網路中的激活函數(activation function),能提高神經網絡的運算速度與效率。

三、AI發展面臨的挑戰
(一)社經層面的挑戰
有些領域可利用AI實現自動化,如製造業或規則執行的專業程序作業,透過取代同時創造新的工作機會,進而顛覆就業市場。此外,AI常被用於推薦使用者商品和服務,有時以隱藏和自動化的方式,顯見AI明顯具備能影響消費者的潛力。
1.改變決策:AI被預期可應用於協助決策擬定,尤其是在例行性事務方便,不過即使是受訓練過AI亦可能犯錯,且更複雜的演算法對社會或產業的影響越大,故更需要人類判斷來確保合宜的決策。AI演算法常建構在統計數據的相關性上,此可能導致決策者拒絕承擔責任歸屬,並歸咎於AI系統。
2.強化供應鏈運作:翻目錄找報價的時代過去了,AI可以依據客戶的需求提供建議,除了影響中間商,AI將大幅影響消費者的選擇,而如何確保其所提出建議的運作流程的透明度將是一大挑戰。

(二)資料層面的挑戰
由於缺乏適當法規或是產業各自利益考量,即便各產業積累了大量資料,跨產業資料共享的情況B仍相當有限,資訊孤島問題已成為發展AI的絆腳石。此外,資料可及性(availability)問題亦導致機器學習演算法難以收集到足夠的可靠數據。
1.訓練資料的選用:AI系統由於訓練資料本身有偏見(biased)而表現出性別或種族偏見的情況越來越受到重視,在開發 AI 模型時,所使用的數據關聯性、數量和品質皆應經過專業評估,包含各領域專業與資料科學家(Data Scientists)的參與,甚至連同資料集的切割(split)也是需要大量反覆測試才能確認。即使模型正確率達98%,但只要2%辨識有嚴重偏誤(bias)或會令人反感的,就無法使用。解決問題的第一步就是讓資料變得更具代表性且沒有偏見,報告認為可透過制定一套方法來檢查和修正訓練資料和模型中的偏見。
2.標準化的資料:開放資料、各種感測器、現有資等多種來源能提供訓練AI所需要大數據,但多樣性來源卻也是一種挑戰,需經由資料前處理與判讀以改善分析結果,未來若進一步將資料類型、表單和資訊模型加以標準化,將可大幅簡化與改善處理資料所需的流程與時間。不過要如何正確理解異質資訊與資料集的語意,可透過語意科技(Semantic technologies)確保機器與人類在資訊理解上具有一致性,語意互操作性(interoperability)可以避免資料發送與接收兩端出現衝突,故異質資料必須具備標準化的語意或通訊協定,才能讓使用不同格式或結構的系統能避免語法衝突。

(三)演算法相關的挑戰
1. 穩健性(Robustness):意旨在機器學習中,即使輸入值不在原本的訓練資料內仍可做出正確決定,其重要性日益增加,特別是用於輔助決策的增強式學習(reinforced learning)。AI 演算法失敗的原因相當多,如不相稱的資料集、異常值和系統本身的程式設計,目前有許多研究方向正著手改善演算法的穩健性,包含(1)驗證:如何建立一個以正確方式運作的系統;(2)有效性:確保系統符合目標要求,不執行不需要的動作;(3)安全性:如何防止第三方操縱系統;(4)控制:人類必須能接管與控制系統,並在出現問題時修復系統。有許多方式可提高AI演算法的穩健性,例如用於訓練AI系統的資料前處理、消除不相稱和離群值、異常檢測,以及假設檢定和遷移式學習(transfer learning)。
2.遷移式學習(transfer learning):是指運用過去經驗獲得的知識解決新問題,目的是利用來自不同應用領域的訓練資料能夠被用於解決不同的任務,不過目前有相當多的問題,如需知道哪些知識可以遷移,或是否需要是相關領域。
3. 可解釋性(Interpretability):機器學習(特別是神經網路)給人黑盒子的印象,因為大家只能理解所輸入的資料及其運算後的結果,而不是演算法推論出結果。在影像處理或自然語言處理(NLP)等應用領域中,已有一些能演繹神經網路的可解釋性,或透過簡單可理解的模式找出近似演算法(approximate algorithms )加強解釋性。由於對AI演算法的充分驗證(verification)和確效(validation)仍然存在嚴重問題,可從演算法的目標函數(Object function)察覺端倪,目標函數如果不正確或是不精確,將產生副作用或獎勵駭客的問題。

(四)基礎架構相關的挑戰
AI的效能取決於運算速度與基礎架構效率,像是客製化硬體、軟體堆疊、函式庫或工具鏈。其中,處理器的效率是被視為主要因素,就AI開發而言,可重覆使用和標準化的技術框架、平台、工具和服務尚未成熟。儘管知名科技巨頭已提供開源 AI 學習系統和深度學習資料庫,但架構、框架、應用程式模型、評估與視覺化工具、以及雲端服務模組化和標準化 AI 生態系統,尚未達到相當的成熟水準。

(五)信賴性挑戰
機器學習算法依賴於提供的數據,完整而準確的數據對於自動化決策相當重要,數據品質不佳甚至是故意操縱之類的潛在問題都可能導致毫無價值的結果,甚至為用戶帶來負面影響。

四、制訂標準化的驅動力
為解決前述挑戰,需解決許多問題,包含開源和標準化的協調、神經網路表示方法、效能評估、機器學習演算法以及與 AI 相關的安全漏洞。
機器學習仰賴訓練資料,但資料往往來自四面八方,當其缺乏語意時便無法以機器跟人類可理解的方式處理,而AI系統便無法充份使用這些異質資料來源,甚至對機器學習來說,資料結構與格式應具有一致性。雖然特定領域已著手進行資訊與數據模型的標準化作業,但領域間仍未相互整合。
AI演算法或其所存在的系統需要驗證,該範圍仍待釐清,不論是一次性或周期性驗證。AI系統需要各別面向的規格認證,像是功能、能效表現、資安、相容性、可交互運作性等,認證的內容包括測試、評估與其它事項。並基於標準化流程與方法,包括可量測的指標與可量化的評估系統,來得到評估結果。此外,市面上越來越多基礎架構與平台,故需要一套標準以評估其功能、能效或可擴充性,讓使用者能挑選其所需平台。

五、標準化的現況
標準化在 AI 開發中扮演支持和引導作用。它不僅是促進工業創新的基石,亦能提高 AI 產品和服務的品質、確保使用者安全和建構公平開放的產業生態系統。以下說明各組織或政府在推動AI標準化的現況。
(一)制定國際通用標準之組織
IEC與ISO分別將在既有的標準納入AI元素,例如TC22( 道路車輛)、TC68(金融服務)、TC299(機器人)、TC 45A(核能設施)、TC100(多媒體)、TC 124(穿戴式裝置)。此外,ISO與IEC針對資訊科技聯合成立技術委員會(ISO/IEC JTC 1),長期以來致力於AI用語的國際標準。其中成立於2017年11月的JTC 1/SC 42小組委員會,其職掌是作為 JTC 1 AI 標準化計畫的焦點實體(focal entity)和幕僚(proponent),並提供建議予開發 AI 相關應用的 JTC 1、IEC 和 ISO 委員會。ISO/IEC JTC 1另有其它7個小組委員會針對AI在實際應用所需的標準化工作,例如電腦圖形、影像處理與環境資料表示、資安技術、使用者介面、生物特徵量測、雲端運算與分散式平台、資訊科技服務管理與治理,以及物聯網與相關技術。
此外,歐洲電信標準協會成立體驗式網路智慧產業規範小組(Industry Specification Group (ISG) on Experiential Networked Intelligence (ENI)),其目標是制定認知網路管理系統的標準,所採用的閉迴路模型為「監控-分析-計畫-執行」,並將透過學習強化功能。所謂的認知網路管理系統可依據使用者需求、環境條件和業務目標的即時變化,來調整閒置網路資源與服務的使用,其決策所依據的詳細資訊則來自於網路資源的複雜狀態與經營者偏好。

(二)產學研相關組織
國際電信聯盟電信標準化部門(International Telecommunication Union - Telecommunication. Standardization Sector, ITU-T)針對將來的5G網路設置一個機器學習聚焦小組(FG-ML5G)。電機電子工程師學會(IEEE)在2016年4月發起了有關「人工智慧及自主化系統之倫理思考」的全球倡議,旨在幫助人們應對 AI 構成的威脅,在此框架下成立13個標準化專案,並制定從數據隱私到故障安全工程的倫理設計原則和標準。其它如皇家學會、美國資訊技術產業協會(Information Technology Industry Council,ITI)也強調在某些領域制定標準的必要性。由 50 多家跨國科技公司和AI研究機構所組成的聯盟The Partnership on AI,宗旨為確保AI應造福人類社會,將共同研究AI系統的設計與影響、最佳做法的開發和分享、以及公共教育與各種外部利益相關者的參與。

(三)國家機構
歐盟則是由相關利害關係人所組成的論壇作為歐洲AI聯盟,致力於AI的全面性發展及其對社會與經濟的影響。該聯盟於2018年四月召集「人工智慧高層專家小組」作為聯盟工作的指導小組,並提供歐盟執委會中長期AI挑戰和機遇的相關諮詢與提出AI倫理準則。中國則由國家標準化管理委員會既有的技術委員會處理AI相關業務,例如全國信息技術標準化技術委員會主要負責涉及詞彙、使用者介面、生物特徵量測等領域的AI標準化工作。

六、報告對各界發展AI的建議
(一)對產業的建議
1.產業從AI獲利時,應做出相對應貢獻,如提供高品質與數量的資料、不斷提升AI基礎架構效能與系統資安,讓社會大眾了解AI的益處,以期加速廣泛應用。
2.制定資料集準則:制定一最有關資料集的準則,可針對機器學習在訓練、驗證、及測試時所需要的資料量體提出建議,準則在針對資料的需求,也能協助企業在請求客戶資料時可以有所參考。
3.制定AI系統資安準則:AI對資安有著深遠的衝擊,不僅被用於因應駭客機器人或病毒,也可透過建造存取點來產生資安漏洞進而被攻擊。此外,透過訓練資料集的特殊偏差控制可影響系統,故為了採取合適的資安措施,企業在應用AI之前必需先了解其安全性。

(二)對管制的建議
1.在隱私政策中處理AI:有證據指出駭客行為,是透過逆向工程擷取使用者隱私資料並濫用。演算法設計及訓練的過程中應該需要具有包容性,並應充分考慮弱勢群體的利益。並針對極端道德狀況制定特別規定。當AI用於雲端,則個人在將私人數據發送到雲端的過程中,需要有足夠的信任而不必擔心侵犯其隱私,這一點至關重要。AI開發者甚至需要採求對應手段在收集與使用數據時保護個人,並防止個人資訊被洩露、偽造和損壞。
2.將AI納入資安、道德及其它政策中:AI產業的監管不單單是某一個團體所需面對,其所涉及的面客涵括社會、系統及複雜議題,需要企業、國家、使用者、科技組織及第三方團體共同參與,方能建構永續AI生態系統。應根據全社會形成的廣泛共識,確定AI技術的道德要求。

(三)對標準化組織IEC的建議
1.為AI建立使用案例以及將來整合至IEC Use Case Management Repository (UCMR)
2.開發具有一致介面的 AI 參考架構結構
3.為了增加產品及子系統間的可交互運作性,應該開發具有一致性介面的 AI 參考架構結構
4.隨著 AI 產生前所未有的道德和可信挑戰和威脅,對於AI演算法以及使用它們的產品和服務,預期有跟高有符合性評估需求。同時身為國際標準及符合性評估權威的IEC,應提出發展路徑圖。
5.將AI使用案例納入IEC參與的測試平台
6.建置測試平台供使用案例
黃俊傑
英文