科技議題

首頁> 科技議題 - 智慧科技> 新興技術與風險分析-人工智慧與關鍵基礎設施
新興技術與風險分析-人工智慧與關鍵基礎設施 Emerging Technology and Risk Analysis-Artificial Intelligence and Critical Infrastructure
2024/04
RAND Corporation
https://www.rand.org/pubs/research_reports/RRA2873-1.html
1.技術描述與可能情境
人工智慧(AI)是一種變革性技術,可能會像互聯網一樣被廣泛應用於社會,包括關鍵基礎設施。AI可能會受到許多與其他資訊時代技術相同的因素影響,例如網路安全、保護智慧財產權、確保關鍵資料保護,以及保護專有方法和流程。

AI科學和技術的成熟度將基於幾個關鍵技術領域的重要依賴,包括高效能運算、先進半導體開發和製造、機器人技術、機器學習、自然語言處理,以及累積和保護關鍵資料的能力。

為了說明AI目前的成熟度,區分三個AI類別很有幫助:狹義人工智慧(ANI)、通用人工智慧(AGI)和超級人工智慧(ASI)。在未來十年,該技術可能仍然只能達到ANI。AI將為關鍵基礎設施和最終開發專門建造的智慧城市帶來機會和挑戰。使用AI輔助設計開發和監控系統,可以提高情境感知力並減少漏洞。然而,威脅者會發現更多的攻擊面,特別是在嵌入關鍵基礎設施領域和系統的物聯網(IoT)應用程式方面。

ChatGPT-4於2023年3月推出,為這些AI技術(在此例中為大型語言模型)提供一個有趣的案例研究,可能如何在未來逐漸成熟並整合到社會中。最初的推出凸顯準確性和一致性方面的問題,迫使開發人員迅速做出改變以回應這些問題。這種週期——開發、部署、確定不足之處和其他潛在用途,以及快速更新AI系統——可能是AI的一個特點。

2.方法論
研究人員開發一個評估新興技術風險的框架,包括對技術可用性(TAV)和技術可能被用於的潛在風險和情境(RS)的評估。其中,TAV評估涵蓋五個領域:(1)科學和技術成熟度;(2)使用案例、需求和市場力量;(3)投入的資源;(4)政策、法律、道德和監管障礙;以及(5)技術可及性。RS評估涵蓋威脅、漏洞和後果。這些評估在短期(最多三年)、中期(三至五年)和長期(五至十年)三個時期重複進行。

3.技術可用性評估
隨著AI繼續被採用,將確定額外的使用案例、需求和市場力量,在十年研究時間範圍內,該技術將變得更容易獲得。在資源方面,開發複雜的AI系統可能超出大多數可能尋求開發新AI系統的用戶的能力,但將AI系統用於各種合法和非法目的可能會變得更加普遍。政策、法律、道德和監管障礙不會對AI技術的採用構成重大障礙。鑑於TAV其他四個要素的評級,評估最後一個類別「技術可及性」,將在中期從低變為中等,並在考慮的十年期結束時保持中等。

4.風險評估
評估保護AI的開發和安全可能會受到許多與其他新興技術相同的因素影響,例如確保網路安全、保護智慧財產權、確保關鍵資料保護,以及保護專有方法和流程。如果不這樣做,可能會在國家的關鍵基礎設施中造成潛在的災難性漏洞。AI系統可能會被用於收集有關針對關鍵基礎設施採取行動的資訊,例如滲透關鍵基礎設施。

威脅格局可能由威脅者和關鍵基礎設施利益相關者之間為爭奪主導地位而進行的持續競爭所產生的漸進式進展所定義。在進行適當驗證和確認之前過早推出該技術,可能會為對手提供重大目標,並導致信心喪失,可能會阻礙額外的使用案例。例如,AI系統可能被用於進行網路偵察、開發網路滲透計畫,甚至在沒有人工干預的情況下進行攻擊。此外,AI系統還被用於開發能夠規避網路防禦的惡意軟體,使增強的惡意軟體能夠繞過防毒軟體掃描器。

漏洞和後果都將與AI系統的使用案例直接相關,具體來說是AI平台的範圍、規模和複雜性。範圍更窄、更加侷限或受限、潛在大規模災難性後果較小的使用案例可能會受到較少審查。例如,侷限在特定系統中的AI系統可能不會像跨越多個領域和應用的更通用的應用那樣令人擔憂。隨著範圍和規模變得更加全面,以及使用更加通用化,可能會出現其他問題。例如,能夠規劃和控制智慧城市甚至關鍵基礎設施(如電網)的AI平台,可能被用來製定針對這些關鍵基礎設施的攻擊計畫。賦予AI系統的自主權程度也代表一種潛在的威脅。在智慧電網中,工業控制系統可能會提醒操作員系統出現故障並要求採取行動。人工操作員或AI-人工操作員團隊可能會進一步詢問系統以驗證故障訊號,而AI操作員可能會根據其不正確的訓練立即決定採取行動。無論哪種情況,都可能出現問題,人工和AI-人工操作員團隊可能反應太慢而無法採取行動,而AI操作員雖然可以快速行動,但可能採取錯誤的行動。

關鍵基礎設施專案和跨越廣泛範圍和大規模運作的部門,如果遭到AI支援的威脅攻擊或AI設計系統出現故障,應該預期會造成嚴重的後果。即使是針對負責某個部門重要部分的單一公司的狹隘攻擊,也有可能產生不成比例的不利後果。開發和保護關鍵基礎設施的複雜性也是考慮AI使用和濫用潛在後果的一個重要因素。一位AI專家對AI日益增加的複雜性提出以下警告:"隨著超級智慧機器變得越來越智慧,問題在於我們不知道如何正確指定其目標。"如果AI系統得出錯誤的結論,無論出於何種原因,都可能導致嚴重的不利後果。

5.美國國土安全部的利益相關方
整個國土安全部都會受到AI的影響,無論是通過將AI納入部門的任務,還是不法行為者試圖將AI納入其規劃和行動。國土安全部長Alejandro N. Mayorkas成立一個人工智慧工作組,以「推進關鍵國土安全任務」的AI問題進行整合、利用、應用和合作。

使用AI支持的技術對國土安全部來說並不新鮮,它們已經被廣泛應用於各種應用,包括人臉識別和使用大資料應用進行預測分析,以協助執法人員。例如,國土安全部的國土安全調查部門和科學技術局希望採用AI技術來發現、制止和起訴虐待兒童案件。

有鑑於AI未來可能無處不在,應該期待國土安全部的利益相關者也將AI能力納入其運作中。例如,紐約市於2023年10月16日發布一項負責任地使用AI的計畫,名為「紐約市人工智慧行動計畫」。該計畫為市政機構提供一個框架,以仔細評估AI工具和相關風險,幫助市政府員工建立AI知識和技能,並支持負責任地實施這些技術,以改善紐約人的生活品質。

6.結論
AI是一種變革性技術,可能會像互聯網一樣被廣泛應用於社會,包括關鍵基礎設施。正如國土安全部在其AI策略文件中指出,AI已經在幾個關鍵的基礎設施部門使用,包括「製造、金融服務、運輸、醫療保健、能源以及食品和農業」。

進一步評估,AI領域包含許多技術,隨著這些技術變得可用,將被整合到與關鍵基礎設施相關的AI系統中。因此,AI科學和技術的成熟度將基於幾個關鍵技術領域的重要依賴,包括高效能運算、先進半導體開發和製造、機器人技術、機器學習和自然語言處理,以及累積和保護關鍵資料的能力。

儘管人們對AI非常興奮,特別是在過去十年左右,但該技術仍處於相對早期的成熟階段。這對於為當今負責任地開發和使用AI設定條件,以及更好地瞭解如何管理未來AI的開發和使用具有重要意義。最近的政府文件在這方面很重要,但實施這些策略和指令將是確保適當的保護措施到位的關鍵。

預計關鍵基礎設施將繼續看到AI功能的大量擴散,以提高美國現有基礎設施的效率和有效性。這也帶來需要仔細管理的挑戰和機會。有鑑於私營部門擁有大約85%的關鍵基礎設施,作為所有者在尋求平衡提高效率與確保安全之間的需求時,這將帶來重大挑戰。人們確實認識到,AI是一個快速發展的技術領域,可能在某些應用和使用案例中比其他應用更快地被整合。在這方面,評估在關鍵基礎設施應用中,AI的整合將更加緩慢和謹慎。
高飛
英文