一、前言
人工智慧(AI)的快速發展正在大幅度影響全球經濟、社會及技術,成為現代科技創新與應用的關鍵。為了確保AI發展能造福全人類,同時有效降低潛在風險,美國國家科學技術委員會(National Science and Technology Council, NSTC)於2023年發布了「國家人工智慧研究與發展戰略計畫-2023年更新」(National Artificial Intelligence Research and Development Strategic Plan 2023 Update)政策文件。該文件提出了九項策略,旨在促進值得信賴AI的發展、降低AI技術風險、保障公民的權利與安全。這九項策略分別為:長期投資基礎與負責任AI的研究;發展有效的人機協作方法;識別與應對AI的倫理、法律與社會影響;確保AI系統的安全性;建立共享的公開資料庫與AI訓練環境;發展AI評估技術與制定標準;滿足AI人才需求;擴大公私協作以加速AI進展;建立國際合作機制等。
2024年美國NSTC進一步發布了「2020-2024 年美國推動值得信賴的人工智慧研發進展報告」(2020–2024 Progress Report: Advancing Trustworthy Artificial Intelligence Research and Development),整理了美國政府在上述九大策略框架下的研究進展與近期成果。以下將聚焦於美國國土安全部(Department of Homeland Security, DHS)、國家航空暨太空總署(National Aeronautics and Space Administration, NASA)、國家衛生研究院(National Institutes of Health, NIH)及教育部(Department of Education, ED)在值得信賴人工智慧領域的重要計畫與成就。國家科學基金會(National Science Foundation, NSF)、國家標準技術研究院(National Institute of Standards and Technology, NIST)、農業部(U.S. Department of Agriculture, USDA)與能源部(Department of Energy, DOE)等單位之重點成果,請參閱圖一。
二、國土安全部:提升公共安全與技術信任
美國國土安全部(DHS)積極發展人工智慧技術,以應對網絡安全、基礎設施保護及危機應對等挑戰。
(一) 網絡安全與協作
國土安全部(DHS)推出人類與AI合作網絡安全計畫(Human-AI Teaming for Cybersecurity program),旨在提升人類與AI在網絡安全任務中的協作效率與互信。此計畫整合先進AI技術與大規模運算資源,並著重於AI系統的責任歸屬與可靠性。同時,亦制定嚴謹的評估框架,量化AI對人類的影響,並評估潛在風險。
(二) 危機應對與技術應用
為應對自然災害帶來的緊急挑戰,DHS開發了生成式AI(Generative AI)及多模態工具,以整合多類型感測數據,進而支援第一線應變人員的快速反應。同時,DHS也發展能識別緊急求救與惡作劇電話的差異的多模態AI,從而提升應急反應效率並減少資源浪費。其他技術應用包括:在機場行李安檢領域,DHS運用合成資料(Synthetic Data)訓練演算法,以克服龐大行李數據收集的挑戰;在公共安全方面,則結合AI與先進影像分析技術,來識別異常行為與可疑物品(例如刻意遺留的包裹),以提升公共空間的整體安全性。
(三) AI倫理與安全性
在AI倫理與安全性方面,DHS專注於研究AI模型衰退(Decay)與偏差(Bias),並開發可衡量AI系統長期效能的指標。此外,DHS於2023年發布了數位偽造(digital forgery)研究報告,詳細分析偽造內容生成的技術與工具,以及介紹了各種現有或開發中的檢測與驗證方法。同時,DHS針對AI技術的誤用與錯誤風險建立風險管理框架,並研究對抗性AI(Adversarial AI)的威脅與反制措施,以提升AI系統的安全性與穩定性。
(四) 國際合作
在國際合作方面,DHS與瑞典民防緊急應變局(Swedish MSB)及其他國家展開技術交流,聚焦智慧技術於網絡安全與基礎設施保護中的應用,並分享最佳實踐與解決方案,以強化國際合作。
三、NASA:探索太空與促進科學創新
美國國家航空暨太空總署(NASA)致力運用人工智慧應對地球科學研究、太空探索等多項挑戰,其投入重點涵蓋自主運作技術開發、人類與AI協作、安全性保障及數據共享等領域。
(一) 自主運作技術開發
在自主運作技術方面,NASA開發支持航空載具及太空任務的AI技術,以解決空中交通、太空站,以及月球與火星等任務的挑戰。由於遠距通訊的高延遲問題,AI成為確保任務成功的關鍵,必須在無人類參與的情況下持續適應與更新。
(二) 人類與AI協作
在人類與AI協作領域,NASA正積極發展適應性(Adaptive)人機介面,目標為提升人類在太空任務中對各類型機器人的控制能力,涵蓋從複雜的機械手臂到簡易的移動載台。同時,這些系統具備異常行為識別與監控功能,能主動應對來自太空人或機器的潛在風險,如太空人生病或行為異常等狀況。
此外,NASA正積極開發用於材料發現與設計的AI工具。這些工具不僅能自動分析材料特性並提供實驗建議,更能透過視覺化或創新互動模式(例如手勢控制)與人類溝通協作,將機器從單純的決策支援工具(DSTs)轉變為真正的協作夥伴。
(三) AI安全性
為了確保AI系統在太空及航空任務中的安全與可靠性,NASA致力於發展軟體驗證與確認之相關技術與方法,如採用形式化驗證(Formal verification)等方法,以提升自主系統的可信度。此外,NASA也積極評估由AI驅動的航空系統及通訊網路的安全性,尤其關注日益重要的城市空中交通(Urban Air Mobility)應用,以應對相關挑戰。
(四) 數據共享與應用
在數據共享方面,NASA致力於公開其產生的數據,包括透過分散式資料中心提供大量的地球科學數據,以支援全球氣候變遷等研究。同時,NASA也正在建構能儲存或連接至NASA各資料庫的平台,以實現跨資料庫搜尋與應用,促進科學研究與技術進展。
四、NIH:推動健康創新與促進數據共享
美國國家衛生研究院(National Institutes of Health, NIH)積極運用人工智慧(AI)於生物醫學研究,推動技術創新與健康研究的整合,透過數據共享計畫,促進AI在醫療與公共健康領域的應用。
(一) 基礎研究與技術創新
「透過道德、多模態人工智慧推進健康研究」(Advancing Health Research through Ethical, Multimodal AI)計畫專注於開發以倫理為核心的多模態AI技術,旨在精準模擬、解釋並預測複雜的生物行為與健康狀態,進而提升疾病診斷與治療的精準度與效益。另外, NIH亦與國家科學基金會(NSF)等機構合作推出「智慧互聯健康」(Smart and Connected Health, SCH)計畫,這項計畫整合了電腦與資訊科學、工程,以及醫學、社會、行為與認知科學等多個學科領域,目標是開發創新的醫療技術、分析模型與系統,並且鼓勵鼓勵學術界、產業界和其他組織合作,以促進健康醫療體系的轉型。
同時,NIH亦支持可解釋AI(explainable AI,亦稱為XAI)的發展以及其於醫療領域應用。例如,國家心理健康研究所(National Institute of Mental Health)鼓勵研究者應用XAI技術,提升科學家對行為相關神經迴路運作機制的認識,並且改進認知、情感或社會功能增強的治療策略。
(二) 促進數據共享與公平使用
NIH推出多項舉措,致力於建立高品質訓練資料,並推動數據的共享與公平使用。自2023年起,所有NIH資助的研究須遵循「數據管理與共享政策」(NIH Policy on Data Management and Sharing),以確保數據的開放與共享。「人工智慧之橋」(Bridge to Artificial Intelligence, Bridge2AI)計畫專注於建立高品質且符合倫理規範的AI資料庫,為醫學研究提供支持。「減少健康差異和人工智慧偏見科學合作組織」(Science Collaborative for Health disparities and Artificial intelligence bias Reduction, ScHARe)旨在提升女性及弱勢族群在資料科學和AI領域的參與度,並支援其利用雲端資源進行健康與醫療不平等相關的研究,確保每個人都能從大數據帶來的研究機會中受益。
五、教育部:促進教育創新與公平
美國教育部(ED)積極推動人工智慧技術在教育領域的應用,並以促進教育公平與社會責任為首要考量,期望能透過AI技術改善教學品質,同時增進教育的可及性與包容性。
(一) 基礎研究與技術創新
在負責任 AI 的基礎研究方面,教育部轄下的教育科學研究所 (Institute of Education Sciences, IES) 與國家科學基金會(NSF)合作設立了AI 研究機構,致力於發展具包容性的智慧教育技術,尤其著重於解決兒童在語言學習過程中面臨的挑戰。此外,IES 也啟動數據科學培訓計畫和創新研究中心,探索生成式 AI 在課堂教學中的應用潛力。
IES 的「從種子到規模化」(From Seedlings to Scale)計畫致力於開發能識別神經多樣性 (neurodiversity) 學生學習需求的工具與系統,研發能支援行為與情緒調適的新技術,同時也為教育工作者開發能即時提供教學建議與支持的新工具。此外,教育部也與學術界和產業界攜手合作,開發出能取代人工閱卷的 AI 系統,讓開放式問答題的批改更有效率。
(二) 促進人類與AI協作
教育部在AI與未來教學報告(The AI and Future of Teaching and Learning Report)中強調,AI在教育應用中應作為教師的輔助工具,而非取代教師的專業角色。所有AI教育應用須以人為中心,並確保教育者在各項AI自動化流程與決策中發揮關鍵作用。
(三) AI的倫理、法律與社會影響
為降低AI發展的潛在風險,教育部積極與各方利害關係人合作,並開發相關工具,協助教師及學校員工安全且負責任地在教學環境中運用AI技術。同時,教育部也深入研究AI應用可能造成的歧視及其他負面影響,並為開發者制定設計準則,鼓勵其在開發過程中納入倫理與社會責任的考量。