一、前言
近年來,OECD會員國日益倚重數據與數位科技,以提升社會保障(Social Protection)服務的品質與效率。例如透過整合稅務、勞保、社福與醫療等跨部門資料,政府不僅能減輕民眾重複提供資訊的負擔,更能精準掌握福利涵蓋情形。尤其是 AI 等先進技術更被視為具有提升決策精準度、加速案件處理與強化查核能力的潛力。
本文將依據 OECD 於 2025 年發布的《人工智慧與 OECD 國家社會保障的未來》(AI and the Future of Social Protection in OECD Countries),探討 AI 在社會保障領域的現行應用方向與發展潛力,並進一步討論其安全與可信賴運作所需的治理要求。
二、現階段應用重點
目前各國在社會保障領域導入人工智慧應用,主要聚焦於三大核心面向:客戶支援服務、後台行政流程自動化,以及錯誤與詐欺偵測。
(一) 智慧客服與聊天機器人
諸多OECD會員國已運用 AI 聊天機器人優化政府與民眾的互動體驗。以芬蘭社會保險機構(Kela)為例,其推出的多語言聊天助手,能於民眾申辦福利時即時提供說明指引與個人化提示,有效協助民眾順利完成申請程序。韓國的 AI 通話服務則具備記憶功能,除了能記錄過往對話內容應用於後續通話外,更會每週主動致電關懷民眾生活近況。美國衛生及公共服務部(HHS)亦部署聊天機器人,支援民眾進行補助申請與資訊查詢。此外,在 COVID-19 疫情期間,聊天機器人更成為維持服務不中斷的關鍵工具,不僅大幅提升資訊獲取的便利性,亦有效緩解行政人力在面對大量案件時的負荷。
(二) 後台行政流程自動化
AI 技術亦被廣泛應用於簡化後台行政作業,旨在將有限的人力資源重新配置於需專人深入協助的複雜案件。加拿大運用自然語言處理(NLP)技術自動檢視就業紀錄中的文字備註,顯著降低人工審查的負擔;芬蘭社會保險機構(Kela)則導入影像辨識技術以加速文件處理流程。奧地利則運用語音辨識協助電話分流,並以 AI 自動將電子郵件轉送至正確部門,整體準確率達到九成以上;同時,該國正推動半自動化的 AI 醫療費用核銷流程,由 AI 協助辨識申請文件、進行診斷分類並擷取關鍵資訊,藉此提升核銷效率。
(三) 錯誤與詐欺偵測
部分國家已開始利用 AI 技術強化錯誤與詐欺偵測機制。英國已採用 AI 協助識別社會福利申請中的潛在詐欺行為。韓國國民健康保險署(NHIS)則運用其龐大的醫療與社會經濟資料庫,結合智慧查核演算法預測高詐欺風險案件,使稽查工作得以提前介入。葡萄牙則導入生物辨識技術(如人臉或聲音辨識)進行生存證明(proof of life)查核,以確認受益人身分,從而避免不當給付的發生。
三、未來發展與潛力
除了前述應用範疇外,各國導入 AI 的焦點正逐漸從單純的流程效率提升,轉向更具前瞻性與精準度的深度應用,涵蓋預測需求以降低社會衝擊、決策支援與提前因應、提升服務可近性以減少未申領情形、依個別需求設計介入措施,以及強化制度公平性等面向(各項應用摘要請參閱圖一)。
(一) 預測需求與突發風險
部分國家已開始運用 AI 預測特定風險情境,藉此強化事前防範能力。例如,德國利用預測模型整合工地、勞工與雇主資料,評估職災發生的機率。此做法不僅使稽查資源更精準配置於高風險工地,亦使檢查單位能觸及過往難以覆蓋的場域,預計五年內可節省約 2.5 億歐元的賠償與復健支出。
此外,AI 亦被應用於預測並減緩自然災害的衝擊。例如,非洲多哥共和國利用 AI 模型預測洪水風險,以及時發布警示通知居民防災,並提前釋放救助資金降低災害損害。歐洲亦有研究團隊與歐洲太空總署合作,探索 AI 應用於洪水預警之可能性。
(二) 決策支援與提前因應
AI 亦逐漸成為辨識高風險個案並有助於及早採取相應措施的重要工具。在美國洛杉磯,研究機構與地方政府合作運用預測模型,透過 AI 辨識首次面臨無家可歸風險的高危險個案,並由相關單位提前主動聯繫以提供協助。英國研究則顯示,納入犯罪紀錄的機器學習模型在預測家庭暴力再犯風險方面,展現出優於傳統評估工具的準確性。
其他具高度應用潛力的領域尚涵蓋高齡照護、貧窮風險與兒童安全等議題。瑞典與英國分別運用 AI 預測長者的復健需求與跌倒風險,以利及早規劃相關因應措施。荷蘭部分城市則透過 AI 分析跨機關數據,評估民眾陷入貧窮或負債的可能性;此外,該國亦結合兒童身高體重數據與醫護人員文字紀錄,發展決策支援系統,用於偵測潛在的兒童虐待案件。
(三) 提升服務可近性與福利涵蓋率
AI 亦可用於主動識別可能符合資格卻尚未申請社會福利的族群。在 OECD 國家中,社會福利方案「未申領」(non-take-up)的情形仍相當普遍,且亟需支持的個體往往最難以觸及,亦較少主動尋求協助。以西班牙馬德里為例,政府採用 AI 虛擬助理致電 75 歲以上長者,評估其孤獨風險並進行服務轉介,迄今已成功辨識超過 600 名需要關懷的對象。
(四) 量身設計支援措施
AI 亦可用於為個案提供更貼切需求的服務。韓國勞工福利服務機構(COMWEL)開發「智慧復健推薦系統」(IRRS),運用累積的大型勞工資料庫,由 AI 篩選具復原與重返工作潛力的受傷勞工,並提出科學化的復健建議。該系統有助提升服務的一致性,確保支援措施的時效與適切性,最終提高勞工重返職場的成功率。同時,在技能與就業服務領域,荷蘭「CompetentNL」計畫利用 AI 媒合技能與職缺,協助民眾了解不同工作所需的知識與能力,並提供技能提升方向作為培訓選擇的參考。
(五) 減少審查偏誤與歧視
在社會保障的資格審查與給付流程中,部分規範仍仰賴承辦人員的主觀判斷,例如失業給付中對「求職努力」是否足夠的認定。在資訊不足或標準模糊的情況下,決策容易受種族、族裔、宗教或性別等因素影響,導致處置不一或產生偏誤。
AI 在此領域具備提升公平性的潛力。透過分析大規模數據,AI可協助識別身心障礙認定或求職強度評估等複雜案件中可能存在的偏差,並在承辦人經驗有限或工作負荷沉重時,輔助提升判定的一致性與準確度。因此,在裁量空間大且易產生偏誤的審查情境中,若能同步建立完善的監督與防護機制,AI 有望改善判定的一致性,進而促進審查程序的公平性。
四、治理挑戰與 OECD 建議
先進數位技術雖能提升社會保障方案的設計品質、執行效率與涵蓋範圍,但其導入也使政府面臨高度複雜的治理挑戰。尤其在社會保障與公共服務領域,若缺乏完善的問責架構與程序,資料驅動與自動化技術反而可能削弱民眾權益、降低參與感,並減損對政府的信任。OECD《人工智慧原則》因此明確主張,AI 系統的相關參與者必須依其角色與脈絡,對 AI 系統的正常運作負起責任。
(一) 國際失敗案例的治理警示
近年多起國際事件突顯了自動化決策的潛在風險。荷蘭政府於 2005 至 2019年間運用演算法輔助托育補助審查,卻因模型內含帶有偏見的判斷標準,例如將「外國姓名」或「雙重國籍」視為高風險特徵,導致約 26,000 個家庭被錯誤標示為詐欺。許多家庭被迫償還合法取得的補助金,背負鉅額債務,甚至失去工作或住所,亦有超過 1,000 名兒童因此被送入安置機構。事後,荷蘭政府全面盤點公共部門的 AI 應用,並設置倫理審查委員會以加強事前把關。
澳洲於 2015 年推行的 Robodebt 計畫同樣展現了自動化流程的風險。此計畫透過比對申報紀錄與稅務資料,自動判定溢領並寄送追繳通知。然而,前述的比對方式不夠精確,導致大量合法領取補助的民眾遭受誤判,並被迫自行舉證以證明清白,引發社會強烈反彈。官方調查指出,該計畫在制度設計、監督程序與責任釐清上存在重大缺陷,並建議相關單位全面檢討與改進自動化審查流程。
(二) 建立可信賴 AI 的制度基礎
上述案例顯示,自動化決策若缺乏透明性、可解釋性與必要的人為監督,偏誤恐迅速擴大並造成制度性傷害。為了降低風險,部分國家已在社會保障等高敏感領域採取更審慎的作法。例如,英國就業與退休金部(DWP)設立「AI 燈塔計畫」(AI Lighthouse Programme),以安全、合乎倫理且透明的等原則測試生成式 AI 的應用。
OECD主張透明性、可解釋性與人類參與是「可信賴 AI」的關鍵。自動化程序應具備可理解與可追溯的決策流程,並保留人員於必要時參與複核或修正系統判斷的機制。相關國際規範也正逐步強化治理要求,如歐盟《AI 法案》將涉及公共福利資格判定的 AI 系統列為「高風險」,要求必須具備嚴謹的紀錄保存、審查流程與人工監督程序,以全面提升系統的可監督性與安全性。
(三) 結論
在氣候變遷、人口高齡化等趨勢下,社會保障需求持續增加。而在行政資源有限的情況下,如何提升審查效率與一致性已成為各國共同面臨的挑戰。AI 雖有助於優化作業流程、提升資源配置效率並強化服務可近性,但其效益必須奠基於健全的治理架構。OECD 指出,政府需確保系統運作具備透明性、問責性及適當的人為監督,以降低自動化帶來的潛在風險,並確保社會保障制度得以安全與公平地運作。