科技議題

首頁> 科技議題 - 智慧科技> 人工智慧與 OECD 國家社會安全的未來
人工智慧與 OECD 國家社會安全的未來 AI and the Future of Social Protection in OECD Countries
2025/06
Organization for Economic Co-operation and Development (OECD)
https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/06/ai-and-the-future-of-social-protection-in-oecd-countries_038f49ed/7b245f7e-en.pdf
一、各國如何運用資料與科技現代化社會保障
在二十一世紀,OECD 各國政府越來越依賴數據與數位技術,來改善社會保障服務的品質與效率。傳統上,公民與政府的互動往往充滿冗長的行政程式,而數位化的出現,正在徹底改變這種「官僚式互動(bureaucratic encounter)」。目前,愈來愈多服務轉移到線上,使機構能將有限人力集中於需要複雜協助的個案。

其中一項關鍵轉變是跨部門資料的串聯。透過連結行政資料,政府能降低民眾申請福利的負擔,同時更容易掌握福利的涵蓋率與未使用情況。對於經費緊縮、資源有限的國家而言,這些工具能有效提升效率並減少成本。

然而,與私人部門相比,公部門在使用先進技術與數據連結上仍顯落後;而在公共服務的各領域中,社會保障的數位化程度又低於醫療保健。這也解釋了為何許多國家雖然看好人工智慧能帶來的變革,但仍然保持謹慎。畢竟,AI 技術的發展速度驚人,應用範圍廣泛,風險與挑戰同樣巨大。

AI 的潛力在於,它能協助政府更精準地設計政策、更快速地處理申請、更有效率地發放福利,甚至能預測需求與社會衝擊,降低資源錯配的情況。例如,美國衛生與公共服務部已公開超過 270 項 AI 應用案例,而歐盟各國也逐步將 AI 導入社會服務。不過,這些進展同時伴隨社會疑慮。大量敏感數據的使用引發隱私問題,決策自動化可能削弱透明度,甚至再製偏見。正因如此,民眾對政府在社會服務中使用 AI 的信任度仍舊有限。

二、以客戶支援與自動化為核心的應用
目前,最常見的用途包括了客服支援、後台流程自動化,以及錯誤與詐欺偵測等。

(一) 智慧客服與聊天機器人
許多國家已經部署 AI 聊天機器人,24 小時提供多語言服務。例如,芬蘭的社會保險機構開發了雙語(芬蘭語與瑞典語)的聊天助手,協助民眾查詢育兒津貼等福利,甚至能依據申請過程中的情境,提供個人化建議。韓國則開發能「記住對話內容」的 AI 助手,每週主動致電民眾,關心其生活狀況。美國在疫情期間廣泛部署聊天機器人回應補助相關問題,有效分擔人工服務壓力。

(二) 後台行政流程自動化
除了對外服務,AI 也逐步滲入後台流程。例如,加拿大透過自然語言處理,自動審閱就業紀錄中的文字備註,減少人力負擔。奧地利則運用影像辨識加速醫療費用核銷,甚至用語音系統來分流電話。這些技術不僅提升效率,也釋放出更多時間,讓社工能專注於需要人性化關懷的個案。

(三) 錯誤與詐欺偵測
AI 也被廣泛應用於偵測不當申領。例如,韓國利用龐大的健保數據庫,透過智慧審計演算法預測可能涉及詐欺的醫療機構。葡萄牙則利用人臉與聲音辨識,確認海外退休公務員仍健在,以避免不當給付。這些應用雖提升效率,但若演算法存在偏見,可能導致嚴重的不公正案例。荷蘭 2005 至 2019 年的托育補助醜聞,就是因歧視性演算法誤將上萬家庭標記為詐欺,最終引發政府辭職與社會震盪。

三、預測分析與個別化介入:AI 的下一步
AI 在社會保障的未來發展中,預測分析與客製化介入被視為最具潛力的領域。
(一) 預測需求與社會衝擊
德國已利用 AI 模型預測工地意外風險,將有限的檢查資源分配給最需要的企業,據估計五年內可節省 2.5 億歐元賠償與康復成本。非洲多哥也曾利用 AI 預測洪水,提前通知居民並釋放資金,降低災害衝擊。這些案例顯示,AI 的角色不僅止於事後補救,更能提前介入以降低風險。

(二) 輔助決策與早期介入
AI 能快速處理複雜數據,幫助政府辨識風險並優先介入。例如,美國洛杉磯與研究機構合作,利用 AI 預測誰最可能陷入首次無家可歸,並及早聯繫與協助。英國則開發工具,透過公用事業費用紀錄判斷誰有失去住所的風險。

(三) 提升服務可近性與降低福利未申領情況
OECD 長期關注一個問題:許多真正需要幫助的人,卻從未申請過應有的福利。這些「隱形需求」往往因資訊不足或不願接觸政府而被忽略。馬德里市政府利用 AI 自動撥打電話給 75 歲以上的長者,詢問其孤獨感與支持網絡,結果發現並協助了數百名潛在的高風險長者。此類主動介入策略,正凸顯 AI 在提升服務觸及上的關鍵價值。

(四) 個別化與客製化介入
韓國的勞工災害補償機構開發了「智慧復健建議系統」,透過累積數億筆勞工資料,為受傷工人量身打造復健方案,並由專家確認後執行,大幅提升回到職場的比例。丹麥則使用機器學習預測長期失業風險,輔助就業顧問決策。西班牙巴塞隆納甚至用演算法分析 30 萬份面談紀錄,為社工提供建議資源,雖然最終決定仍由人員掌握,但大幅提升效率。

四、確保 AI 安全與可信的制度保障
人工智慧雖然能為社會保障帶來效率與創新,但同時也伴隨複雜而嚴重的風險。

(一) 失敗案例帶來的警示
過去幾年,已有兩個國際知名的案例,成為「AI 應用失當」的反面教材。第一個是荷蘭的「托育補助案」。從 2005 年到 2019 年,荷蘭稅務機關利用演算法檢查育兒補助的申請,結果因演算法中隱含的歧視性因素(例如「外國名字」或「雙重國籍」)而將近 26,000 個家庭誤判為詐欺,強迫他們歸還其實合法的補助金。許多家庭因此陷入債務、失去工作,甚至有超過 1,000 名兒童被迫送入寄養。此事件不僅導致內閣總辭,也迫使荷蘭社會正視『制度性種族歧視』的問題。如今,荷蘭政府在所有 AI 計畫中都會設置倫理諮詢委員會,以避免類似悲劇再度發生。

第二個案例是澳洲的「Robodebt 計畫」。2015 年,澳洲政府推行自動化系統,透過比對稅務與社會補助資料,計算受助者是否多領福利。然而,這個系統採用了有缺陷的「收入平均法」,結果大量錯誤判定,使數以萬計的低收入家庭收到債務追繳通知,必須自行舉證自己沒有詐欺。直到 2019 年,這套系統才被全面叫停。後來的皇家調查委員會認定這是嚴重的系統性錯誤,並提出 57 項改革建議。

這兩個事件共同顯示:當政府過度依賴黑箱式演算法,而沒有透明、審查與人工介入時,後果可能極為嚴重,不僅傷害了弱勢群體,更摧毀了社會對政府的信任。

(二) 為什麼需要透明與可解釋性
AI 技術的一大挑戰在於「黑箱效應」。許多演算法尤其是深度學習模型,輸入資料後雖然能得出結果,但過程卻難以被一般人理解。對民眾來說,如果他們被拒絕領取某項補助,卻無法知道原因,這將造成強烈的不信任感。因此,OECD 的《人工智慧原則》明確指出,AI 系統必須具備「透明性」與「可解釋性」。

(三) 國際規範與法規
除了 OECD 的原則,歐洲聯盟的《AI 法案》更進一步,將「涉及社會保障與福利審查的 AI 系統」明確列為「高風險應用」。這意味著,只要 AI 涉及資格審查、給付核定或補助取消,就必須滿足嚴格的安全與責任要求,包括:須有人類在決策流程中的參與;須能提供上訴與申訴的管道;須保留決策紀錄,以便後續追蹤與審查等。

同時,歐盟的 GDPR(通用資料保護規則)也賦予民眾權利,不得完全被「自動化決策」左右,除非在特定條件下並有明確的保障措施。這進一步強化了 AI 在社會保障應用上的監管強度。

(四) 問責、監督與人工介入的必要性
OECD 強調,任何 AI 系統必須有明確的責任歸屬。當自動化決策造成傷害時,應該要有明確的程式來追查責任人與補救措施。同時,人類必須被納入決策流程中,以確保 AI 不是唯一的仲裁者。

然而,如何界定「人類在迴路中的角色」仍是難題。例如:需要什麼樣的專業知識,才能有效監督 AI 的判斷?如果人類只是機械性地簽核 AI 的建議,是否真的算是有效監督?一旦 AI 系統導致錯誤,人類與系統開發者之間的責任應如何劃分?這些問題顯示,責任體系的建立不僅是技術議題,亦涉及法律、倫理與制度設計。

(五) 能力建構與專業培訓
除了制度面,人才培訓同樣重要。前線的社會服務人員必須理解 AI 的運作,能夠向民眾清楚解釋 AI 的判斷邏輯,並提供上訴與補救資訊。若政府完全依賴外部供應商開發演算法,而缺乏內部專業,就無法有效監督與說明。

因此,OECD 建議各國應在內部培養 AI 專業能力,或至少建立跨領域團隊,確保能理解並掌控外包廠商的系統。甚至,法律工作者、法官與仲裁人員也需要學習 AI 的基本原理,才能在發生爭議時做出合理判斷。

(六) 展望未來
隨著人口老化、氣候變遷與數位化加速,社會保障的需求只會日益增加,而資源卻日益有限。在這種情況下,AI 的吸引力只會越來越大。但正因如此,更需要建立嚴謹的安全保障。透明度、問責性、可解釋性與人類監督,必須成為不可或缺的基礎。

五、結論
人工智慧正逐步進入社會保障領域,帶來前所未有的可能性。它能提升效率、縮短處理時間、減少詐欺,並改善服務的可近性,甚至透過預測分析,在危機發生前就介入。然而,它同樣帶來隱私、偏見、透明度與責任歸屬等難題。目前,OECD 各國仍以小規模試點為主,集中於客服支援、自動化流程與詐欺偵測。未來若要深化應用,政府須明確界定 AI 的適用範圍與方式,並確保透明度與民眾參與。
高飛
英文