新知特寫

首頁> 新知特寫> MIT團隊開發出高效率的隱私保護技術 以確保 AI 訓練資料安全
MIT團隊開發出高效率的隱私保護技術 以確保 AI 訓練資料安全 New Method Efficiently Safeguards Sensitive AI Training Data
隨著人工智慧(AI)應用日益普及,如何在維持模型效能的同時,確保使用者敏感資料(如醫療影像與財務紀錄)的隱私安全,成為一項重大挑戰。過去常見的做法是透過加入隨機雜訊來隱藏敏感資訊。儘管此方式能提升隱私性,卻往往造成模型準確度下降。為解決此問題,麻省理工學院(MIT)研究團隊設計出名為「PAC Privacy」的隱私保護框架,致力於在保障隱私與維持模型性能之間取得平衡。近期,研究團隊進一步優化該框架,推出計算效率更高的且能廣泛應用於各類演算法的新方法,且無需了解模型的內部運作機制亦能使用。此方法只需從輸出結果的變異數進行分析,即能估算出實現指定隱私保護等級所需的最小雜訊量,因此得以大幅提升計算效率。同時,研究也發現,演算法越穩定,所需加入的雜訊越少,模型效能也越能維持。實驗結果顯示,PAC Privacy 即使面對先進的網路攻擊,仍具高度隱私保護效果。研究團隊未來將持續探索如何從演算法設計階段,即納入穩定性與隱私的考量,以實現效能、穩定性與資料安全三者兼具的 AI 解決方案。
2025/04/11
https://news.mit.edu/2025/new-method-efficiently-safeguards-sensitive-ai-training-data-0411
MIT News
薛孝亭