焦點報導

首頁> 焦點報導清單> 歐盟「在研究中負責任地使用生成式人工智慧」指引

歐盟「在研究中負責任地使用生成式人工智慧」指引

張曉琪、張艾琦/ 發布日期:2025/05/21/ 瀏覽次數:378

一、前言

生成式人工智慧(Gen AI)正改變人們生活與工作的方式,同時亦成為科學研究的重要輔助工具,協助研究人員彙整資料、撰文、編寫程式碼等,有助於加速科學發現並提升研究效率。然而,生成式AI所引發的著作權與倫理等爭議,也引起全球研究機構的高度關注。

歐盟透過歐洲研究區論壇(European Research Area Forum),彙集歐洲各國科研與創新領域相關利害關係人之意見,並依據「歐盟研究誠信行為準則」(European Code of Conduct for Research Integrity)與「可信賴人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI)等規範,於2024年3月發布「在研究中負責任地使用生成式人工智慧指引」(Living Guidelines on the Responsible Use of Generative AI in Research),由於生成式AI技術快速發展,相關政策亦不斷調整,歐盟將持續更新該指引,並已於2025年4月發布第二版。

該指引旨在建立共通原則,協助研究人員與相關單位理解如何負責任地使用生成式AI。指引提出四大關鍵原則,分別為:確保研究的可信度、誠實與透明地使用生成式AI、尊重各方權益,以及對研究流程及成果負責等,並分別就研究人員、研究機構,以及科研經費補助單位提出具體建議。

 

 

二、對研究人員的建議

(一)對研究成果負最終責任研究人員應為由AI工具產出的內容負起完整的學術責任,需瞭解AI工具可能存在偏見、虛構內容(hallucinations)與不正確資訊等限制,且研究人員應完整承擔作者身分與責任,不應將AI系統列為作者或共同作者。

(二)公開透明地使用生成式AI:研究人員應在研究中記錄其大量使用的生成式AI工具,包括名稱、版本、使用方式與對研究結果的貢獻等,並根據開放科學(open science)原則公開指令(prompt)與生成結果等資料。同時應揭露AI工具的侷限與潛在偏誤,並提出因應措施。

(三)留意隱私、機密性和智慧財產權等相關議題:由於上傳至AI系統的資料可能被用於訓練AI模型或其他用途,研究人員應避免將尚未發表的著作、機敏資料或個人資料上傳至公開的AI系統。同時應主動查明AI工具管理單位之背景、隱私設定與運作環境等資訊,以評估其風險與可靠性。

(四)遵守AI相關之法規規範:研究人員使用生成式AI時,應遵守國內、歐盟及國際相關法律規定,尤其注意智慧財產權與個人資料保護。AI生成內容可能基於他人著作,應正確標示資料來源以尊重原作者的著作權。若產出的內容涉及個人資料,應確保使用方式符合個資保護原則。

(五)持續學習正確應用生成式AI的方法生成式AI工具快速發展,為充分發揮效益,研究人員應持續學習正確的使用方式,掌握最新的使用方法與最佳實務。另應根據任務需求選擇最合適的AI工具與指令,以節約能源,致力於降低AI應用對環境造成的負面影響。

(六)避免在同儕審查或研究計畫評選等程序中大量使用生成式AI工具:在涉及其他研究人員或研究機構之重要評選程序中,研究人員應避免大量使用生成式AI工具,以免因AI產生的誤導性資訊或偏見而影響公平性,並且保護他人尚未公開發表之著作內容,避免其資料被AI工具擷取。

 

三、對研究機構的建議

(一)推動並指導研究人員負責任地使用生成式AI:研究機構應為研究人員提供使用生成式AI的培訓,內容可包含生成內容的驗證、隱私、偏見處理等議題。同時,研究機構應鼓勵研究人員透明揭露生成式AI使用情形,且確保不會因此受到負面影響。另研究機構應提供支援和指引,確保研究行為符合倫理與法規。

(二)持續關注組織內部生成式AI系統的發展與使用情形:研究機構應掌握研究人員在研究過程中使用生成式AI的情況,以利未來提供指引、培訓與必要支援,同時預防誤用或濫用,並可與科研社群分享相關經驗。機構也應評估AI技術的侷限,向研究人員提供建議。此外,生成式AI需耗費大量電力與水資源,研究機構應掌握機構內部的能源消耗情形,並協助員工選擇更永續的AI工具和使用方式。

(三)將生成式AI的使用指引納入研究倫理規範中:建議研究機構應以此篇指引為基礎,廣泛徵詢研究人員與利害關係人的意見,針對生成式AI的使用與政策進行公開討論,如需補充具體建議或例外情形,也應公開說明。

(四)優先導入由機構自建或管理的生成式AI工具,以強化對系統運作與資料安全的掌握:機構應確保相關工具,尤其是與網際網路連接的系統,具備適當的資安防護。

 

四、對科研經費補助單位的建議

(一)促進並支持負責任的生成式AI研究應用:科研經費補助單位應設計完善的資助機制,以鼓勵在研究中負責任且合乎倫理地使用生成式AI,並要求受補助者遵守國內、歐盟及國際相關規範,同時推動所有研究相關人員依法且符合研究標準地使用生成式AI。

(二)確保以透明和負責任的方式使用生成式AI:經費補助單位在其業務中應以透明且負責任的方式使用生成式AI,需承擔全責並確保有人為監督。AI可用於優化內部流程,但不得參與科研內容的評審和評估。此外,經費補助單位在選擇生成式AI的智慧工具時,應審慎評估其品質、誠信、資料保護、智慧財產權與對環境影響等。

(三)要求申請者揭露其研究提案中使用AI的情形:申請人需聲明是否大幅使用生成式AI工具來準備申請,並提供AI在研究活動中的應用方式。經費補助單位應營造一個讓研究人員能夠放心揭露使用生成式AI的氛圍。

(四)密切關注並積極參與生成式AI領域:推動並資助在科學研究中合乎倫理且負責任地使用AI的培訓與教育計畫。

延伸閱讀
資料來源