資料來源:https://research-and-innovation.ec.europa.eu/document/2b6cf7e5-36ac-41cb-aab5-0d32050143dc_en
AI為研究帶來變革,提升科學工作之效率並加速新發現。儘管生成式AI工具能快速產出文字、圖像及程式碼,研究人員應注及科技有其極限,包含資訊偽造、揭露敏感資訊或AI模型訓練過程中使用具偏見(bias)之資料等。
為支持歐洲研究圈負責任地使用生成式AI,歐盟執委會、歐洲研究區(European Research Area)及利害關係人2024年3月20日共同推出旨揭指南。其內容建構在研究倫理相關原則上(例如歐洲研究倫理行為準則、可信任AI指引等),進一步提供研究人員、研究機構及資助研究者指引,以便提升歐洲研究圈就負責任地使用生成式AI相關認知及守則之一致性。
該指南內容分別就研究人員、研究機構及資助研究組織提供建議,重點如次:
(一)研究人員:須就生成式AI自主或輔助產生之科學結果或內容負最終責任;須不隱藏在研究中使用AI工具之事實;須避免在學術文章同儕審查或評估等敏感程序中使用生成式AI等。
(二)研究機構:須倡議及支持在研究活動中負責任地使用生成式AI;須積極監督其機構中使用生成式AI之情形;須將本指南要點納入其機構之良好研究實踐指引中;須確保機構所開發模式之資安等。
(三)資助研究組織:須倡議及持在研究中負責任地使用生成式AI;倘在審查經費申請案之過程中使用生成式AI,須確保前述工具之品質、中立性、透明性及對個資之保護等;須要求經費申請人告知準備申請過程中是否使用生成式AI;須資助可推廣在研究中負責任使用AI之訓練或教育計畫。
鑒於生成式AI仍蓬勃發展中,歐方後續將參考利害關係人之回饋滾動式更新本案指南內容。