【創新創業與產經政策】歐盟AI法案正式上路,聚焦透明度與風險管理
自2025年8月2日起,歐盟針對通用型人工智慧(General-Purpose AI, GPAI)模型的AI法案規定正式生效,為全球AI治理立下關鍵里程碑。此法案針對像ChatGPT、Gemini、Claude等具備廣泛應用潛力的AI模型,制定了一系列有關透明度、版權保護與風險管理的義務規範。歐盟執委會也同步釋出三份關鍵文件:適用範圍指南、GPAI自律守則與訓練資料摘要模板,協助業者釐清合規路徑。
根據歐盟指南,凡訓練運算量達到1023 FLOP以上,且能生成語言、圖像或影片的模型,即屬於GPAI範疇。此標準旨在界定能廣泛適應多種任務與應用場景的基礎型模型,並排除專用模型或運算能力較低的模型。這項定義有助於聚焦監管資源於具高度影響力的模型供應者。
GPAI模型一旦整合於應用程式或AI系統並於歐盟市場首次推出,即視為「上架」。即使開發者位於歐盟境外,亦須承擔相應法規義務。若下游企業修改模型至顯著改變原有功能、風險或普遍性,亦會被視為新的提供者,需負起部分或全部的合規責任。
歐盟鼓勵業者簽署GPAI自律守則,涵蓋透明性、版權與安全性三大章節。守則雖非強制,但簽署者可獲得較少的監管壓力與加分考量,尤其在判定違規罰責時能視為減責因素。若未簽署守則,則需提供替代性合規證明,如與守則比對的落差分析報告等。
為提升訓練過程透明度,GPAI模型提供者須使用歐盟提供的模板公開訓練資料來源,並細分為公開數據集、授權資料、爬蟲抓取資料、用戶資料、合成資料與其他類型。對於透過爬蟲取得的內容,更須揭示前10%最常抓取網站域名,並說明如何保障著作權與移除非法內容。
針對訓練量超過1025FLOP的「具系統性風險」模型,提供者須額外履行包括風險評估、事件通報與網路資安維護等安全義務,並定期更新風險控管機制。這一章節被視為合規負擔最重、技術門檻最高的部分,對於OpenAI、Google、Amazon等大廠而言意義重大。
對於2025年8月2日之前即已上架的GPAI模型,歐盟給予兩年過渡期至2027年8月2日。若當初訓練資料已無法取得,或重新訓練會造成過度負擔,業者可免於「回溯補訓」,但需在版權政策與資料摘要中清楚揭示與說明理由。
儘管歐盟AI法案受到某些版權團體批評為未能全面保障智慧財產權,但多數觀察者認為這是全球第一套具法律約束力、涵蓋完整AI供應鏈風險管理的制度。它將成為跨國企業AI合規的依歸,也為其他國家提供法規設計範本。
參考來源:科技產業資訊室(https://pse.is/82s3lj)