檢測到您的瀏覽器版本過低,可能導致某些功能無法正常使用,建議升級您的瀏覽器,或使用推薦瀏覽器 Google Chrome 、Edge、Firefox 。 X
2025年7月10日,歐盟委員會發布《通用人工智能實踐準則》(General-Purpose AI Code of Practice,以下簡稱“準則”)的最終版本。這份具有行業指導性的政策文件,標志著歐盟在全球通用人工智能(General Purpose AI,GPAI)治理方面邁出了關鍵一步。該準則不僅為模型提供商履行歐盟《人工智能法案》的合規義務提供了操作性參考,更釋放出歐盟在塑造全球AI發展規則中追求“卓越與信任”的戰略信號。
一、推動《人工智能法案》落地實施
歐盟《人工智能法案》自2024年8月1日生效以來,被視為全球首部全面監管AI技術的法律框架。法案采用分級風險監管方法,將人工智能系統分為最低風險、有限風險、高風險、不可接受風險四個風險等級。其中,通用人工智能模型被設定了專屬規則,其透明度、版權合規以及系統性風險控制被列為關鍵監管內容。
此次《準則》的發布正是為了補足《人工智能法案》在落地層面的技術與管理缺口。該準則由13位獨立專家撰寫,參考了來自逾千名利益相關方(涵蓋模型開發者、中小企業、學者、版權持有者、民間團體等)的反饋,《準則》具備高度包容性與實操性。盡管簽署屬于自愿行為,但已被視作模型提供商獲得監管認可信任的重要“通行證”。
歐盟明確表示,2025年8月2日起,GPAI相關義務將正式生效。一年后將首先適用于市場上新發布的模型;兩年后,現有模型也需全面遵守。這一過渡機制體現了監管與創新之間的平衡理念。
二、《準則》聚焦透明度、版權、安全與保障
《準則》共分為三大章節,分別聚焦于透明度、版權、安全與保障,體現了歐盟對GPAI技術基礎、內容來源與系統性風險的全面治理。
1、透明度:標準化信息披露機制
《準則》的透明度章節明確了以下幾點核心要求:
模型文檔標準化:所有提供商需填寫《模型文檔表》(Model Documentation Form),內容涵蓋模型架構、數據來源、訓練過程、輸入輸出模態、許可類型及使用限制等。該表不僅需隨模型更新同步修訂,還需保存歷史版本至少10年。
分級披露機制:對不同主體(如:人工智能辦公室AIO、下游開發者等)設定差異化信息披露范圍和響應時限。下游方提出信息請求時,需在14天內回復。
信息安全保障:強調網絡安全技術保護機密數據,同時確保披露信息的真實性與完整性。
該機制一方面增強了GPAI的可解釋性,有助于下游系統集成開發者履行各自義務;另一方面,也保障了知識產權與商業機密的安全,降低了企業合規的顧慮。
2、版權:明確合法使用和責任歸屬
在GPAI訓練過程中獲取和使用海量互聯網內容已成行業常態,但版權風險日益凸顯。《準則》版權章節圍繞合法內容獲取、侵權風險防控等關鍵問題,提出以下措施:
版權政策制定與披露:模型提供商需建立清晰的內部版權合規政策,并定期更新,鼓勵向公眾披露版權政策摘要。
網絡爬取合規化:嚴禁繞過內容平臺的付費墻或訂閱限制,明確排除侵權網站作為訓練數據來源。
識別權利聲明:要求遵守“爬蟲排除協議”(Robots Exclusion Protocol),并支持歐盟統一的權利保留標準開發,確保機器可讀的版權聲明不被忽略。
防止侵權輸出:部署技術手段防止模型生成明顯侵犯版權的內容,并在使用政策中明令禁止相關用途。
建立申訴機制:設立版權方聯系窗口,便于權利人提交投訴并獲得回應。
通過這一系列細化操作指南,歐盟意圖引導AI開發者在促進創新與遵守版權之間找到更清晰的界限,建立行業長期發展的正向機制。
3、安全與保障:針對系統性風險的治理體系
通用人工智能模型中最先進的一部分,因其可能具備極高的能力(如自主生成敏感信息、操作生物化學知識等),被認定具有“系統性風險”。該章節僅適用于此類模型(如OpenAI的GPT-4、Meta的Llama、Google的Gemini、Anthropic的Claude等),其核心內容包括:
風險識別與分類:明確生物安全、人權侵害、模型失控等為高優先級風險,需開發場景化風險模擬與應對方案。
全生命周期管理機制:模型上市前需完成系統性風險全面評估;上市后則需持續監控,建立動態調整機制。
安全防護措施:包含數據過濾、接口權限控制、參數加密、員工背景審查等,防止外部濫用與內部泄露。
第三方審查機制:要求部分模型在關鍵階段需接受獨立安全測試,如紅隊測試等。
該章節特別強調企業需在內部確立安全責任體系,并定期向AIO報送《安全與保障模型報告》。對于中小企業而言,部分簡化要求亦得以保留,以兼顧監管公平與發展活力。
三、信任與卓越:歐盟AI發展戰略底色
《準則》的出臺并非孤立事件,而是歐盟系統性AI戰略的自然延伸。
2025年4月發布的《歐洲人工智能大陸行動計劃》提出,要在全球范圍內打造“可信賴的AI力量”,強調以基本權利、民主價值與技術安全為基礎推動AI發展。配合“數字歐洲”和“地平線歐洲”計劃,歐盟每年將在AI領域投入至少10億歐元,并吸引更多私人資本,力爭未來實現每年200億歐元的AI投資。
在法規治理方面,歐盟已相繼出臺《人工智能法案》《人工智能責任框架》《數據治理法案》《網絡安全戰略》等配套政策,并設立歐洲人工智能辦公室(AIO),以實現監管統一化、標準清晰化、執行高效化。
在全球AI技術和規則博弈日趨激烈的當下,歐盟試圖通過法治與合作路徑,建立一個既安全又創新的AI生態,這一模式或將成為全球AI治理的重要參考。
四、后續步驟與政策展望
《準則》一經獲得歐盟委員會和成員國正式認可,簽署方將可在證明合規方面享受更低行政負擔與更高法律確定性。這將成為企業獲取市場信任與監管支持的雙重憑證。
展望未來,歐盟將在AI治理方面持續推動“協作式合規”,推動GPAI開發者、版權方、行業協會與監管機構共建共治。通過構建“技術透明—法律合規—安全保障”的三位一體架構,歐盟意圖實現“可信AI”的產業升級路徑。
資料來源:
1、European Commission. General-Purpose AI Code of Practice now available[EB/OL]. (2025.7.10). https://ec.europa.eu/commission/presscorner/detail/en/ip_25_1787
2、European Commission. The General-Purpose AI Code of Practice[R]. (2025.7.10). https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai
3、Reuters. EU's AI code of practice for companies to focus on copyright, safety[EB/OL]. (2025.7.11). https://www.reuters.com/business/eu-code-practice-help-firms-with-ai-rules-will-focus-copyright-safety-2025-07-10/