守則草案概覽
歐盟《AI法案》(AI Act)是全球首個全面的AI監管法律框架。作為該法案的一部分,歐盟委員會發布了通用AI模型(General-Purpose AI, GPAI)實踐守則的首份草案。
這份守則針對所有在歐盟市場提供大語言模型和其他通用AI系統的公司,包括OpenAI、Google、Anthropic、Meta和其他主要AI開發商。
核心要求
守則草案包含三大核心要求領域:
1. 透明度義務
- 模型卡片:詳細記錄模型能力、限制和預期用途
- 訓練數據披露:描述訓練數據的來源和處理方式
- 評估結果:公開模型在標準基準上的表現
- 能力邊界:明確說明模型的局限性
2. 版權合規
- 訓練數據記錄:保留使用版權材料的詳細記錄
- 退出機制:尊重版權持有者的退出(opt-out)請求
- 摘要發布:公開訓練數據來源的「足夠詳細」摘要
- 投訴處理:建立處理版權投訴的機制
3. 系統性風險評估(針對高能力模型)
- 風險識別:識別模型可能帶來的系統性風險
- 緩解措施:實施風險緩解措施
- 安全測試:進行對抗性測試和紅隊評估
- 事件報告:向監管機構報告嚴重事件
高能力模型標準
訓練計算量超過10^25 FLOP的模型被視為「高能力」模型,需要遵守額外的系統性風險評估要求。目前只有少數模型達到這一門檻。
時間表
守則的實施遵循以下時間表:
- 2026年2月:首份草案發布,開放公眾諮詢
- 2026年4月:第二份草案發布
- 2026年8月:最終守則生效
- 2027年2月:系統性風險條款全面實施
對科技公司的影響
這份守則對主要AI公司有不同程度的影響:
OpenAI
作為GPT系列的開發商,OpenAI需要大幅提高透明度,特別是關於訓練數據的披露。這可能與其商業保密策略產生衝突。
Google的Gemini模型需要遵守同樣的要求,但Google在歐盟有更深的運營根基,可能更容易適應。
Meta
作為開源模型Llama的開發商,Meta面臨獨特的挑戰——開源模型的下游使用更難控制。
Anthropic
Anthropic的Claude模型需要遵守透明度要求,但其「負責任AI」品牌定位可能使合規更為自然。
版權爭議
守則草案中的版權條款引發了激烈爭論:
AI公司立場
AI公司認為過於嚴格的版權要求可能:
- 阻礙創新
- 使歐洲AI開發處於劣勢
- 披露商業敏感信息
版權持有者立場
出版商和創作者認為:
- 當前披露要求不夠具體
- 需要更強的執行機制
- 應該有公平的補償機制
全球影響:布魯塞爾效應
歐盟AI法案可能產生「布魯塞爾效應」——成為全球AI監管的事實標準:
- 市場准入:要進入歐盟市場必須合規
- 統一標準:公司可能選擇全球統一遵守歐盟標準
- 政策擴散:其他國家可能參考歐盟法規制定自己的規則
對香港的啟示
歐盟AI法案對香港有多重啟示:
政策制定
香港正在考慮自己的AI治理框架。歐盟的經驗可以提供參考,但也需要考慮本地實際情況。
企業合規
香港企業如果使用或部署AI系統服務歐盟客戶,需要了解這些新要求。
競爭優勢
如果香港採取更靈活的監管方式,可能吸引尋求監管避風港的AI公司。
大灣區整合
香港的AI政策需要考慮與中國內地的協調,這增加了複雜性。
行業反應
行業對守則草案的反應不一:
「我們歡迎明確的規則,但擔心某些要求可能過於模糊或難以執行。」
「這是朝著正確方向邁出的一步,但需要更強的執行機制。」
結語:AI治理的新時代
歐盟通用AI守則草案的發布標誌著AI治理進入新階段。這不再是關於是否需要監管的辯論,而是關於如何監管的具體實施。
對於AI公司而言,合規將成為進入全球最大市場之一的門票。對於用戶而言,這意味著更多的透明度和更強的保護。對於政策制定者而言,歐盟的經驗將成為重要參考。
AI監管的全球格局正在形成,而歐盟正在塑造其輪廓。