AI安全監管新格局:紐約法案與全球治理挑戰
2025年12月底,紐約州州長Kathy Hochul簽署了一項新的AI安全法案,聲稱與加州的做法保持一致,使美國朝著統一的先進AI監管框架又邁進了一步。與此同時,全球各地的AI安全監管也在加速成形。對於香港企業而言,理解這些監管趨勢已成為AI戰略的必修課。
紐約RAISE法案:監管什麼?
紐約的RAISE法案(Responsible AI Safety and Ethics Act)與加州的SB 53法案有著相似的架構,兩者都針對「前沿」AI系統——定義為使用超過10²⁶ FLOPs算力訓練的模型。這意味著只有最大型、最強大的AI模型才受到監管。
法案的核心要求包括:
- 開發者必須提交正式的安全文件,說明如何識別和緩解「關鍵」或「災難性」風險
- 特別關注可能協助製造CBRN武器(化學、生物、放射性、核)的AI系統
- 監管可能造成超過10億美元經濟損失的AI應用
- 要求建立內部安全評估和外部審計機制
🌍 全球AI監管一覽
- 歐盟AI法案:最全面的AI監管框架,按風險分級管理
- 美國(聯邦):行政命令框架,尚無統一立法
- 美國(州級):加州、紐約等州自行立法
- 中國:《生成式人工智能服務管理暫行辦法》已實施
- 英國:採取「促進創新」的輕監管路線
- 香港:跟隨國家政策,研究制定本地指引
醫療AI:FDA監管放鬆引發爭議
在AI監管的另一個前沿——醫療領域,美國FDA於2026年1月6日發布了更新的臨床決策支持工具指南,放寬了關鍵的醫療器械要求。這意味著許多提供診斷建議的生成式AI工具可能無需經過FDA審查即可進入診所。
這一政策變化引發了醫療界和AI安全研究者的擔憂。當AI系統對患者健康做出建議時,其可靠性和安全性至關重要。放鬆監管可能加速AI醫療應用的普及,但也可能帶來潛在風險。
⚠️ 醫療AI的潛在風險
- AI「幻覺」可能導致錯誤診斷建議
- 訓練數據偏見可能影響少數群體
- 缺乏透明度使醫生難以評估建議可靠性
- 責任歸屬不明確
AI安全研究:學術界的努力
在監管框架之外,AI安全研究社群也在加速發展。Anthropic宣布開放2026年5月和7月兩期研究員計劃(Fellows Program)的申請,涵蓋可擴展監督、對抗魯棒性與AI控制、機械詮釋性、AI安全等研究領域。
MATS(AI安全研究指導和培訓計劃)作為最大的AI安全人才培養項目,已有446名校友在幾乎所有AI安全組織工作,現正接受2026年夏季項目的申請。FAR.AI也將於2026年3月在倫敦舉辦對齊研討會,聚集研究者和領袖討論AI安全的當前議題。
Nature呼籲:全球合作是必需
《Nature》期刊在最新社論中呼籲全球合作應對AI安全挑戰。社論指出,AI技術需要安全和透明,而在實現這一目標的努力之外幾乎沒有好處可言。
「監管機構看到了公眾對AI風險的焦慮,這種焦慮部分源於公司明確表示要追求通用人工智能的雄心,以及AI先驅對可能的存在性風險的警告。」
這種呼籲反映了一個現實:AI發展是全球性的,單一國家或地區的監管難以有效約束跨國AI公司。沒有國際協調,監管套利的風險將使安全努力大打折扣。
對齊研究:確保AI追求人類目標
AI安全研究的核心議題之一是「對齊」(Alignment)——確保先進AI系統追求與人類兼容的目標。專家持續強調,即使存在性風險的可能性很低,其潛在影響也是災難性的,因此對齊研究必須繼續。
當前對齊研究的主要方向包括:
- 可擴展監督:在人類無法直接評估AI輸出時,如何確保AI行為符合人類意圖
- 機械詮釋性:理解AI模型內部的決策過程
- 對抗魯棒性:使AI系統抵抗惡意操縱
- AI控制:確保人類能夠有效監督和控制AI系統
香港的定位:在監管中尋找平衡
香港作為國際金融中心和中國與世界的連接點,在AI監管方面面臨獨特挑戰。一方面需要與國家政策保持一致,另一方面也需要維持對國際企業的吸引力。
目前,香港尚未出台專門的AI法規,但個人資料私隱專員公署已發布AI使用指引。對於在港營運的企業,建議:
- 關注歐盟AI法案的域外效力,如服務歐盟用戶需遵守相關要求
- 建立內部AI治理框架,為未來監管做好準備
- 在AI應用中嵌入安全和倫理考量
- 保持對國際監管發展的關注和適應能力
展望:監管與創新的平衡
AI安全監管的核心挑戰在於如何在保護公眾安全與促進創新之間取得平衡。過度監管可能扼殺創新,但監管不足則可能導致危害。
2026年將是AI監管的關鍵一年。隨著更多地區出台法規,企業將需要建立更成熟的合規能力。同時,AI安全研究社群的壯大也為技術層面的解決方案提供了希望。在這個快速變化的領域,保持學習和適應能力是所有參與者的共同課題。