政策法規

AI安全監管新格局:紐約法案與全球治理挑戰

📅 2026年1月25日 ✍️ AI Academy HK 編輯部 ⏱️ 閱讀時間:8分鐘

2025年12月底,紐約州州長Kathy Hochul簽署了一項新的AI安全法案,聲稱與加州的做法保持一致,使美國朝著統一的先進AI監管框架又邁進了一步。與此同時,全球各地的AI安全監管也在加速成形。對於香港企業而言,理解這些監管趨勢已成為AI戰略的必修課。

紐約RAISE法案:監管什麼?

紐約的RAISE法案(Responsible AI Safety and Ethics Act)與加州的SB 53法案有著相似的架構,兩者都針對「前沿」AI系統——定義為使用超過10²⁶ FLOPs算力訓練的模型。這意味著只有最大型、最強大的AI模型才受到監管。

法案的核心要求包括:

🌍 全球AI監管一覽

  • 歐盟AI法案:最全面的AI監管框架,按風險分級管理
  • 美國(聯邦):行政命令框架,尚無統一立法
  • 美國(州級):加州、紐約等州自行立法
  • 中國:《生成式人工智能服務管理暫行辦法》已實施
  • 英國:採取「促進創新」的輕監管路線
  • 香港:跟隨國家政策,研究制定本地指引

醫療AI:FDA監管放鬆引發爭議

在AI監管的另一個前沿——醫療領域,美國FDA於2026年1月6日發布了更新的臨床決策支持工具指南,放寬了關鍵的醫療器械要求。這意味著許多提供診斷建議的生成式AI工具可能無需經過FDA審查即可進入診所。

這一政策變化引發了醫療界和AI安全研究者的擔憂。當AI系統對患者健康做出建議時,其可靠性和安全性至關重要。放鬆監管可能加速AI醫療應用的普及,但也可能帶來潛在風險。

⚠️ 醫療AI的潛在風險

  • AI「幻覺」可能導致錯誤診斷建議
  • 訓練數據偏見可能影響少數群體
  • 缺乏透明度使醫生難以評估建議可靠性
  • 責任歸屬不明確

AI安全研究:學術界的努力

在監管框架之外,AI安全研究社群也在加速發展。Anthropic宣布開放2026年5月和7月兩期研究員計劃(Fellows Program)的申請,涵蓋可擴展監督、對抗魯棒性與AI控制、機械詮釋性、AI安全等研究領域。

MATS(AI安全研究指導和培訓計劃)作為最大的AI安全人才培養項目,已有446名校友在幾乎所有AI安全組織工作,現正接受2026年夏季項目的申請。FAR.AI也將於2026年3月在倫敦舉辦對齊研討會,聚集研究者和領袖討論AI安全的當前議題。

Nature呼籲:全球合作是必需

《Nature》期刊在最新社論中呼籲全球合作應對AI安全挑戰。社論指出,AI技術需要安全和透明,而在實現這一目標的努力之外幾乎沒有好處可言。

「監管機構看到了公眾對AI風險的焦慮,這種焦慮部分源於公司明確表示要追求通用人工智能的雄心,以及AI先驅對可能的存在性風險的警告。」

這種呼籲反映了一個現實:AI發展是全球性的,單一國家或地區的監管難以有效約束跨國AI公司。沒有國際協調,監管套利的風險將使安全努力大打折扣。

對齊研究:確保AI追求人類目標

AI安全研究的核心議題之一是「對齊」(Alignment)——確保先進AI系統追求與人類兼容的目標。專家持續強調,即使存在性風險的可能性很低,其潛在影響也是災難性的,因此對齊研究必須繼續。

當前對齊研究的主要方向包括:

香港的定位:在監管中尋找平衡

香港作為國際金融中心和中國與世界的連接點,在AI監管方面面臨獨特挑戰。一方面需要與國家政策保持一致,另一方面也需要維持對國際企業的吸引力。

目前,香港尚未出台專門的AI法規,但個人資料私隱專員公署已發布AI使用指引。對於在港營運的企業,建議:

展望:監管與創新的平衡

AI安全監管的核心挑戰在於如何在保護公眾安全與促進創新之間取得平衡。過度監管可能扼殺創新,但監管不足則可能導致危害。

2026年將是AI監管的關鍵一年。隨著更多地區出台法規,企業將需要建立更成熟的合規能力。同時,AI安全研究社群的壯大也為技術層面的解決方案提供了希望。在這個快速變化的領域,保持學習和適應能力是所有參與者的共同課題。

AI安全 AI監管 紐約AI法案 AI倫理 對齊研究 AI治理