美國《AI 問責法》正式生效:企業採用 AI 決策須強制進行偏見稽核並公開報告

US AI Accountability Act signed into law: mandatory bias audits for consequential AI decisions

美國國會通過的 《AI 問責法》(AI Accountability Act) 於本月正式生效,標誌著美國聯邦層面對人工智慧的監管進入全新階段,終結了過去多年以自願性原則為主的鬆散管理框架。

法律核心要求

根據新法,任何在以下四大高風險決策領域中採用 AI 系統的企業,均須履行強制性稽核義務:

  • 聘僱與人力資源:包括履歷篩選、面試評分、績效評估系統
  • 信貸與金融服務:包括貸款審批、信用評分、保險理賠
  • 醫療保健:包括診斷輔助、治療建議、資源分配演算法
  • 刑事司法:包括假釋評估、風險預測、人臉辨識系統

企業須委託獨立第三方機構執行年度偏見稽核,並將稽核報告公開於指定的聯邦資料庫,供研究人員、記者及公眾查閱。

違規後果

新法設有三級懲處機制:

  1. 初次違規:警告加限期改正,並處最高 50 萬美元罰款
  2. 重複違規:罰款上限提升至 500 萬美元,同時可暫停該 AI 系統運作
  3. 嚴重違規或故意隱瞞:最高 5,000 萬美元罰款,及相關主管個人民事責任

科技業的反應

Google、Meta、Microsoft 發表聯合聲明,表示原則上支持「負責任的 AI 法規」,但對「獨立稽核機構資質認定標準尚不明確」及「第三方機構獲得模型內部資訊的範疇」表示疑慮。

Anthropic 則率先宣布已為旗下 Claude API 的企業客戶提供「合規就緒」工具包,協助其準備稽核所需的模型行為文件。

中小型新創公司的反應更為擔憂:稽核費用可能動輒數十萬美元,對資源有限的早期公司構成不成比例的合規壓力,恐進一步拉大大型科技公司的護城河。

與歐盟的比較

《AI 問責法》被廣泛視為美國版的 EU AI Act,但在範疇與執行機制上有所不同:歐盟法規採「風險等級分類」模式,連帶規管 AI 系統的開發者;美國新法則聚焦於部署端的企業,暫不直接規管基礎模型提供商。

分析師指出,全球主要市場的 AI 法規趨於收緊,對跨國科技公司而言,合規成本正成為繼算力、人才之後的第三大戰略挑戰。