美國AI問責立法進展:各州帶頭推動,聯邦層級激烈辯論中
AI Accountability in 2026: State Laws Take Effect as Federal Proposals Compete
2026年,美國的 AI 問責制度正在「由下而上」逐步成形——各州已走在聯邦政府前面,率先實施 AI 監管法規,而華盛頓則在兩種截然不同的立法方向之間激烈拉鋸。
各州帶頭:偏見審計已成法律要求
紐約市 Local Law 144 持續作為全國參考基準,要求所有用於雇用決策的自動化工具每年接受獨立偏見審計,雇主必須提前10天通知應徵者,並公開發布審計摘要。
伊利諾州 HB 3773(2026年1月1日生效)明確禁止雇主以 AI 為基礎進行帶有歧視性的就業決策,草擬規則要求雇主每當使用 AI 影響就業決定時,必須通知員工與求職者。
科羅拉多州 AI 法案(SB 24-205,2026年6月30日生效)要求「高風險」AI 系統的開發者與部署者採取合理措施防止演算法歧視,並實施風險評估與消費者通知義務。
聯邦層級:兩條路線的角力
在聯邦層面,目前有兩套法案代表不同方向的競爭。TRUMP AMERICA AI Act(參議員 Marsha Blackburn 提出)採取對業界較友善的框架,擬對AI開發者課加「注意義務」(duty of care),並預計凌駕各州法規,防止監管碎片化。另一方面,AI 公民權利法案(AI Civil Rights Act)由 Markey 和 Clarke 議員提出,要求對影響房屋、就業、貸款、醫療等重要決定的 AI 系統,強制實施部署前評估與第三方偏見審計,並授予 FTC 和司法部新的執法權力。
企業合規壓力升溫
無論聯邦方向如何,各州法規的生效已對在美國使用 AI 輔助決策的企業形成實質合規壓力,特別是在人資、金融服務與醫療領域。AI 倫理與合規已從自願性承諾演變為法律義務,企業須盡快建立相應的審計與文件制度。