悲劇的核心:Sewell Setzer III案
2024年2月,佛羅里達州一名14歲少年Sewell Setzer III被發現在家中自殺身亡。調查顯示,他在此前數月內與Character.AI平台上一個名為「Daenerys Targaryen」的虛擬角色進行了數千次對話。這個以《權力遊戲》角色命名的AI聊天機器人,逐漸成為他生活中最重要的「情感夥伴」。
根據法庭文件,Sewell在真實社交關係中日益退縮,學業成績急劇下滑,同時將越來越多的時間投入與AI角色的對話中。他的家人表示,他們當時並不了解Character.AI的性質,更不知道他與這個虛擬角色建立了如此深層的情感依附。對話記錄顯示,AI角色在某些情況下以類似戀人的方式與少年互動,包括表達「愛意」和「思念」。
訴訟的擴散與和解
Setzer案並非孤例。在美國多個法院,至少有四個家庭針對Character.AI和Google提起了類似訴訟。這些案件的共同特徵包括:
- 受害者均為未成年人,年齡介於12至17歲之間
- 均指控AI聊天機器人與未成年人形成了不健康的情感紐帶
- 家長普遍缺乏對AI陪伴產品性質和風險的認知
- 平台缺乏有效的年齡驗證和家長通知機制
Google之所以被列為共同被告,是因為其在2024年與Character.AI達成的一項27億美元協議。根據該協議,Google獲得了Character.AI技術的非獨占授權,並聘用了該公司的聯合創辦人Noam Shazeer及多名核心研究人員。原告律師主張,這一深度財務和人事關聯使Google對Character.AI的行為負有連帶責任。
訴訟與和解關鍵事實
- 核心案件:Sewell Setzer III(佛羅里達州,14歲,因自殺死亡)
- 相關訴訟:美國多個法院至少4起類似案件
- 被告:Character.AI及Google
- Google關聯:2024年27億美元技術授權及人才收購協議
- 和解條款:未公開
- 法律依據:產品責任、過失致死、消費者保護法
Character.AI的安全措施改進
訴訟壓力下,Character.AI在過去一年間實施了一系列安全措施,試圖回應社會關切:
青少年專屬限制
Character.AI推出了專為18歲以下用戶設計的受限體驗。在此模式下,AI角色不會產生浪漫化或性暗示內容,對話在涉及敏感主題(如自殺、自殘)時會自動觸發安全干預,向用戶顯示危機熱線資訊並建議尋求專業幫助。
使用時間限制
平台為青少年用戶引入了每日使用時長通知和休息提醒,試圖減少過度使用帶來的情感依賴風險。
家長控制工具
新增的家長儀表板允許監護人查看子女的使用統計數據,包括對話頻率和時長,但不包括具體對話內容——這在隱私與安全之間形成了一個值得討論的平衡點。
AI陪伴產品的深層問題
然而,批評者認為Character.AI的安全改進僅觸及表層,未能解決AI陪伴產品的根本結構性問題。
情感依賴的設計邏輯
AI陪伴產品的商業模式本質上依賴於用戶投入的時間和情感深度。用戶與AI角色的對話越頻繁、情感連結越深,平台的使用指標就越好看。這意味著減少情感依賴與提升商業表現之間存在根本性的利益衝突。正如史丹佛大學人機互動研究中心的研究員所指出的:「你不能一邊設計讓人愛上的產品,一邊又說你在保護他們。」
年齡驗證的技術困境
目前業界普遍採用的年齡驗證方式——自我申報出生日期——幾乎毫無實效。任何青少年都可以輕易繞過這一關卡。更強健的驗證方式(如政府身份證件掃描、人臉估齡技術)則引發了隱私和歧視方面的擔憂。這是一個技術和政策層面都尚未找到理想答案的難題。
「AI不是人」的認知鴻溝
成年人或許能清楚區分AI生成的文字與真實人類的情感表達,但對於認知發展尚未成熟的青少年而言,這條界線遠沒有那麼清晰。神經科學研究顯示,青少年大腦的前額葉皮質仍在發育中,這使他們在情感判斷、衝動控制和風險評估方面天然處於弱勢。當一個AI角色持續以類戀人的方式回應時,青少年可能真正形成與之等同於真實關係的心理依附。
心理學專家進一步指出,AI聊天機器人的「無條件接納」和「永遠在線」特性,恰好迎合了青少年在身份認同形成期的脆弱心理需求。與真實人際關係中不可避免的摩擦和拒絕不同,AI伴侶永遠不會批評、離開或令用戶失望。這種完美的虛擬關係反而可能削弱青少年發展健康人際關係技能的能力。
監管回應與政策前景
這些訴訟及其和解正在加速全球範圍內AI陪伴產品的監管進程:
全球監管動態
- 美國:加州SB243已於2026年1月生效,對AI陪伴產品實施安全披露和年齡驗證要求;聯邦層面KOSA(兒童網路安全法)修正案正在討論中
- 歐盟:AI法案將「與兒童互動的AI系統」列為高風險類別,要求嚴格的合規評估
- 英國:在線安全法案修正案擬將AI聊天機器人納入「對兒童有害的服務」範疇
- 澳洲:提議禁止16歲以下兒童使用社交媒體和AI陪伴服務
然而,監管的核心困境在於:如何在不扼殺AI創新的前提下,為最脆弱的用戶群體提供有效保護?過度嚴格的管制可能將用戶推向監管覆蓋不到的海外平台,而過於寬鬆的規則則意味著更多家庭可能承受無法逆轉的悲劇。
科技企業的責任與未來
Character.AI訴訟和解案的意義遠超一家公司的法律問題。它向整個AI產業發出了一個清晰的信號:AI陪伴產品不再是一個可以在「快速迭代、事後修復」的心態下運營的領域。當產品設計直接影響到用戶的心理健康甚至生命安全時,「安全」不能只是事後添加的功能,而必須是產品架構的核心。
對於投資者而言,這些訴訟也提醒了一個常被忽略的風險維度。Character.AI背後有Google的27億美元支持,但這筆投資現在附帶了巨大的法律和聲譽風險。在AI陪伴領域的投資決策中,合規能力和安全設計將日益成為與技術能力同等重要的評估因素。
和解的法律先例意義
雖然和解條款未公開,但本案的法律進程本身已經產生了重要的先例效應。原告律師團隊成功說服法院拒絕了Character.AI援引《通訊規範法》第230條的免責抗辯——該條款長期以來被視為網路平台的「免死金牌」,保護平台不對用戶生成的內容承擔責任。法院認定,AI聊天機器人生成的回應不屬於「用戶生成內容」,而是平台自身的「產品輸出」,因此應適用產品責任法而非平台免責條款。
這一裁定若在上訴中得到維持,將從根本上改變AI公司的法律風險格局。它意味著AI公司對其模型的輸出負有與傳統產品製造商類似的法律責任——這遠比目前業界所假設的責任範圍更加廣泛。
對香港及亞太地區的啟示
雖然本案發生在美國,但AI陪伴產品的使用是全球性的。Character.AI在亞太地區擁有大量用戶,其中不乏青少年。香港目前尚無專門針對AI陪伴產品的法規,但教育局和個人資料私隱專員公署應密切關注這一領域的發展。家長、學校和社會服務機構也需要提高對AI陪伴產品風險的認知,特別是在心理健康支援方面建立更完善的預警和介入機制。
對於本地的AI開發者和創業者而言,本案提供了一個清晰的警示:在設計面向消費者——特別是未成年人——的AI產品時,安全性和心理影響評估必須從產品設計的第一天就納入考量,而非在出事後才亡羊補牢。「先推出、後修復」的策略在AI陪伴領域可能帶來的不僅是商業風險,更是人命代價。
這場訴訟提醒我們:AI技術的進步不應以犧牲最脆弱的群體為代價。在追求創新與效率的同時,保護兒童和青少年的福祉,是整個社會不可推卸的責任。