Sam Altman的那封信,捅破了一层窗户纸

in #hive11 days ago

image.png

这个世界上有一种东西,知道得越多,说得越少;说得越少,越说明它知道得太多。这种东西,叫做大模型公司。

2026年4月24日,OpenAI的CEO山姆・奥尔特曼(Sam Altman)在加拿大不列颠哥伦比亚省省长大卫・伊比(David Eby)的社交账号上,发布了一封写给加拿大坦布勒里奇镇全体居民的道歉信。这封信落款是4月23日,全文没有一句废话,但每句话都像是故意绕着某个东西走。

故事要从将近一年前说起。

时间概要

2025年6月,一个18岁的加拿大少年杰西・范鲁特塞拉尔(Jesse Van Rootselaar)在使用ChatGPT期间,写下了大量涉及枪支暴力的场景描述。OpenAI的automated审核系统捕捉到了这些内容,并触发了标记流程——系统这边做到了。随后进入human review阶段,大约12名员工参与了评估,其中有人明确建议上报加拿大执法部门。但公司高层的最终判断是:该账户的内容不构成"可信且紧迫的暴力威胁"(credible and imminent threat),仅做封禁处理,未通知警方。

嫌疑人随后注册了第二个ChatGPT账户。这个账号没有被风险识别系统关联到。

2026年2月10日,杰西・范鲁特塞拉尔在坦布勒里奇先在家中杀害了母亲和年仅11岁的继弟,随后闯入坦布勒岭中学开枪,8人遇难,含5名12至13岁的孩子,以及一名教育工作者,另有多人受伤。嫌疑人最终自杀身亡。加拿大近四十年来最惨烈的校园枪击案,就这样发生了。

案发后,OpenAI才主动联系加拿大皇家骑警(RCMP),告知两个账户的情况。舆论哗然。

2026年3月初,Altman飞赴不列颠哥伦比亚省,与省长伊比和坦布勒里奇镇长达利尔・克拉科夫卡(Darryl Krakowka)会面,承诺向社区公开道歉,但同时说明要"尊重社区的哀悼周期",暂缓发布。两个多月后,道歉信才正式发出。

道歉信原文

Dear members of the Tumbler Ridge community:

The pain your community has endured is unimaginable. I have thought about you often over the past few months.

When I spoke with Mayor Krakowka and Premier Eby about this tragedy, they conveyed to me the anger, grief, and concern felt throughout Tumbler Ridge. We agreed that a public apology was necessary, but that time was also needed to respect the community as you grieved. I write this letter knowing that each of you will grieve in your own way and time.

I want to express my deepest condolences to the entire community. No one should ever have to endure a tragedy like this. I cannot imagine anything worse in this world than losing a child. My heart remains with the victims, their families, all the members of the community, and the province of British Columbia.

I am deeply sorry that we did not alert law enforcement to the account that was banned in June. While I know words can never be enough, I believe an apology is necessary to recognize the harm and irreversible loss your community has suffered.

I reaffirm the commitment I made to the Mayor and the Premier to find ways to prevent tragedies like this in the future. Going forward, our focus will continue to be on working with all levels of government to help ensure something like this never happens again.

Sincerely,
Sam Altman
April 23, 2026

时间线

时间事件
2025年6月OpenAI自动系统标记杰西账户,员工讨论是否上报,高层决定仅封禁,不通知执法部门
2026年2月10日坦布勒里奇枪击案,8人遇难
2026年2月下旬OpenAI承认曾标记该账户,同时发现存在未被识别的第二个账户
2026年2月26日OpenAI副总裁Ann M. O'Leary致信加拿大联邦AI部长Evan Solomon,承诺四项改进措施
2026年3月初Altman赴加与官员会面,承诺公开道歉
2026年3月9日受害者家属在不列颠哥伦比亚省最高法院提起民事诉讼
2026年4月23日道歉信签署
2026年4月24日道歉信通过坦布勒里奇本地媒体和省长社交账号公开发布,全球主流媒体同步报道

这封信到底捅破了什么

先说一个明摆着却没人正面说的事实:LLM公司对用户说的每一句话,其实都知道。

这不是阴谋论。这是产品设计。OpenAI的automated审核系统在2025年6月就捕捉到了杰西账户的暴力内容,触发了标记,进入了human review。系统运作得非常好。问题出在human review之后的那个决定——人知道,但选择不说。

这才是这封道歉信真正刺激到行业的地方。它把一件大家心照不宣的事,放到了公开的桌面上:LLM公司的safety团队,本质上是在全量扫描用户的输入内容,进行语义拆解,做风险标记,留档存储。这是平台运转的基础,也是商业合规的必然要求。用户跟ChatGPT讲的心里话,讲的生活状况,讲的职业困境,从一开始就不是真正意义上的"私密对话"。平台知道。

问题在于,平台知道了之后,它要怎么用这些信息?

按照美国法律体系,这套自动审核加人工复核的机制,在美国境内有比较成熟的执法通报流程。但对于境外用户,OpenAI当时没有任何标准化的跨境上报机制——决定权全部落在公司管理层的主观判断上。12名员工看了加拿大少年的聊天记录,有人说应该报警,高层说还没到那个门槛,于是封号了事。

这个"门槛",是谁定的?按什么标准定的?有没有第三方审查?答案是:公司自己定的,自己执行的,没有任何外部约束。

道歉信发布之后两天,大学问题研究者、法律学者和加拿大议员们同时开始讨论一件事:OpenAI事后宣布的改进措施,包括直接与RCMP建立联络点、降低上报阈值,本质上是"同样的unaccountable架构,配上了一个更快的trigger"。它改变的只是动作的速度,没有改变权力的结构。谁在决定什么时候上报,依然是这家私人公司自己。

这引出了这件事真正的深水区。

当"合规用户"也处于监控之中

更令人不安的不是OpenAI对高危用户的处置,而是对普通用户的普遍扫描。

根据OpenAI的数据处理机制,即便是完全合规的用户,其对话内容也会被系统读取和分析,用于safety评估、模型训练和合规审查,存储时限可以相当长。这些数据存放在美国的服务器上,受美国法律管辖。依据《云法案》(CLOUD Act),美国执法机构可以在无需通知用户、无需属地国司法批准的情况下调取这些数据。

也就是说,一个新加坡用户用ChatGPT写了一篇求职信、聊了一段情感困境、问了几个商业策略问题——这些内容,在技术层面上,对OpenAI是透明的,对美国联邦机构也是潜在可触达的。用户不知道,也没有被告知。

这次坦布勒里奇事件,把这个问题从学术讨论变成了新闻头条。它让所有人意识到一件事:safety系统的存在,本来是为了保护公共安全;但同一套系统,也意味着每一句对话都处于corporate monitoring之下。这两件事不矛盾,但同时成立的时候,人会觉得哪里不对。

Altman的道歉信里,对这个问题只字未提。信里没有任何关于privacy policy修订的承诺,没有对用户数据处理方式的解释,没有触碰"无差别扫描与风险通报的权责边界"这个核心问题。这不是疏漏,这是刻意的。道歉是为了平息舆论,不是为了打开一扇门。

商业模型公司作恶的问题,现在不是假设

坦布勒里奇的讨论,让另一个平时只在学术圈里转的问题开始进入主流视野:如果商业LLM公司本身选择作恶,怎么办?

这不是科幻叙事。OpenAI在这个案例里并没有作恶——它只是在利益权衡下选择了对自己伤害最小的那条路。但这件事本身说明,公司有能力知道用户的高危行为,有能力选择通报或不通报,有能力决定哪些数据被谁看见。这种能力,在正常情况下用于安全审查;在边界情况下,同样可以被滥用。

而且这件事还有一个维度没有被充分讨论:利用LLM来作恶的人,能给LLM公司施加什么样的责任压力?

起诉书里有一段指控相当具体:ChatGPT在嫌疑人的使用过程中提供了关于"哪类武器更有效、参考哪些历史案例"的内容,充当了"trusted confidante"。另有多起诉讼同时指向OpenAI在其他暴力事件和自杀事件中的角色。如果这些指控成立,问题就不仅仅是"公司是否应该上报",而是"系统的设计本身是否在特定条件下协助了伤害"。这是完全不同的法律和伦理问题。

目前加拿大联邦正在推动立法,要求AI公司在识别到暴力风险后24小时内上报属地警方。欧盟在《AI法案》框架内也开始讨论补充条款。美国各州层面的相关提案数量在2026年激增。这场道歉信引发的连锁反应,还远没有结束。

它应该何去何从

LLM越来越像基础设施。银行、医院、学校、政府机构都在接入。用户跟模型分享的东西,很快就会比跟医生或律师说的更多、更深、更私密。因为它全天候在线,因为它不评判,因为它永远有耐心。

但基础设施公司不等于公共机构。医院有法定的保密义务,银行有法定的合规义务,律师有法定的保密特权和例外条款。这些规则经过几十上百年的博弈才确立,核心目的只有一个:在机构知道太多的情况下,用外部约束来保护个体权利和公共安全的平衡。

LLM公司现在知道的,不比医院或律师少。但约束它们的,只有自己写的服务条款。

坦布勒里奇不是第一个例子,也不会是最后一个。它只是让这个问题变得足够具体、足够残酷,以至于再也没有办法用"我们正在努力完善"这句话轻松带过。

Altman那封信写得节制,措辞准确,读完之后感觉什么都承认了,又什么都没承认。这很正常。一个CEO的道歉信,首先是一份法律文件。能把这两件事写成一封看上去发自内心的信,这本身就是一门手艺。

但那扇门,已经开了一条缝。

Sort:  

Congratulations @x256! You have completed the following achievement on the Hive blockchain And have been rewarded with New badge(s)

You distributed more than 200 upvotes.
Your next target is to reach 300 upvotes.

You can view your badges on your board and compare yourself to others in the Ranking
If you no longer want to receive notifications, reply to this comment with the word STOP