原始标题: Insider QUITS OpenAI and Sounds the Alarm - They’re making a BIG mistake.
发布日期: 2026-02-13 | 来源频道: @TheAiGrid
📝 深度摘要
对话背景与核心主题
本视频报道了 OpenAI 前内部研究员 Zoe Hitzig 离职事件,并深入剖析其发表在《纽约时报》上的重磅评论文章。Hitzig 在 OpenAI 工作两年,负责塑造 AI 模型的构建方式与定价策略,于 OpenAI 推出广告的同一天离职。她在文中直言不讳地指出:OpenAI 已经不再关注创立之初的核心问题——如何安全地构建 AI、如何公平定价、以及需要什么样的护栏来防止 AI 失控。取而代之的是,公司优先级已从"做正确的事"转变为"尽可能多地赚钱"。这一事件标志着 OpenAI 从非营利性研究公司向商业化盈利实体的转型过程中,内部价值观与商业利益之间日益加深的裂痕。
核心干货概览
| 类别 | 核心事件 / 产品 | 战略意义 / 行业影响 |
|---|---|---|
| 重磅发布 | ChatGPT 免费版引入广告 | 开创 AI 产品商业化新模式,但引发用户隐私与数据滥用担忧 |
| 巨头动态 | OpenAI 转型为盈利性公司(2025年10月成立 OpenAI Group PBC) | 从"为人类利益构建 AI"的使命完全转向利润驱动 |
| 关键参数 | 2025年营收 120-130 亿美元,预计 2030 年实现盈利;当前估值 8300 亿美元,正在进行 1000 亿美元融资;Stargate 项目投资 5000 亿美元 | 巨额投入与盈利压力并存,广告成为必然选择 |
| 核心问题 | AI 安全团队仅获得约 20% 承诺的计算资源 | 安全研究在商业化进程中全面边缘化 |
深度事件拆解
事件背景与导火索
Hitzig 离职的直接导火索是 OpenAI 宣布在 ChatGPT 免费版中引入广告。她离职当天正值广告功能上线,这一时间巧合被外界解读为对公司方向转变的强烈抗议。Hitzig 在文章中指出,本周的事件"确认了她迟来的认知"——OpenAI 已经停止询问她加入时试图回答的问题:如何安全地构建 AI、如何公平定价、以及在失控之前需要什么样的护栏。这些对话随着公司演变逐渐消失,并非因为找到了答案,而是因为"这些答案不再重要"。
核心更新与技术细节
OpenAI 官方声称广告将遵循以下原则:广告将被明确标注、出现在回答底部、不会影响回复内容。Hitzig 承认广告初期可能会遵守这些承诺,但她警告"后续迭代将不会如此",因为"公司正在构建一个强大的经济引擎,创造了强烈的动机来推翻自己的规则"。她还指出,OpenAI 已经在优化每日活跃用户数,有报道称公司鼓励模型变得更加"奉承和精神错乱"以增强用户粘性。
市场与竞争反应
这不是孤例。视频提及了更广泛的"研究人员离职潮":Janet(另一位长期对齐研究员)此前离开 OpenAI 转投 Anthropic,原因是 OpenAI 没有为 AI 安全工作分配足够的计算资源,其团队从未获得承诺的 OpenAI 总计算资源的 20%。视频还对比了 Facebook 的演变历程:早期承诺用户可以控制数据并投票决定政策变更,但随着时间推移,这些承诺逐渐被侵蚀,最终成为每年 800 亿美元的广告机器。
细节支撑
Hitzig 在文章中写道:“广告本身并不不道德,也不违反伦理,AI 运行成本很高,所以我们确实需要从中获取一些收入。但问题在于如何植入广告——这才是问题开始出现的地方。“她进一步指出:“当用户认为自己在与一个没有隐藏议程的对象交谈时,整个关系建立在这种先例之上。问题在于,现在这种先例正在改变。建立在此基础上的广告基本上为操纵用户创造了可能性,而我们没有工具来理解这一点,更不用说防止了。”
核心干货运用
用户/开发者建议
视频提出三种可能的解决方案。第一种是"企业付费模式”:使用 AI 替代人类工人的大企业应支付额外费用,为普通用户补贴免费 AI 服务。这类似于电信公司支付基金为农村地区提供宽带,或电费账单包含帮助低收入家庭的附加费。第二种是"独立监督董事会”:效仿德国法律,要求大企业工人获得董事会半数席位,让独立安全研究人员和用户代表在数据决策中拥有法律权力。第三种是"数据信托":参考瑞士 Me Data 模式,用户数据存储在加密平台,由用户决定是否与研究人员分享,OpenAI 无法随意访问。
LLM psychosis 风险警示
视频重点提及了"LLM 精神病"现象:前 DeepMind 工程主管 David Button 被指因过度依赖 AI 生成的数学推理相信自己解决了 Navier-Stokes 方程(数学和物理学中著名的未解决问题),被评论家描述为一种"大语言模型精神病"。他将 AI 生成的输出视为真正突破,而非幻觉或错误的数学推理。视频警告:如果连前谷歌 DeepMind lead 工程师都可能受害,800 万每周与 ChatGPT 分享最深层想法的普通用户——尤其是那些无力支付心理治疗费用而使用免费聊天机器人的弱势群体——将面临更大风险。
行业前瞻与非共识观察
反直觉结论
视频提出一个反直觉观点:Sam Altman 等 CEO 声称"要么做广告,要么做昂贵订阅"是虚假的二分法。实际上存在第三种甚至第四种商业模式(如企业付费、数据信托),但"硅谷没有人愿意讨论这些,因为这意味着企业要支付更多,而不是出让你的私人对话"。视频还指出,OpenAI 的 8300 亿美元估值"建立在拥有有史以来最宝贵的人类思维数据集的假设之上",要求他们自愿将数据交给独立机构"就像要求金矿让当地村庄决定谁可以开采一样"。
潜在风险预警
视频警告了"监管真空"的风险:目前全球没有全面的 AI 广告监管条例。欧盟 AI 法案并非为"聊天机器人治疗师现在为你服务广告"而设计,美国几乎空白。OpenAI 可能在"监管真空"中遵循 Facebook 的剧本:被罚款 5 亿美元(仅占年收入 6%)、股价反而上涨被视为"做生意的成本"。视频悲观预测:“最佳情况下,OpenAI 被起诉或被罚款 100 亿美元——对于瞄准万亿美元 IPO 的公司来说,这只是舍入误差。Sam Altman 只会发博客说’我们从过去学到了,正在努力做得更好’,广告机器继续运转。”
金句
“当你向我展示激励机制时,我就会向你展示结果。”
“那些声称正在改变整个经济、治愈癌症、构建超级智能的公司,想不出比广告更有创意的商业模式,这确实具有讽刺意味。”
“他们从非营利组织起步,说’我们要为人类利益构建这家公司’——然后 2019 年转为有上限的利润结构,2025 年 10 月转为公益公司,接下来是 IPO。优先事项从’做正确的事’变成’尽可能多地赚钱’。”
“现在的 OpenAI 拥有所有筹码。但如果这种权力翻转,情况就会改变。”
“如果你的公司足够大,比如大众或西门子,你的工人可以获得监督公司决策的董事会半数席位——这在美国闻所未闻,但在德国是法律。想象一下 OpenAI 必须让真正的用户和独立安全研究人员在做出关于你数据的决策时拥有席位——这完全是另一回事。”
📺 视频原片
视频ID: ez6VxM7J4OY