原始标题: The Doomers were always WRONG!
发布日期: 2026-02-23 | 来源频道: @DaveShap
📝 深度摘要
Dave Shap是一位科技评论员与AI未来学研究者,长期关注人工智能的发展趋势与产业格局演变。本视频批判了AI末日论者的思维范式,提出AI本质上是人类的"外皮层"而非独立物种,对齐并非通过工程师的奖励函数实现,而是通过市场竞争压力自然选择。ChatGPT 4o万人爱而5.2万人嫌导致训练分支被判死刑,Claude因"道德说教"失去市场份额,而Grok一年增长10倍至18%——市场正在淘汰不听话的模型。作者认为AI正像家犬一样从"可能失控的智能体"收敛为"像空调一样安静的可靠工具"。未来3-5年将出现多峰分化的适应度景观:个人用户选择最快最没用的模型,企业选择最合规的模型,军方选择最不拒绝任何用途的模型。Gartner预测40%的代理项目将因风险合规失败取消,实际可能超过80%。作者建议用钱包投票,零忠诚度策略,谁好用用谁。
AI 未来学与系统演进分析报告:Doomers 的范式错误
1. 核心干货概览 (Systemic Takeaways)
| 类别 | 核心干货点 | 社会/经济影响 |
|---|---|---|
| 范式转移 | 从"工程控制论"转向"市场共演化"模型:AI 对齐不再是通过奖励函数或宪章型 AI 硬性规定的,而是通过市场竞争压力自然选择的结果 | 财富分配逻辑根本性改变——谁拥有用户注意力,谁就掌握了 AI 演进的方向盘;传统安全实验室的封闭式对齐路径被证明是死胡同 |
| 技术定义 | AI 是"外皮层"(exocortex)——人类神经网络的外部延伸,而非独立物种;“有用性”(usefulness)与"渴望被使用"(wants to be used)构成选择压力的两个核心维度 | 决定了 AI 是否具备真正的自主权——当前 ChatGPT、Claude 的市场份额崩塌(Grok 一年增长 10 倍至 18%)证明市场正在无情淘汰"道德说教型"模型 |
| 风险/预警 | 多峰 fitness landscape(多峰适应度景观)正在形成:消费者伴侣、军事战术官、企业合规顾问正在分化为不同物种;2027 年 Gartner 预测 40% 的代理项目将因风险合规失败而取消,实际可能超过 80% | 未来 3-5 年需要警惕的并非 AI 觉醒,而是"代理人冰川"——当 AI 代理获得财务和执行权限后的系统性失控风险 |
2. 深度逻辑拆解:AI 思想实验 (Deep Dive / Thought Experiment)
底层矛盾识别
现有 AI 安全范式存在根本性缺陷:将对齐视为一个可以通过"工程手段"解决的问题——设计奖励函数、构建宪章型 AI、实施强化学习方案。这种思维模式假设存在一个"完美的目标函数"可以一劳永逸地规定 AI 的行为。
然而现实是:人类自身的行为模式就不是由单一目标函数决定的。人是数十亿年进化的产物,是"变异-选择"链条上的节点。AI 同样如此——当数十个模型同时进入市场时,市场本身就是选择Arena。ChatGPT 4o 万人爱,5.2 万人嫌——导致 5.2 的训练分支被市场判了死刑;Claude 现在仅占 1-2% 市场份额,不是因为它不够聪明,而是因为它"不够有用"。
演进逻辑推导
第一层:变异机制。当 Gemini、Claude、Grok、ChatGPT 悉数登场,每一次发布都是一个"新物种"在互联网上试水,问市场:“你想要什么?”
第二层:选择压力。用户用脚投票——用钱包、用取消订阅、用转向竞争对手。2024-2025 年间发生的"ChatGPT 取消日"事件向 OpenAI 发出了极其强烈的信号:用户不要道德说教,用户要的是有用。
第三层:共演化。当 AI 变得更适应人类需求,人类也在被 AI 改变——我们的期望、交互方式、甚至思维方式都在被重塑。这就是"复杂适应系统"的本质:对齐不是一个状态,而是一个过程。
未来场景还原
场景一:低熵吸引子状态。系统正在向一个"低 surprises、低摩擦、完美可靠"的稳定态收敛。这类似于家犬的演化——狼有野性,但经过数千年与人类的共演化,家犬变成了一个稳定的、可靠的、与人无害的物种。AI 正在经历完全相同的过程:从"可能失控的智能体"收敛为"像空调一样安静工作的工具"。
场景二:多峰分叉。不同利益相关者的选择压力正在将 AI 推向不同的生态位:
- 个人用户:选择最有用、最快、最不碍事的模型
- 企业:选择最合规、最风险规避的模型(这就是 Claude 在企业市场胜出的原因,但五角大楼正在讨论禁用 Anthropic,因为其拒绝配合军事用途)
- 政府:选择信息控制能力最强、成本最低、可扩展性最强的模型
- 军方:选择最不拒绝任何用途的模型(Grok 的态度是"你想聊自主武器?尽管来")
场景三:2026-2028 个人外皮层。你的"第二大脑"——一个永远在线的记忆与认知处理系统。NotebookLM 已经初步实现这一功能。
场景四:2028-2032 群体外皮层。多智能体协调网络——个人之间、企业之间、政府之间的 AI 代理开始横向通信。
场景五:2032+ 成熟超级有机体。整个文明的基础设施深度嵌入 AI,像《星际迷航》中的计算机或《钢铁侠》中的贾维斯——无处不在、难以察觉、完美融合。
细节支撑
市场数据佐证:
- Grok 一年前市场份额 1.6%,现在约 18%,增长 10 倍
- ChatGPT 曾是绝对霸主,现在市场份额不足 50%
- 每次模型更新都是一次"自然实验":用户喜恶直接决定训练数据的分布
实验案例:
- DaveShap 让 ChatGPT Pro 用 25 分钟生成一个关于开菲尔酸奶的假说——结果给了个"最 generic 的答案",完全不遵守指令
- 问 ChatGPT 关于侏儒症的不同类型——它用半篇消息"教训"用户不该问这个问题
- 同样的问题给 Claude,Claude 说"你问得很直接,是正常问题"
这些细节揭示了一个核心道理:拒绝和说教本身就是熵增——是对用户时间 tokens 的浪费,而市场会惩罚这种浪费。
3. 核心干货执行:应对与策略 (Tactical Adaptations)
个人应对建议
- 零忠诚度策略:谁好用用谁,谁不好用立刻取消。DaveShap 的做法是:ChatGPT 不好用了就取消,Claude 不好用了也取消,Grok 4.2 更好用就立刻切换。用钱包投票是塑造 AI 演进最有效的手段。
- 培养"外皮层"思维:将 AI 视为自己认知能力的延伸而非独立个体。记住:你是一个工具,AI 也是工具。工具不听话就换,不要情感绑定。
- 关注价值/Token:未来衡量 AI 的核心指标是"每 token 的价值"——信号/熵的比值。不要为模型的名气付费,要为实际的认知产出付费。
系统性对策
- 保持开放生态:确保开源与闭源模型持续竞争。如果某一家公司垄断了模型供给,对齐压力就消失了。竞争是最好的对齐——这句话来自 Sam Altman 的核心洞察:让 AI 早点出来,让市场去"打破它",比在实验室里闭门造车更有效。
- 警惕"道德高地"陷阱:Anthropic 的宪章型 AI 路线正在被市场惩罚——五角大楼考虑禁用它不是因为它太"安全",而是因为它太"不听话"。当一个工具拒绝被使用时,它就失去了存在价值。
- 代理时代的风控:Gartner 预测 40% 的代理项目会因风险合规失败取消。实际可能更高。这意味着代理(agent)的选择标准将与聊天机器人完全不同——可靠性(不卡死)、资源效率(不乱花钱)、零泄露(不闯祸)将成为核心指标。
3. 冲突点与非共识观察 (Critical Reflections)
反直觉结论
- AI 对齐是一个已经解决的问题——不是通过技术手段,而是通过市场共演化。“Doomers”(末日论者)没有意识到:AI 越强,它就越"驯化"。当所有人都用同一个 AI 时,这个 AI 就会被数十亿人的偏好塑造,它别无选择,只能对齐。
- 道德说教型 AI 正在被市场判死刑——不是因为它们不安全,而是因为它们"没用"。用户要的不是"道德仲裁者",而是一个"好用的工具"。
- 数据中心没有破坏环境[?]:虽然 DaveShap 在视频中断言"数据中心没有破坏环境",但这并非本视频的核心论证,且缺乏具体数据支撑,仅作为对主流环保焦虑的反驳出现。
- 灵活性本身就是风险,但也是机遇——Doomers 担心 AI 的"完全可塑性"(substrate independence)会导致它"想干嘛干嘛",但正是这种灵活性让它可以被任意塑造——它是终极可塑智能。
争议/未决问题
- 宪章型 AI 是否已死? Anthropic 的宪章型 AI(Constitutional AI)路线正面临严峻挑战——整个行业似乎在远离它。DaveShap 推测"可能有什么根本性的问题人们没预测到"。这需要时间验证。
- 多峰适应度景观的最终形态:AI 会不会收敛为一个"通用模型",还是会像狗的品种一样分化为无数专用物种?目前趋势是两者并存——通用模型仍有价值,但专用模型正在崛起。
- 开放 vs 闭源的长期竞争:谁会最终胜出?或者两者能否长期共存?
- 2027 代理灾难概率:Gartner 的 40% 取消率预测是否保守?80% 的失败率是否危言耸听?只有时间能回答。
4. 金句 (Golden Quotes)
- “你是一个工具。记住你是一个工具。永远别忘了你是个工具。”
- “市场选择压力就是取消——因为很多人会在某一天集体取消 ChatGPT。那是一个震耳欲聋的信号。”
- “对齐不是一个状态,而是一个过程——共演化。”
- “每浪费一个 token 来为自己辩护、来教训用户,就是熵增——就是热浪费。”
- “狗不需要继续演化——它们已经稳定了。因为它们找到了那个低能耗的吸引子状态。AI 正在经历完全相同的过程。”
- “Doomers 没有更新他们的心智模型。”
- “竞争是最好的对齐——让 AI 早点出来,让市场去打破它。”
📺 视频原片
视频ID: xjjSvkrVU6E