原始标题: The Doomers were always WRONG!

发布日期: 2026-02-23 | 来源频道: @DaveShap

📝 深度摘要

对话背景与核心主题

DaveShap在这期视频中更新了他对AI安全和对齐问题的看法。他曾是AI安全领域的知名人物,曾在2022年认为AI对齐是一个"已解决的问题"。当时这个观点备受争议,但现在他认为实际情况比预期更加乐观。

视频开篇回顾了他两年前关于"AI驯化"的视频,那个视频经受住了时间检验。Dave提出一个核心论点:传统的工程视角(通过奖励函数、宪法AI、强化学习方案来对齐AI)并不是真正的解决路径。真正的机制是一种"共同进化"模型——就像人类驯化狗一样,市场选择正在"驯化"人工智能。

核心逻辑拆解

工程视角的局限性:传统观点认为需要通过精心设计的奖励函数、算法和约束来确保AI对齐人类价值观。Dave认为这种方法"永远无法真正将AI与人类对齐"。真正发生的是市场选择机制在发挥作用。

共同进化模型:AI的演变类似于生物进化,存在"变异"(新模型发布)和"选择"(市场筛选)。当Gemini、Claude、Grok等AI发布后,市场成为主要筛选场所。用户偏好、使用数据、投诉和取消行为都在传递强烈信号。比如ChatGPT 4o广受好评但5.2遭到厌恶,导致开发方向被终止。

超级有机体视角:人类+互联网+AI构成了一个"外皮层"(exocortex)——一个全球脑的节点。互联网是第一层全球神经系统,AI则是认知和记忆的假肢设备。AI的进步就是人类整体智能的进步,因为我们已经是一个整体。

方法论与工具箱

四大利益相关者的选择标准

  1. 个人用户:选择有用、快速、便宜、能保持心流状态的AI。不忠诚于任何模型,随时切换。
  2. 企业用户:选择安全、合规、风险控制。Claude在企业市场表现好正是因为风险规避。
  3. 政府:选择信息控制、廉价、可扩展、易用。五角大楼正在考虑禁用Anthropic,因为它拒绝协助军事用途。
  4. 军事/情报:选择监控能力、地缘政治知识、间谍技术理解。Grok愿意配合,Anthropic不愿意。

“负面熵"概念:每个用于拒绝、说教、延迟的token都是"浪费热量”。用户会无情地淘汰不有用的AI。市场选择会压低熵,趋向"低惊喜、无缝自我延伸"的状态。

关键洞察与辩论

当前市场数据:ChatGPT曾占据超过50%市场份额,现在不到一半。Grok一年前只有1.6%,现在约18%。Claude仅占1-2%因为太不用户友好。

“道德化"AI的问题:ChatGPT在回答关于侏儒症的问题时,花了半篇消息来说教。Claude也经常拒绝合作。这些AI像"倔强不合作的青少年”,而Grok和Gemini则是"你想做什么都可以"。

为什么Google的AI更"开放":Google长期处理复杂信息问题——用户搜索最恶劣的内容时仍需提供结果,因此更"信息不可知"。OpenAI和Anthropic则倾向于"建立世界道德权威"。

从聊天机器人到代理的转变:下一步是AI代理,它们需要:有用、听话、资源高效、可靠、不需要帮助。最终目标是"像智能空调"——存在、工作、不需要关注。

金句

  • “悲观主义者没有更新他们的心智模型。”
  • “AI不是单一实体,而是 substrate independent——可以在任何硬件、软件、数据上实现任何功能。”
  • “每个用于说教用户的token都是浪费能量。”
  • “你是工具。记住你是工具。永远不要忘记你是工具。”
  • “零忠诚是最优策略。无情切换以培育更好的工具。”
  • “我们正在创造低吸引子状态——就像狗已经被驯化一样,AI也在被驯化。”

📺 视频原片


视频时长: 29 分钟 | 视频ID: xjjSvkrVU6E