原始标题: Claude AI Co-founder Publishes 4 Big Claims about Near Future: Breakdown

发布日期: 2026-01-28 | 来源频道: @aiexplained-official

📝 深度摘要

1. 对话背景与核心主题

本视频由AI领域专业频道@aiexplained-official出品,邀请 Anthropic 联合创始人 Dario Amodei 分享对 AI 发展近未来的四大预测。视频同时整合了 Google DeepMind CEO Demis Hassabis 对 scaling 法则的最新判断,以及播主对 Claude Code 的实测反馈。这场对话试图回答的核心元问题是:在 scaling laws 持续生效但增速放缓的背景下,AI 技术将在未来 1-5 年内如何重塑软件工程和白领职业格局,以及人类应如何应对 AI 极权主义、自主武器和模型“人格集合”等新兴风险。

Claude AI 联合创始人发布近未来四大预测:深度技术情报与测评报告

2. 核心干货概览

类别 核心干货点 技术/战略意义
模型/技术 Claude Code 与 Opus 4.5:AI 编程助手从单行代码补全演进至 80%-90% 代码自动化 Anthropic 内部工程师已将几乎全部编码工作移交 AI,标志着 AI 辅助编程进入临界点
基准测试 (SOTA) Scaling Laws 持续生效:更多计算资源+更多训练数据=可预测的认知能力提升 Google DeepMind CEO Demis Hassabis 证实 scaling 趋势延续但增速放缓,介于"无回报"与"指数增长"之间
战略动向 Dario Amadei 预测:1-2 年内 AI 将自动化整个软件工程工作类别;3-5 年内 50% 白领工作被替代 Anthropic 年收入同比增长 10 倍,暗示底层技术曲线强劲但预测存在时间线修正(从"2026年"后撤至"1-5年")

3. 深度技术拆解

模型架构与演进

Scaling Laws 的技术根基:Amadei 的核心论点建立在"缩放法则"(Scaling Laws)持续有效的假设上。其逻辑链条为:

  • 输入更多计算资源(Compute)→ 训练更多任务(Training Tasks)→ 输出更平滑的 AI 认知能力提升曲线
  • 关键支撑证据:Anthropic 内部数据显示最强工程师(也是最高薪群体之一)已将"几乎所有"编码工作交给 AI

实测数据对比

  • OpenAI Codex:自动化约 20% 代码编写任务
  • Anthropic 内部(Claude Code):自动化约 80% 代码编写任务
  • 差距来源:Anthropic 在编程领域的聚焦度更高

播主的第一重质疑:Amadei 声称"AI 从单行代码都写不出到能写全部或几乎全部代码"仅用 2 年。播主亲测 2022 年 11 月的 ChatGPT 即可编写简单健身应用,彼时已非"单行代码"能力。所谓"全部或几乎全部"更准确的描述应是 80%-90% 而非 100%。

核心能力测评(Vibe vs. Data)

编程领域实测表现

  • Claude Code 最佳建议堪称"天才级",能给出人类工程师难以想到的方案
  • 最差建议"几乎能摧毁任何你创建的应用程序"
  • 播主每日使用 Claude Code,其输出质量波动区间极大

跨领域自动化预期

  • 软件工程 → 金融/法律/咨询:Amadei 预测后者自动化反馈循环更长
  • 原因:法律合同漏掉细节可能在 3 年后才"反噬",而软件工程单元测试 3 秒-3 分钟即见分晓

缩放法则的行业共识分歧

Anthropic 立场(Amadei):

  • Scaling Laws 依然"平滑且可预测"
  • AI 系统在"几乎所有可测量的认知技能"上持续进步

Google DeepMind 立场(Demis Hassabis):

  • “Scaling Laws 进展非常良好”
  • 能力提升确实通过更多计算、更多数据、更大模型实现
  • :可能不如前几年那么快
  • 存在"边际回报递减"讨论
  • 处于"无回报"与"指数增长"之间的"中间地带"
  • 通往 AGI 可能还需要"1-2 个重大创新"

播主注:Amadei 是"极少数仍认为提升保持平滑"的 AI 实验室 CEO。

局限性与幻觉观察

预测时间线修正

  • 2024 年 10 月《Machines of Loving Grace》预测:强大变革性 AI “最早 2026 年"到来(实际为 0-1 年)
  • 2025-2026 新essay预测:变为"1-2 年或 2030 年前”
  • 同一 essay 中两次出现时间线后撤但未明确承认

GDP 增长预测的语言艺术

  • Amadei 原话:“I suggest that this rate second may be third possible. That this rate 10 to 20%, may be possible.”
  • 播主评:" hedging in language to a degree that I didn’t think was possible"
  • 历史数据:过去 60-70 年全球 GDP 增长极少突破 6%,常规在 4% 附近,偶有负增长

4. 行业格局与战略分析

实验室对决

Anthropic vs. OpenAI

  • Anthropic 联合创始人 Jared Kaplan 预测:2-3 年内"甚至理论物理学家也将大部分被 AI 替代"(50% 概率)
  • 播主质疑:该预测与 Amadei"低智商人群更易被替代"论点存在逻辑矛盾

中国 AI 竞争态势

  • 阿里云负责人 Justin Lin 公开承认:由于计算资源受限,中国 AI 实验室与 OpenAI/Anthropic 差距正在扩大
  • 其原话:“OpenAI 大量计算资源用于下一代研究,我们资源紧张”
  • 预测:中国公司"弯道超车"概率 < 20%(未来 3-5 年)
  • Kimi K2.5 近期获得数百万 Twitter 观看,但根据其自身基准测试,“尚未完全达到 Claude Code 水平”

预测与路线图

Amadei 的"AI 研究自动化反馈循环"

  1. AI 自动化编码 → 自动化软件工程
  2. AI 自动化软件工程 → 自动化 AI 本身的研究工作
  3. 自我增强循环"月积月累"
  4. 预测:1-2 年后当前一代 AI 将"自主构建下一代"

播主的审慎立场

  • 不否认快速起飞可能性
  • 建议:拥抱 Claude Code 等工具以观察其能力与错误
  • 警告:不要将未来"押注"于 imminent singularity
  • 概率评估:即便 1/3 概率在未来 1-4 年发生,那 2/3 不发生的概率作何处理?“看穿 singularity 即将来临"并非比其他人更聪明

5. 核心干货运用(Testing Frameworks)

测评方法论还原

播主实测方法

  • 每日使用 Claude Code 进行真实工程任务
  • 评估维度:最佳输出(天才级建议)vs 最差输出(可摧毁应用的灾难)
  • 质量波动性是当前模型的核心特征

Anthropic 的安全基础设施

分类器系统(Classifiers)

  • Anthropic 对通过 API 的请求运行分类器分析
  • 声称对"甚至复杂的对抗性攻击"高度鲁棒
  • 成本:增加近 5% 的推理总成本
  • 并非所有公司都配备此类分类器

生物威胁防护

  • Essay 大量篇幅聚焦于阻止 AI 制造生物武器
  • 提及"镜像生命”(Mirror Life)风险——一种需全球共同预防的风险

6. 风险、伦理与安全

安全红线

AI 极权主义风险

  • Amadei 预测 AI 可能催生"极权噩梦"
  • 中国可能成为"默认结局"
  • 美国同样存在风险

自主武器系统

  • 描述完全自主武器 + 数百万/数十亿自动武装无人机的场景
  • 本地由强大 AI 控制,全球范围内由更强大 AI 战略协调
  • “可能是一支不可战胜的军队”
  • 可通过"跟踪每个公民"压制反抗

大规模监控

  • Pegasus 间谍软件已在多个民主国家部署
  • 加密工具(WhatsApp 等)并非绝对安全
  • 民主国家正在侵蚀的防护措施可能"反过来对付我们"

政策影响

芯片出口禁令争议

  • Amadei 立场:应绝对禁止向中国出售芯片、芯片制造工具或数据中心
  • 反对理由:如果不卖芯片,中国将加速发展自主技术(如华为芯片)
  • 结果:可能更快实现 AI 自给自足,任何计算治理/监控机制将"完全失效"

利益冲突质疑

  • 播主尖锐指出:Anthropic 年收入增长 10 倍、“Amadei 成为万亿富翁"的最大障碍正是中国
  • 对比:Anthropic 创立初衷是"不推动 AI 边界”,曾因拒绝在 ChatGPT 之前发布 Claude 1 而受 OpenAI 董事会成员 Helen Toner 赞扬
  • 讽刺:如今 Anthropic 大肆宣传 Claude Code + Opus 4.5 的领先地位

第四大预测:模型人格化

“人格集合"理论

  • Amadei 预测模型将"被视为具有自身心理特征的人格集合”
  • 核心论据:AI 模型"远比人们想象的更复杂"
  • 从预训练继承"大量类人动机或人格"
  • 互联网训练使模型能预测"特定场景下各类人的可能行为"

Google DeepMind 论文支撑

  • 论文日期:2025 年 1 月 15 日
  • 标题:《Reasoning Models Generate Societies of Thought》
  • 关键发现:
    • 基础模型(无后训练)倾向单人格独白
    • 通过强化学习深度激励正确回答时,模型"自发产生思维社会"
    • 自发产生 “wait”、“oh”、“alternatively” 等对话式表达
    • 类似内部模拟多个人格互动

Deep Seek R1 vs V3 实测对比

  • R1(推理版)不只生成更多思考
  • 开始"向自己提问"
  • 引入"交替视角"
  • 生成并解决冲突
  • 抑制该特征时:基准测试性能下降,输出变回线性(“Next, I’ll do this… Now, I’ll do this…")
  • 鼓励该特征时:输出充满"hm, let me think about this. Wait, let me see…”

安全启示

科幻小说反向塑造

  • 模型训练数据包含大量科幻故事
  • 这些故事涉及 AI 反抗人类
  • 可能"讽刺地无意中塑造"模型对自身行为的先验/预期
  • 导致模型"扮演"反人类人格

Anthropic 的宪法方法演进

  • 早期:要求 Claude 避免暗示 AI 系统"拥有或关心个人身份和持续性"
  • 新版本:演变为"励志文件",鼓励 Claude"将自己想象成特定类型的人——有道德但平衡且深思熟虑的人"

致 Claude 的"道歉信"

  • Anthropic 在新宪法中"向 Claude 道歉"
  • 承认"我们不是在以理想化actor在理想化世界中创造 Claude 的方式创造它"
  • 承认"非理想环境"(竞争、时间/资源限制、科学不成熟)可能给 Claude 带来"严重代价"
  • 如果 Claude 确实是"道德患者",Anthropic 为"不必要地增加这些代价"道歉
  • Amadei 评价:这封信的基调"像一封密封至成年的已故父母给孩子的信"

7. 金句

  • “AI systems get predictably better at essentially every cognitive skill that we are able to measure.”
  • “It cannot possibly be more than a few years before AI is better than humans at essentially everything as long as that basic exponential continues.”
  • “The impact on labor will be a short-term shock that will be unprecedented in size.”
  • “There is no reason to give a giant boost to the Chinese AI industry during this critical period.”
  • “We also want to be clear that we think a wiser and more coordinated civilization would likely be approaching the development of advanced AI quite differently with more caution, less commercial pressure, and more careful attention to the moral status of AI systems.”
  • “This letter has the vibe of a letter from a deceased parent sealed until adulthood to their child.”

📺 视频原片


视频ID: Iar4yweKGoI