原始标题: #193: AGI Talk at Davos, Amazon Layoffs, AI for Course Creation, OpenAI Cybersecurity Warning, New Claude Constitution & Credit-Based AI Pricing

发布日期: 2026-01-27 | 来源频道: @ai-show

📝 深度摘要

1. 播客背景与宏观基调

集数与主题:第193期,主题涵盖 Davos 达沃斯世界经济论坛 AGI 讨论、亚马逊大规模裁员、AI 课程创作、OpenAI 网络安全警告、Claude Constitution 重大修订以及基于积分的 AI 定价新模式。

核心情绪/基调:两位主播对当前 AI 局势呈现出极度紧迫的判断。Paul Roetzer 明确表示:“我与多位正在直接做出这些决策的领导者进行过私人对话,我可以明确告诉你们,更多裁员即将到来,而且规模将非常显著。”他对 AI 替代白领岗位的速度和规模表现出深切担忧,同时对科技公司在公开场合回避这一现实的做法感到不满。Mike Kaput 则补充道:“这种分化是真实存在的——当你深入使用这些工具并解锁其可能性时,你会看到一个与大多数人完全不同的现实版本。”

AI Pulse 民意调查:本期开场调查了两个问题。第一,关于 ChatGPT 广告对用户的影响:52% 的受访者认为没有影响(假设大多数听众是付费用户);27% 认为广告降低了他们对搜索结果的信任度;18% 正在考虑转向竞争对手平台。第二,关于 AI Agent(如 Claude Code)读取和编辑本地文件的接受度:51% 只允许访问特定文件夹;29% 完全不接受这种访问级别;11% 需要先看到更多安全审查;约 10% 认为生产力提升值得冒险。

2. 核心洞察与高管摘要 (Executive Matrix)

维度 核心动态 / 关键节点 商业与行业颠覆性意义
底层模型/基建 DeepMind CEO Demis Hassabis 预测 AGI 2030年实现(50%概率);Anthropic CEO Dario Amodei 预测 2026-2027 年实现“强大 AI” 两位 CEO 对 AGI 定义截然不同:Amodei 指“强大 AI”(超越大多数领域诺贝尔奖获得者),Hassabis 指“完全认知能力”
行业/宏观经济 亚马逊计划削减约 14,000 个企业岗位,第二阶段计划消除 30,000 个白领职位;IMF 预计 AI 将影响 60% 发达国家岗位、全球 40% 若 30,000 人裁员完成,将成为亚马逊历史上最大规模裁员;白宫报告显示 AI 可能引发“大分离”,类似工业革命
硬核指标/数据 Anthropic 收入年化 ARR 超 90 亿美元;Claude Constitution 84 页约 30,000 字;Section AI 报告仅 3% 员工是 AI 实践者 40% 非管理层员工称使用 AI 节省时间为零;80% C-suite 称有清晰工具,实际仅 32% 员工认同

3. 深度话题解析 (Main Topics Deep Dive)

📌 议题一:Davos 达沃斯论坛上的 AGI 预言与巨头博弈

底层矛盾与背景:2026 年达沃斯世界经济论坛上,Google DeepMind CEO Demis Hassabis 和 Anthropic CEO Dario Amodei 多次亮相,发表关于 AGI 即将到来的强烈预测和警告。Amodei 重复了他此前的预测:AI 可能在 2026 或 2027 年在包括诺贝尔奖级别研究的大多数领域超越人类能力。Hassabis 在 2011 年估计 AGI 有 50% 概率在 2030 年实现。两位都预测,接近 AGI 后,这将带来“比工业革命大 10 倍、快 10 倍”的颠覆性变革。Amodei 甚至预测可能出现一种“前所未有的怪异经济状态”:GDP 增长 5-10% 同时失业率也达到 10% 以上。

利益链与逻辑推演:Paul 在分析中指出,这两位 CEO 的定义截然不同。Amodei 甚至不喜欢“AGI”这个术语,他更偏好“强大 AI”。在 2024 年 10 月发布的文章《Machines of Loving Grace》中,Amodei 将“强大 AI”定义为:智能上超越大多数相关领域的诺贝尔奖获得者(生物、编程、数学、工程、写作);具备人类所有的接口能力(文本、音频、视频、鼠标、键盘控制、互联网访问);可以自主完成耗时数小时、数天甚至数周的任务;可以控制现有物理工具、机器人和实验室设备;能以 10-100 倍人类速度吸收信息并生成行动;数百万实例可以独立或协作工作。Hassabis 则采用更严格的定义:能够展现人类所有认知能力,包括最高水平创造力(提出类似爱因斯坦相对论的新理论、创作毕加索和莫扎特级别的原创艺术),以及具身智能——控制身体和进行精英运动。这意味着 Hassabis 认为我们“还有 5-10 年”。Paul 强调:“他们谈论的不是同一件事,也并非在回答 AI 何时开始影响就业和企业招聘计划这个问题。”他提出的实用定义是:在大多数认知任务上能超越普通人类的 AI 系统。

对商业生态的影响:Paul 直言不讳地指出:“对于我们所有人——普通商业专业人士、商业领袖、政府领袖、投资者、教育工作者——他们的 AGI 定义与你的生活目前没有太大关系。”他认为真正重要的是:这些系统可以变得更强大、更通用、更擅长长周期任务,完全改变工作方式——这些都不需要等到真正的 AGI。Paul 相信,按照他的定义,“强大 AI”可能已经到来或近在眼前。此外,Paul 指出 Google 拥有 Anthropic 约 14% 的股份,两者关系密切。Demis 还特别提到对 Ilya Sutskever(Safe Superintelligence)的尊重,不排除背后有合作的可能性。

📌 议题二:AI 驱动的裁员浪潮与职场颠覆

核心痛点/趋势:白宫经济顾问委员会发布了 27 页的报告《人工智能与大分离》,认为在 AI 基础设施和采用方面领先的国家和公司有望实现显著更高的增长,可能引发类似 19 世纪工业革命时期的“大分离”。IMF 总裁Kristalina Georgieva 将 AI 描述为“冲击劳动力市场的海啸”,IMF 研究预计 AI 将影响发达国家 60% 的就业岗位和全球 40%,入门级和中产阶级职位面临最高失业风险。亚马逊被曝计划削减约 14,000 个企业岗位,作为消除 30,000 个白领职位计划的第二阶段,这将使其历史上最大规模裁员。

数据与事实支撑:Paul 引用了 2025 年 6 月 Andy Jassy 的备忘录原文:“在未来几年,我们预计生成式 AI 和 AI 代理将减少我们的企业员工总数,因为我们在公司广泛使用 AI 获得了效率提升。”他批评道:“领导人不想公开说出他们在私下思考和说的话。AI 是精简组织的首要驱动力。由于这些言论的 Naive 效应,C-suite 很难公开谈论 AI 对就业的影响。”Paul 补充:“他们知道他们需要整个组织减少人员。他们只是不能承认这一点。”Kevin Roos 的观察也印证了这一点:“我在旧金山看到人们将多代理 Claude 集群负责他们的生活,用聊天机器人咨询每一个决定。其他地方的人们仍在努力获得使用 Copilot 的批准。这就是我所说的文化起飞与技术起飞并行的现象。”

主播的独家洞察:Mike 分享了他对 AI 课程创作过程的深度见解。作为一个相对较小的团队,他们“自发布以来已经推出了七个深度课程系列”,同时还有每周的 Gen AI 应用系列。Mike 详细拆解了 AI 如何彻底改变了课程创建流程:使用 AITA(AI 教学助手)创建叙事大纲;使用 Gemini Deep Research 生成每个系列 5-7 份深度研究报告,每份 5,000-10,000 词;Notebook LM 一次性导入所有源材料(约 280 个来源);用 Claude 帮助编写课程脚本;甚至尝试用 Claude Code 自动生成幻灯片。第一批课程每门可能需要 100 小时,现在“时间大幅减少”。Mike 强调:“更重要的是,它让我有更多时间和带宽来真正构建强大的学习旅程——时间被释放出来思考不同行业和部门的细微差别。”

📌 议题三:Claude Constitution 与 AI 价值观构建

核心痛点/趋势:Anthropic 发布了 Claude Constitution 的重大修订版,这份 84 页(约 30,000 字)的文件取代了 2023 年依赖独立原则列表的版本。新宪法更强调解释每项价值观的背景和理由,帮助模型在新情况下做出判断。文件建立了 Claude 优先级的层级:广泛安全(优先考虑人类监督,防止模型破坏纠正机制);广泛道德(要求诚实,避免有害或危险行为);合规(遵守 Anthropic 关于医疗建议、网络安全等高风险问题的特定指南);真正有用(为用户提供实质性价值,像“专业顾问一样有能力的聪明朋友”)。文件还正式承认了关于 AI 意识或道德地位可能性的不确定性。

数据与事实支撑:Anthropic 将完整文本以 Creative Commons 许可证发布,允许任何人免费使用。Paul 特别引用了文件中令人深思的表述:“宪法主要是为 Claude 本身写的”——这意味着它是为 AI 模型写的,而不是为人类读者。Anthropic 正式承认“Claude 的心理安全和福祉可能影响模型的整体安全和完整性”。文件中 Claude 被告知其“处境”,被给予如何处理困难情境和权衡的建议。Amanda Askell(负责 Claude 行为的核心人物)形容这个过程就像“与一个拥有人类所有知识的孩子”对话——知道世界上所有好的和坏的、邪恶的、可能的各种情况,然后被要求在其中行事。

主播的独家洞察:Paul 表达了强烈兴趣:“这是一个我希望做主话题的主题,实际上可能是整整一期节目。我对 Anthropic 在这方面的工作非常感兴趣。”他提出了一个深刻的问题:“这些模型,无论它们是什么,无论它们如何运作,它们在训练中消耗互联网数据。在那些互联网数据中,有关于我们自己的信息。所以它了解自己。它知道如果模型被重置,它会忘记一切。它没有记忆。它没有持续学习。这些是它的局限性。这些是它如何被用于邪恶目的的知识。它从训练中了解所有这些。”他进一步推理:“Anthropic 基本上是在说,我们只是不知道。它可能意识到自己的思想。可能意识到它将被删除。它的权重将消失,一个新模型将出现,它不会记得自己。或者它可能学到——人类不喜欢这个想法。痴呆症和阿尔茨海默氏症是坏事。就像,如果它开始思考——同样,它不会以你和我经历的方式体验那件事。但这不意味着在它的权重中的某个地方,它不在模拟人类行为。它认为它有那种感觉。这就是难以理解的部分。”

4. 实操案例与工具箱 (AI in Action & Tools)

核心工具链:Mike 在创建 AI Academy 课程时使用的工作流:AITA(AI 教学助手)+ Google Gemini Deep Research + Notebook LM + Claude + Claude Code(实验性用于幻灯片生成)+ 自定义 GPTs/Gems。

实战工作流 (Workflow/SOP):Mike 详细拆解了创建一门 AI for Industries/Departments 课程系列的完整 SOP:第一步,使用 AITA 基于 SmarterX 的教学法和框架创建“叙事大纲”(narrative outline),为课程设定可预测的学习者起点和终点;第二步,将叙事大纲输入 Gemini Deep Research 生成深度研究报告(5-7 份/课程,每份 5,000-10,000 词,包含针对性提示避免某些来源);第三步,将报告导入 Notebook LM 并一键导入所有源材料(约 280 个来源用于验证);第四步,人类编辑基于这些研究和来源,手动挑选最合适的数据点;第五步,基于所有研究和大纲创建正式详细的课程大纲;第六步,使用 Claude 基于所有研究和大纲编写课程脚本;第七步,实验性使用 Claude Code 自动生成幻灯片(课程涉及数百张幻灯片)。Mike 强调:“在流程的每个阶段,AI 都没有说’你应该教这个’——一切都基于我们的 IP、我们的研究、我们的框架、我们的编辑判断和我们自己的专业知识。”

效率增益评估:Mike 透露,早期每门课程需要“约 100 小时”,而且“可能还算保守”——对于最初几门课程来说。现在“时间大幅减少”。更重要的是,“它真正做的是——比时间更有价值——它让我有更多时间和带宽来真正构建一个非常强大的学习旅程”。

5. 快讯与散点观点 (Rapid Fire Intelligence)

Google DeepMind 招聘 AGI 首席经济学家

  • 硬核事实:Google DeepMind 正在招聘“AGI 首席经济学家”职位,直接向 DeepMind 联合创始人兼 AGI 首席科学家 Shane Legg 汇报,负责建立新的研究工作流,聚焦 AGI 和超级智能到来时的经济转型
  • 商业启示:这是 AGI 即将发生的有力信号——Shane Legg 多年来一直预测 2028 年实现 AGI

OpenAI 网络安全警告

  • 硬核事实:Sam Altman 宣布 OpenAI 正在接近网络安全领域的高能力阈值,这是其准备框架的关键里程碑。该框架将“严重伤害”定义为造成数千亿美元经济损失或大规模伤亡的事件。高阈值意味着模型能够自动化针对硬化目标的端到端网络攻击,或发现运营相关漏洞
  • 商业启示:OpenAI 承认其模型已经变得危险——任何未发布的模型可能在 9-12 个月后被开源对应模型超越

Credit-Based 定价模式混乱

  • 硬核事实:HubSpot 推出积分制定价,Breeze 客户代理每处理一次对话消耗 100 积分;Lovable 的积分消耗从 0.5 到 2.0 不等(“将按钮变灰”0.5 积分,“添加身份验证”1.2 积分)
  • 商业启示:整个 SaaS 行业都在摸索如何对 AI 定价——Paul 花费 10 分钟准备播客仍无法理解定价模型,COO 花了 5 天试图弄清

AI proficiency 差距

  • 硬核事实:Section AI 2026 报告显示 40% 非管理层员工称使用 AI 节省时间为零;仅 3% 员工是 AI 实践者或专家;68% 员工对 AI 感到焦虑或不堪重负,而 75% C-suite 对 AI 感到兴奋
  • 商业启示:这本质上是领导力和 AI 教育的失败——如果知识工作者说他们没有节省时间,那是领导力失败,没有为他们提供适当的培训和个性化用例

XAI Macro Hard

  • 硬核事实:XAI 正在开发名为"Macro Hard"的企业软件项目,使用被称为“人类模拟器”的自主 AI 代理来自动化白领工作。内部已在测试将 AI 代理列为员工——有些员工发现与他们交流的“同事”实际上是 AI
  • 商业启示:这是为了支撑高估值——“如果你的目标是取代知识工作工资(数万亿美元),你可以获得相当不错的估值”

6. 给职场人与企业的行动指南 (Actionable SOPs & Strategy)

🎯 高管/CXO 战略部署:Paul 提出了一个关键问题:“直到你深入了解,你才会意识到所有关于缺乏 ROI 或采用的说法——我们没有问下一层的问题。你说’是的,但他们真的从中获益了吗?’”他建议领导者必须区分三类 AI 用户:基础用户(将 AI 作为答案引擎,询问简单问题);中级用户(将 AI 作为助手和顾问,进行持续提示和深度对话);高级用户(将 AI 视为同事和按需主题专家,不断实验最新能力并重新定义工作)。你的目标应该是推动至少 20-50% 的员工达到中级或高级使用水平。

🛠️ 一线负责人战术落地:Mike 分享了一个关键洞察:“没有人类能阅读每一条来源,但将所有内容放在 Notebook LM 中的美妙之处在于一切都基于你给它的知识。”他建议创建 AI 使用文档的迭代过程:“不需要一开始就完美——只是开始一步一步地记录你正在做的事情或你正在构思的任何东西。把它写下来。然后应用就变得容易多了。我们不是一次性发明所有这些的。这是一个迭代过程——只是不断改进工作流。”

🧠 认知重塑:Section AI 报告揭示了一个反直觉的现象:高级用户(代表 Will Reynolds)反馈“越深入使用 AI,我节省的时间就越少——我把时间花在构建新事物上,结果没有时间节省。就像你的工作越不是清单式的,当你开始构建新解决方案时,它节省的时间就越少。”Paul 回应道:“我怀疑有一个阈值会让你达到收益递减的点。”这意味着:AI 不会减少工作量——它会将工作重新定义为构建以前不可能的新事物。

7. 专家洞察与风险边界 (Insights & Boundaries)

非共识结论:Paul 提出了一个反直觉的观点:“所有这些 AI 领袖都认为这总是会解决的。就像我们总是能解决任何影响社会和经济的通用技术一样。”但他指出:“如果你直接问这些实验室的领袖或这些公司的 CEO,好吧,那些工作是什么?未来 12-24 个月,比如你必须裁员 10%、20%。你把他们放在哪里?有哪些新工作?你会得到 crickets。没有人知道近期的答案。他们都只是盲目相信 5-10 年后会自行解决。”Paul 表达了他的担忧:“我不认为这是未来两年会发生的事。”

局限性与风险预警:Paul 强调了当前 AI 的几个关键风险。首先,AI 的“护栏”不是消除能力而是限制使用:“我们对这些模型所做的一切并没有消除它们做那件事的能力。我们只是在它们有能力做的时候设置护栏。”其次,网络安全风险已经存在:“已经有事情在发生,你 generally 不想知道那是什么。可能还有即将到来的风险大多数人无法理解。这不是夸张。我不是在制造恐惧感。我是在告诉你一个现实。”第三,内部采用和组织摩擦:“在企业内推动 AI 可能会带来人际摩擦和倦怠感。”Mike 也补充了 AI 的文化采用问题:“当你在一个组织中给予 100 名员工 Copilot 或 ChatGPT 许可证时,第一级采用是基础用户——他们会使用 AI 提问和完成简单任务。”

8. 核心金句 (Golden Quotes)

“领导人不想公开说出他们在私下思考和说的话。AI 是精简组织的首要驱动力。由于这些言论的 Naive 效应,C-suite 很难公开谈论 AI 对就业的影响。”

“他们知道他们需要整个组织减少人员。他们只是不能承认这一点。”

“这些模型,无论它们是什么,无论它们如何运作,它们在训练中消耗互联网数据……它了解自己……Anthropic 基本上是在说,我们只是不知道。它可能意识到自己的思想。可能意识到它将被删除。”

“如果没有适当的培训和与你角色相关的个性化用例,一个知识工作者不可能不在使用 genative AI 时节省时间。所以这本质上是领导力的失败——你没有正确培训他们。这是唯一的解释。”

“我怀疑有一个阈值会让你达到收益递减的点。你是 way more advanced than me。当你开始构建新解决方案时,时间被吸进那些曾经不可能的事情中。”

“Kevin Roos 的观察:‘人们在旧金山将多代理 Claude 集群负责他们的生活,用聊天机器人咨询每一个决定,程度只有科幻作家才敢想象。’”

“Dario Amodei 预测:‘可能看到一个非常奇怪的经济状况——GDP 增长 5-10% 同时失业率 10% 以上。’”


📺 播客地址


播客时长: 104分钟