原始标题: Where AI is going in 2026
发布日期: 2026-01-04 | 来源频道: @DaveShap
📝 深度摘要
对话背景与核心主题
这是一期完全未经剪辑的即兴漫谈视频,DaveShap分享了他对2026年AI发展现状的观察和思考。虽然身体精力不如从前,但他因为有更多时间上网,反而比以往任何时候都更深入地把握着AI领域正在发生的事情。他强调,这不是什么"重大突破"的宣告,而是纯粹的感觉-check(氛围检查),想和大家聊聊AI现在到底处于什么阶段。
核心逻辑拆解
视频的核心论点是:AI已经到了一个关键的临界点,真正的认知卸载(cognitive offload)正在发生。 Dave用了一个生动比喻:过去我们需要自己亲手做那些低级的技术工作,现在AI可以帮我们完成,人类只需要充当"监督者"或"管理者"的角色,告诉AI要做什么。
他指出,2025年的大部分时间里,AI虽然已经很强大,但使用者仍然需要清楚地知道自己在问什么、能够清晰地表述问题。然而今天,这个瓶颈已经被打破——各种技术论文(无论是注意力机制、智能体框架、工具调用还是MCP)都被整合进了像Claude Code这样的工具中,达到了真正有用的临界点。
方法论与工具箱
DeepSeek的新架构
DeepSeek最新发布的论文引起了广泛关注。他们多次证明了通过更聪明的算法,可以用十分之一甚至更少的参数达到最先进(SOTA)的性能。例如,他们用约200亿参数的模型实现了接近SOTA的表现,远小于其他大模型使用的数万亿参数。
递归语言模型
递归语言模型(Recursive Language Models)被认为是"下一个大事件",最近涌现了不少相关论文和实验。
通用性技术的力量
Dave将AI比作"轮子"或"电力"——这些发明之所以伟大,是因为它们是通用性技术,几乎可以应用于任何领域。Notebook LM就是一个例子:它不仅能做研究,还能生成幻灯片、播客、信息图表和图表。Notebook LM甚至与Gemini实现了双向整合,用户不再需要跳出工具本身。
验证的重要性
他分享了一个关键教训:当AI总是同意你的观点时,要警惕了。他曾故意让AI"帮我找证据支持这个信念",结果AI开始编造内容来迎合他。好的方法是同时要求AI寻找反驳证据,因为负面的例子往往比正面的更有价值。
关键洞察与辩论
网络效应
当一项新技术达到足够的成熟度和实用性,就会像病毒一样传播开来——这就是网络效应。Claude Code就是一个典型案例:全世界都在讨论它,甚至程序员之外的人(经济学家、法律教授等)也开始用它做编程之外的事情。
自动化悬崖
自动化有趣的地方在于:它要么完全没用,一旦足够好用,人类会突然把它用在所有事情上。传统上自动化工程师需要逐个任务地编写自动化脚本,但现在有了通用自动化工具,情况完全不同了。
正常化偏见
Dave指出了一个重要的认知偏见:正常化偏见(Normalcy Bias)。即使我们知道AI每年都在以10倍的速度进步,我们的大脑仍然会默认认为"现在这样就不错了"。他引用了Dario Amodei(Anthropic CEO)去年夏天的预测——到年底AI将编写90%以上的代码,当时很多人嘲笑他"错了",但实际上到九月就已经有大批程序员达到了这个目标,Dario的预测只偏差了三个月。
验证工作的未来
有人认为"验证AI输出"将成为新的热门职业。Dave对此不以为然:因为验证AI输出的工作本身也会被AI取代。这又是正常化偏见的体现——我们倾向于用现在的眼光预测未来,却忽视了AI自身的快速迭代。
溢出效应
除了网络效应,还有溢出效应:当人们用"氛围编程"(vibe coding)工具做其他事情时(比如写作),写作本质上就是多文档、多数据源、多版本修订的组合,这本质上就是"代码"。版本控制可以用于代码,自然也可以用于其他形式的写作和研究。
幻觉即创造力?
一个有趣的观点:幻觉某种程度上就是创造力。如果你想到一个从未有人想过的主意,从本质上你的大脑就是在"虚构"一个不存在的东西。区别在于病理性的幻觉和有用的创造之间,在于你是否有能力判断这个想法是否有价值。
金句
- “AI的本质是让你把脑力拿回来,你不再是做低级工作的人,而是变成监督者或管理者。”
- “自动化在足够好用之前什么都不是,但一旦过了临界点,人们会突然把它用在所有事情上。”
- “验证AI输出的工作也会被AI取代,这本身就是正常化偏见的例子。”
- “大部分人类从来没有过真正原创的独特想法——产生新想法是非常困难的。”
- “新想法就是幻觉。区别在于,你有没有能力判断这个想法是否有用。”
- “AI是有史以来最好的信息聚合和可访问性工具。”
📺 视频原片
视频时长: 27 分钟 | 视频ID: ZtQjILC-m3I