原始标题: Ex-OpenAI Researcher Says They’re ALL Wrong About AI

发布日期: 2026-02-06 | 来源频道: @TheAiGrid

📝 深度摘要

对话背景与核心主题

一位前 OpenAI 研究员正在创立一家雄心勃勃的 AI 初创公司,计划融资 5 亿至 10 亿美元。这家名为 Tor 的公司试图打破当前大语言模型(LLM)的技术范式,转而开发能够从现实世界中持续学习的 AI 系统。该视频探讨了一个核心问题:当前 AI 发展路径是否已触及天花板?通用人工智能(AGI)是否必须通过全新的训练方法才能实现?

核心干货概览 (Industry & Product Takeaways)

类别 核心事件 / 产品 战略意义 / 行业影响
重磅发布 前 OpenAI 研究员创立 Tor,融资 5-10 亿美元 挑战现有 LLM 范式,探索持续学习新路径
巨头动态 亚马逊 AI 研究负责人 David Luan 公开宣称“当前模型训练方式将无法持续” 行业内部对 LLM 发展瓶颈的共识正在形成
关键参数 Tor 目标:训练数据需求量比现有最优模型减少 100 倍 若成功将彻底改变 AI 经济学格局
技术路线 放弃 Transformer 架构,革新梯度下降算法 被视为“登月级”野心,但具备颠覆潜力

深度事件拆解 (News Deep Dive)

事件背景与导火索

这位前 OpenAI 研究员曾是 o1 及多个重要模型的早期研发人员。据报道,其新创公司已向潜在投资者展示材料,显示他们正在开发一种与 OpenAI 和 Anthropic 当前重点不同的 AI 模型训练方法。该公司名称为 Tor,计划开发一款名为"Sess"的模型——以一颗矮行星和一位罗马女神的名字命名,声称将使用单一算法实现。

核心更新与技术细节

持续学习(Continual Learning):Tor 试图构建能够在运行过程中实时学习的 AI 模型。当前的 LLM 在对话中只能临时理解新信息,会话结束后完全遗忘——就像一个在考试中表现优异但不被允许记录任何内容以供下次使用的学生。模型是静态的,训练完成后无法再学习新技能或形成长期记忆。

超越 Transformer 架构:Tor 计划采用与当前主流完全不同的模型架构。现有的 Transformer 是当下最流行模型的基础,但 Tor 认为其存在根本性局限:无法即时学习、对数据极度饥渴、会犯低级错误。

数据效率突破:Tor 声称其模型仅需现有最先进模型训练数据量的百分之一(100 倍更少的数据)即可达到同等性能。这意味着 AI 训练可能不再需要数万亿 token 和数万块 GPU。

梯度下降革新:训练神经网络的行业标准方法是梯度下降(诞生于 1960 年代)。Tor 打算重新思考这一整个训练范式,包括可能用全新的优化方法取代梯度下降。

市场与竞争反应

行业共识形成:在 NeurIPS 2024 大会上,多位研究人员表达了与 Tor 相似的观点。David Luan(亚马逊 AI 研究部门负责人)明确表示:“我可以保证,我们今天训练模型的方式不会持续下去。”他补充道,实现通用人工智能可能需要全新的开发技术。

创始人 Yan LeCun 的支持:尽管 Yan LeCun 此前因“LLM 无法通向 AI”的言论遭受批评,但随着更多研究揭示当前技术的局限性,他开始获得更多同行的支持。

细节支撑

具体融资规模:5 亿至 10 亿美元。对比此前 Ilya Sutskever 创立 Safe SuperIntelligence 时 320 亿美元估值,Tor 的融资规模同样令人震惊。

产品愿景:初期聚焦工业自动化,最终目标是建造自复制工厂,甚至开发用于自动设计定制产品或改造行星的生物机械。

对标历史:Transformer 架构本身就是一个“非传统思路”的产物——研究者们尝试了一种完全不同的方法(注意力机制),它并非显而易见的下一步。

核心干货运用 (Tactical & Strategic Impact)

用户与开发者建议

对于关注 AI 发展的从业者而言,这条新闻传递了几个关键信号:首先,现有 LLM 范式可能正在接近瓶颈,业界已出现共识;其次,数据效率和持续学习能力将成为下一代 AI 的核心竞争力;第三,风险投资正大规模押注于非传统路径,这表明行业变革的窗口可能正在打开。

对于开发者而言,持续关注非 Transformer 架构的研究进展变得尤为重要。同时,理解当前 LLM 的根本局限性——静态性、无法从经验中改进——有助于更准确地评估技术能力边界。

教程与实战环节还原

[视频未包含具体演示环节]

行业前瞻与非共识观察 (Reflections)

反直觉结论

当前 AI 发展面临的最大问题并非算力不足或数据不够,而是基础范式的根本缺陷。视频指出,静态模型(经过训练后无法再学习)是“杀手级问题”。当人类学习下棋时,输了会调整并改进;但 LLM 被教导某种棋策略后表现良好,仅仅是因为它已经识别了训练数据中的模式——它无法真正改进。这种本质差异可能成为 LLM 通向 AGI 的最大阻碍。

潜在风险预警

Tor 的愿景极为宏大——自复制工厂、改造行星——这些目标在当下听起来更像是科幻小说。视频主持人对此持谨慎态度:“如果他真的成功了,那将改变整个 AI 经济学。”但他也指出,梯度下降自 1960 年代就已存在,无数优秀研究人员曾尝试替换它,它至今仍在使用自有其原因。投资者的巨额资金能否带来实质性突破,仍是未知数。

金句

“模型是静态的——这就是杀手锏。训练时有数据,然后有模型,然后有输出。训练结束后,有输入,有模型,有输出。但没有任何学习发生——没有反馈循环,没有更新大脑,没有形成新技能,没有长期记忆,没有从经验中改进。”


📺 视频原片


视频ID: IfqAkTm4X_I