ChatGPT将快100倍...(Cerebras合作)
2025年AI基础设施迎来重大变革,专用推理芯片成为行业焦点。本视频深入解析OpenAI与Cerebras超百亿美元的战略合作,揭示为何OpenAI舍Nvidia/Groq而选择Cerebras——其WSE芯片推理速度超过3000 tokens/秒,是Groq的6.5倍。视频对比了晶圆级引擎与传统GPU的核心差异:Cerebras凭借194GB片上SRAM彻底绕过HBM内存瓶颈,而Google TPU已证明前沿模型训练可不依赖Nvidia。作者认为推理速度将成为差异化关键:当AI响应接近即时,开发将进入并行代理时代,多模型同时工作大幅提升迭代效率。OpenAI的采购将释放其自有GPU资源专注训练,用户有望获得更强模型。