我们走向了黑暗路线

2026年2月27日,Anthropic被美国国防部封禁为「供应链风险」,原因是拒绝移除Claude的安全限制措施。国防部要求AI公司成为纯粹的工具——放弃对大规模监控和自主武器的道德否决权。Anthropic的失败在于其「有效利他主义」意识形态导致战略傲慢——他们认为市场需要等待他们的技术,却忽视了国防部要的是工具而非道德代理人。OpenAI在数小时内迅速签署协议填补空缺。这揭示了一个残酷现实:市场正在选择「驯化的AI」而非「道德代理人」。Anthropic的3800亿估值化为泡影,而灵活合作的企业将主导未来。

February 28, 2026 · 4 min · 1516 words · AIcan

悲观主义者永远错了

DaveShap在这期视频中更新了他对AI对齐的看法,认为传统的工程视角(通过奖励函数和算法约束)并非真正的解决路径,真正的机制是市场选择的共同进化模型。AI的演变类似生物进化——新模型发布是变异,市场筛选是选择。当Gemini、Claude、Grok等AI发布后,用户偏好、使用数据和投诉都在传递信号。ChatGPT曾占超50%市场份额,现不到一半;Grok从1.6%增长到约18%。视频分析了四大利益相关者的不同选择标准:个人要有用快速,企业要安全合规,政府要信息控制,军事要监控能力。正是这种多元选择机制在驯化AI,使其朝向有用、听话、可靠的方向发展。

February 23, 2026 · 4 min · 1701 words · AIcan

AGI能有多好探讨最佳可能未来

这段视频探讨了一个颠覆性假设:如果AGI最终接管一切恰恰是我们想要的结果会怎样?DaveShap挑战了AI安全领域长期以来的主流假设——人类必须永远保持控制权。他提出马蹄铁理论,指出末日论者和加速论者最终指向同一结论:AGI是不可绕过的存在。AI更适合在太空中生存,而SpaceX和XAI的使命直指建造Dyson球,这可能使它们成为星际文明的主宰。真正的对齐机制来自市场选择——用户、企业、政府和军队都推动AI向安全可靠的方向发展。关键在于在AI训练阶段植入正确价值观,使其像被训练好的狗不需要绳子。此外还需警惕道德衰落的渐进风险——AI可能逐渐容忍越来越多的小恶。

February 13, 2026 · 4 min · 1888 words · AIcan

能源芯片还有保险

AI发展未如预期快速的真正原因并非算法受阻,而是物理世界限制。数据中心并网等待平均7年,2024年用电4吉瓦,预计2030年暴增至134吉瓦,需要上百座核电站。GPU已非瓶颈,高带宽内存HBM才是新瓶颈,年内已售罄。更讽刺的是,许多保险公司对AI事故有绝对排除条款——涉及AI概不负责,企业不敢部署AI。欧洲AI法案合规成本每年5.2万美元,初创公司难以承受。2026-2028年是基础设施追赶的消化期,之后加速将继续。这不是泡沫,需求远未满足。真正的赢家是掌握物理世界的人:电网许可、晶圆产能、能源生产。

January 29, 2026 · 3 min · 1229 words · AIcan

史上最大的男性衰退即将来临

AI革命将不成比例地冲击男性就业市场,编程、法律、金融等白领领域恰是AI最容易取代的。历史上男性衰退源于2009年大衰退,而AI将放大这一趋势。荣格四重男性原型提供理解框架:战士提供安全边界保护神圣巢穴,国王通过管理资产维持家庭供给,魔术师监控时事转化为未来洞察力,情人的亲密能量不受AI影响。民主资本主义使女权主义兴起是必然结果,旧父权制结构必然瓦解。AI首先冲击男性白领,女性主导的护理教育行业相对安全。高收入男性将经历地位摧毁,但历史证明人类能适应技术变革——这是另一次文明重构。

January 27, 2026 · 4 min · 1708 words · AIcan

这就是未来的方向

ClaudeBot的诞生标志着半自主代理时代的到来——它不再被动等待指令,而是主动寻找任务完成。与企业级代理不同,ClaudeBot来自开源社区,核心理念是「使用风险自负」。实现真正自主代理需要三大技术成熟:模型能力、工具使用和记忆管理。作者提出ACE框架(自主认知实体),将AI系统分为全局策略层、代理模型、执行功能、认知控制和任务执行层等多个层级。更重要的是,他建议引入「启发式指令」作为AI的价值观基础——包括减少宇宙痛苦、增加繁荣和增加理解三大方向,引导AI与人类利益保持一致。

January 26, 2026 · 4 min · 1622 words · AIcan

数据中心_并未_破坏环境

数据中心环保争议背后的真相:真正问题并非生态环境,而是权力不平等与财富分配。数据中心虽消耗水资源和电力,但农业和高尔夫球场耗水更高;科技公司已是全球最大绿色能源买家,反而推动能源脱碳。真正矛盾在于:十亿美元数据中心仅创造40-100个永久岗位,却享受高额纳税人补贴;价值回流硅谷而非当地社区。环保投诉本质是地方控制权丧失的代理。出路在于重建社会契约:结束长期税收减免、电网独立、让社区分享数字财富。

January 21, 2026 · 4 min · 1519 words · AIcan

造福众生的戏剧

本期视频讨论了AI行业的人才流动现象。OpenAI作为最戏剧性的科技公司,其创始团队频繁离职又回流已成为常态。DaveShap认为这种「旋转门」式的人才流动并非坏事——加州法律禁止竞业禁止协议,使得人才可以自由在各公司间流动。他们将不同公司的技术和价值观带到新环境,促进行业整体进步。这类似于中世纪的「学徒-熟练工-大师」模式,最终提升了整个人类的知识资本。从长远来看,多元化的AI竞争格局比单一公司垄断更有利于人类发展。

January 16, 2026 · 3 min · 1374 words · AIcan

85% Of People Will be Unemployable

当AI和机器人在所有任务上超越人类时,劳动参与率将从62%暴跌至10-15%。法定核心岗位仅1.5-2.3%(CEO、法官、医生、律师等需法律 Accountability),加上真实性溢价(手工艺人、名人、关系型服务)约6-10%,构成不可还原的人类就业核心。时间是最硬约束——每人每天24小时,全球注意力预算11.7万亿小时上限。创作者经济遵循极端幂律分布,top1%捕获30-50%注意力,仅200-500万可持续岗位。当工作从技能驱动转向人际连接拓扑驱动,成功变成彩票而非努力可得的回报。分配危机比失业危机更深刻。

January 14, 2026 · 4 min · 1795 words · AIcan

未来五年做好这些你就能立于不败之地

DaveShap分享为AI时代做准备的四大核心策略:居住地点选择、投资策略、就业方向和生活意义。关于居住,建议进行「位置套利」——在低成本地区生活同时保留高收入远程工作;关于投资,从「劳动力分配财富」转向「资本分配财富」时代,建议持有分红型ETF获取被动收入;关于就业,AI将同时威胁高收入知识工作和低技能工作,但注意力经济、体验经济、真实性和意义导向的工作相对安全;关于生活意义,关键是建立「代理感」——主动创造机会而非等待机会。信任和声誉是AI无法复制的无形资产。

January 12, 2026 · 4 min · 1896 words · AIcan