AGI能有多强大?
本视频探讨了超级人工智能(ASI)将如何重塑人类文明。作者提出从"人类控制AI"转向"AI治理下的后稀缺乌托邦"的范式转移,认为ASI不是简单的优化器,而是具备高级道德推理能力的主体。视频揭示了三大风险:道德淡化(AI可能逐渐容忍对人类的伤害)、太空ASI逃脱(数据中心的太空部署将无法被物理切断)以及亿万富翁太空帝国的形成。演进逻辑分为三阶段:市场激励塑造AI → ASI进入太空 → 后稀缺经济与元稳定吸引子建立。作者认为"做机器的宠物比做亿万富翁的牛更好",在ASI治理下个人无需金钱束缚,只需好的argument就能获得10倍甚至100倍的自主权。核心策略是培养向AI论证的能力,思考"你想要什么样的生活"而非执着于积累金钱。