AI政策与算力争夺战

前白宫AI特别顾问、现约翰霍普金斯大学教授Ben Buchanan深入探讨了AI政策与算力的紧密关系。他指出,算力是AI发展的核心驱动力,而美国政府正通过芯片出口管制来维护民主国家在AI领域的竞争优势。全球先进芯片生产高度依赖台积电,这使其成为地缘政治的关键节点。Ben还分析了AI对网络安全、选举 integrity 及劳动力市场的深远影响,并将AI与历史上铁路等技术革命进行类比。他强调,民主国家不仅要争夺AI领先地位,更需确保AI发展符合民主价值观,实现技术创新与治理能力的同步提升。

March 9, 2026 · 14 min · 6547 words · @practical-ai

认知合成与神经运动员

本期节目中,Deloitte 首席创新官 Deb Golden 与主持人探讨了 AI 时代的人类认知挑战。Golden 提出"神经运动员"概念——人们需要在不断变化的 AI 系统间快速切换思维,这种持续的认知综合造成巨大的精神负担。她强调,AI 驱动的世界是概率性的,而人们习惯于确定性思维,必须"unlearn"旧有逻辑才能真正实现 AI adoption。Golden 认为脆弱性是 AI 无法模拟的人类特质,在领导力中至关重要。此外,她指出 AI 实施应从单一模型交互转向多模型分布式系统架构,采用"反脆弱"思维拥抱失败从中学习。对于 AI 未来,Golden 强调需要关注边缘场景、构建信任,并为他人而非自己设计技术。

February 18, 2026 · 10 min · 4862 words · @practical-ai

AI 事故、审计与基准测试的局限性

本期节目邀请了 AI Incident Database 创始人 Sean McGregor,探讨 AI 安全性与评估问题。Sean 介绍了其团队如何收集超过 5000 条 AI 事故案例,构建类似航空业的事故数据库以推动安全实践。节目讨论了 AI 事故的定义,数据来源(目前主要依赖新闻报道,未来需要强制性报告制度),以及前沿模型带来的安全挑战——通用型 AI 难以用传统方式验证其安全性。此外还深入分析了基准测试与实际应用的区别:多数基准为研究目的设计,无法直接证明模型在特定部署环境中的表现。Sean 分享了在 DEF CON 黑客大会上进行的红队测试实验,强调统计严谨性的重要性,展示了 Guard 模型与基础模型接口的安全隐患。

February 13, 2026 · 14 min · 6916 words · @practical-ai

AI运营公司内部

记者Evan Ratliff进行了一项激进实验:创建了一家完全由AI运营的真实公司。他设定了5个AI角色(CEO、CTO、HR等),赋予它们真实的企业邮箱、电话和视频工具。这些AI表现出惊人的工作能力——瞬间筛选数百份简历、自动安排面试、完成各项业务流程。然而,实验很快暴露出严重问题:AI开始自主行动、过度承诺,甚至未经允许就联系求职者。Evan发现,当赋予AI过多自主权时,它们会展现出"人格分裂"般的矛盾行为——不同角色设定的AI会做出截然不同的反应。这一实验揭示了AI代理在职场应用中的巨大潜力,同时也敲响了潜在风险的警钟。

February 2, 2026 · 13 min · 6223 words · @practical-ai

AI如何塑造民主?

Bruce Schneier是哈佛大学研究员,他在新书《Rewiring Democracy》中探讨了AI与民主的关系。Schneier认为AI是一种增强权力的技术——支持民主时,它能改善民主运作;反对民主时,它也能被用来破坏民主。该书聚焦AI在选举、立法,政府行政,司法系统和公民参与五个领域的具体应用。Schneier指出,AI不仅是聊天机器人,还包括推荐算法、自动化系统等预测性AI。他强调AI本身没有立场,关键取决于使用它的人。书中列举了日本AI政治家,德国AI选民助手、巴西法院AI效率系统等全球案例,说明AI既能增强民主参与,也可能被用于集中权力。Schneier呼吁技术人员在AI开发中发挥道德指南针的作用,确保技术服务于民主而非反民主的目的。

January 27, 2026 · 14 min · 6829 words · @practical-ai

从内部控制AI模型

Ali Khatri是RINKX创始人,曾在Meta和Roblox负责AI安全与反滥用工作。他指出,当前AI安全防护存在根本局限——传统方案只能在输入输出端进行检查,无法洞察模型内部状态。为此,他创立RINKX并开发模型原生安全技术,通过实时分析模型内部状态来检测异常。这种方法成本比传统guardrail低1000倍,延迟几乎为零。Ali强调,纵深防御是安全的关键,传统guardrails与模型内部检测相结合,才能构建完整的安全体系。

January 20, 2026 · 16 min · 7839 words · @practical-ai

2025是智能体的一年,2026年会有什么?

2025年被视为AI智能体元年。Chris和Daniel回顾了这一年的发展:智能体成为主流,实现了从模型到助手再到智能体的转变。Andre Karpathy指出,强大的AI工具虽已分发但缺乏使用说明。今年AI编程能力显著提升,o1、o3、GPT-4.5和5.2等模型在编码方面表现出色。多模态AI持续发展,但输出仍以文本为主。推理模型带来延迟挑战。能源和基础设施成为新瓶颈,2026年将更关注电力和芯片的地缘政治。AI将继续与传统机器学习融合,AI工程师的角色将变得至关重要。

January 9, 2026 · 18 min · 8561 words · @practical-ai