原始标题: How is AI shaping democracy?

发布日期: 2026-01-27 | 来源频道: @practical-ai

📝 深度摘要

1. 嘉宾与书籍 introduction

本期节目邀请到了布鲁斯·施奈尔(Bruce Schneier),他是哈佛大学伯克曼·克莱因互联网与社会中心的研究员,同时也是一位著名的安全技术专家。施奈尔以其在密码学和信息安全领域的开创性工作而闻名于世,曾著有《应用密码学》《密码学之美》等经典著作。在本期节目中,他与主持人丹尼尔·惠特纳克和克里斯·本森讨论了他的新书《重塑民主:人工智能如何改变我们的政治、政府与公民身份》(Rewiring Democracy: How AI Will Transform Our Politics, Government, and Citizenship)。这本书是施奈尔与合著者内森·桑德斯共同撰写的,旨在全面探讨人工智能与民主制度的交叉领域。施奈尔在节目中强调,他之所以写这本书,是因为他觉得人们对于人工智能与民主的理解过于狭隘,大多数人仅仅关注深度伪造(deepfakes)这一表象,而忽视了人工智能对民主制度更深层次、更广泛的影响。他指出,人工智能是一种增强力量的技术,它本身不具有立场——如果你热爱民主,人工智能会帮助你改善民主;如果你反对民主,人工智能也会帮助你破坏民主。人工智能没有意图性,它只是放大使用者所拥有的力量。

2. 人工智能作为民主信息系统的核心框架

施奈尔在节目中提出了一个重要的框架性观点:民主本质上是一个信息系统,而人工智能正在这个系统中发挥作用。他解释说,人工智能可以被理解为一种“人工人员”,虽然质量和能力参差不齐,但它能够以各种方式介入社会的各个层面。人们通常从公司和消费者、 workers的角度思考人工智能,但施奈尔认为我们也应该从公民的角度来思考这个问题。

在讨论中,主持人克里斯·本森提出了一个关键问题:许多人日常接触最多的人工智能是像谷歌地图或苹果地图这样的预测性人工智能,以及社交媒体上的算法推荐系统,但很多人并没有意识到这些就是人工智能。值得注意的是,这两种最普遍的人工智能应用都不是聊天机器人式的生成式人工智能——它们都是预测性人工智能。前者预测哪条路线能让你更快到达目的地,后者预测哪个视频能让你在平台上停留更长时间。

施奈尔进一步阐述了他对人工智能能力的看法。他认为,当人们谈论人工智能是否“足够好”的时候,关键问题应该是“与什么相比”。他以一个急诊室的例子来说明这个问题:在加拿大的一个急诊室实验人工智能系统被用来 passively 监听急诊室里的所有噪音和混乱对话,然后自动生成事件报告。医生们只需要审核和批准这份报告。实验结果令人震惊——人工智能生成的报告比医生们自己写的报告要好得多,因为医生们往往会遗漏重要信息、犯错误、忘记事情。这说明在某些情况下,人工智能远远优于人类。

然而,施奈尔也强调,在其他情况下,人类仍然更好。例如,你可能不希望人工智能作为你的医生,因为人类医生更好。但在世界的某些地方,那里根本没有医生,你的选择不是人工智能医生或人类医生,而是人工智能医生或根本没有医生。在这种情况下人工智能可能是更好的选择。因此,一切都取决于具体的应用场景,取决于你用它来做什么。

3. 人工智能与选举的全景分析

施奈尔在节目中详细介绍了《重塑民主》一书的结构框架。这本书分为五个主要部分,第一部分就是关于人工智能与选举的内容。施奈尔指出,人工智能对选举的影响远不止深度伪造这一个方面,而是涵盖了选举过程的方方面面。

在候选人竞选方面,施奈尔提到了日本和巴西等国家正在使用授权的人工智能虚拟形象与选民互动。这些人工智能虚拟形象可以帮助候选人24小时不间断地回答选民的问题,不受时间和精力的限制。人工智能还被用于竞选活动的各个层面,包括建立网站、制定 messaging 策略、进行民意调查、动员选民投票、电话拜票敲门等。施奈尔强调,这些都是人工智能在选举领域的实际应用,而不是遥远的未来设想。

施奈尔还提到了德国的一个具体例子。德国拥有众多政党,这让选民很难理解各政党的立场。多年来,德国政府都有一个非partisan 的选民指南系统,由政府机构总结各政党的立场,帮助选民了解各政党代表什么。去年,德国尝试用聊天机器人来替代这种静态网页,让选民可以与人工智能进行互动对话,了解各政党的立场和主张。年轻选民对这种交互式方式表示欢迎。施奈尔指出,这个人工智能系统使用的是非常受限的数据集,因此不太容易出现大规模偏差或错误。这说明当你限制人工智能的使用范围时,它可以表现得非常出色。

关于深度伪造,施奈尔认为这是人们最容易想到的人工智能与民主的交集,但却是最不有趣的部分。他认为,真正重要的是人工智能如何从根本上改变选举的运作方式、组织方式和参与方式。

4. 人工智能与立法过程的革新

本书的第二部分探讨了人工智能如何影响立法过程。施奈尔介绍了来自不同国家的多个创新案例,展示了人工智能在法律制定和修改方面的潜力。

施奈尔特别提到了法国和智利的人工智能应用。在法国,有一个人工智能模型专门帮助立法者撰写更好的法律。这个人工智能系统可以分析现有法律的措辞、逻辑和潜在影响,帮助立法者发现法律草案中的问题并提出改进建议。在智利,另一个人工智能系统则专注于分析法律实施后的效果和公民与法律的互动情况。这些应用展示了人工智能不仅可以帮助制定法律,还可以帮助评估法律的实际效果。

节目中还提到了台湾面临的一个独特挑战。由于大多数人工智能模型是用中文训练的,而这些模型使用的训练数据很多是从俄语翻译过来的,因此台湾人发现在这些人工智能模型中,民主这个词的用法往往不正确。这一个例子说明了语言和文化背景在人工智能应用中的重要性,也说明了政治因素如何影响人工智能系统的行为。

5. 人工智能与政府行政效率提升

第三部分聚焦于政府行政部门如何利用人工智能提高效率和服务质量。施奈尔指出,人工智能既可以被用来让政府更加高效和响应迅速,也可以被用来让政府更加迟钝和封闭——这完全取决于使用者的意图。他以埃隆·马斯克为例,说明人工智能可以被用来减少政府的响应能力,但也有办法让人工智能使政府更加 responsive。

具体的人工智能应用包括:帮助确定福利资格,让符合条件的人更容易获得政府帮助;审计政府合同,确保公共资金的使用透明和合规;帮助专利局检索现有技术,判断新的专利申请是否具有新颖性;处理公民的合规文件,减少官僚主义延误。施奈尔强调,这些都是已经在世界某些地方实际运行的应用,而不是理论上的设想。

6. 人工智能与司法系统的变革

第四部分探讨了人工智能在法院系统中的应用。施奈尔介绍了来自巴西的引人注目的案例。巴西是一个诉讼极其活跃的社会,民事诉讼案件数量庞大,政府在诉讼上的支出约占国内生产总值的百分之一。几年前,巴西法院开始使用人工智能来处理案件管理,而不是做判决。人工智能被用来分配法官到案件、移动文档、处理各种行政事务。实施这些人工智能系统后,法院的效率显著提高——过去需要两到三年才能得到判决的案件,现在速度大大加快。

然而,施奈尔也指出了一个有趣的副作用:律师们也开始使用人工智能来提交更多案件。因此,虽然每个案件的审理速度加快了,但案件总数也在增加。尽管如此,这仍然是一个让司法系统更加高效、让更多人能够获得司法救济的成功案例。

施奈尔还提到了一些法官开始在判决过程中使用人工智能来查询法律术语的plain meaning,帮助他们理解法律条文的确切含义。这些应用展示了人工智能可以作为法官的辅助工具,帮助他们更准确地理解和适用法律。

7. 人工智能与公民赋权

第五部分讨论了人工智能如何帮助公民更好地参与民主进程。施奈尔认为,这是最重要的一部分,因为它直接关系到民主制度的活力和公民的参与度。

具体应用包括:帮助公民组织起来,更有效地表达意见;帮助公民了解候选人和政党的立场,做出更明智的投票决定;帮助公民进行政治倡导,向他们的代表表达诉求。施奈尔强调,所有这些都是为了让公民能够更好地行使他们的民主权利,让民主制度更加高效和响应。

节目中还详细介绍了几个特别引人注目的案例。日本有一个年轻的工程师高宏·阿诺(Takahiro Anno),他在几年前竞选东京市长时,利用人工智能技术创建了一个自己的虚拟形象,在YouTube上回答选民的问题。这种创新的竞选方式让他在50名候选人中获得了第五名的成绩,引发了广泛关注。更令人惊讶的是,去年他成功当选为日本上议院议员,并创立了一个名为“Team Mirai”(未来团队)的新政党。他现在正利用人工智能技术与他的选民互动,讨论立法事项和优先事项,并正在为整个日本议会开发人工智能工具,帮助议员们更好地与选民沟通。这是一个令人振奋的人工智能改善民主的案例。

另一个案例来自美国加州的CalMatters组织。这是一个政治监督组织,他们收集加州民选官员的所有公开言论,包括演讲、竞选邮件、推文等,并将其公开供公众搜索。他们去年添加了一个人工智能功能叫做“Tip Sheet”,这个人工智能系统会分析所有这些信息,包括投票记录和竞选捐款,寻找异常情况。但它不会直接发布这些发现,而是将这些信息提供给人类记者,让记者来决定是否值得深入调查。这是一个人工智能辅助人类新闻报道的绝佳范例。

8. 权力集中化与公有人工智能的愿景

节目中的一个重要话题是人工智能技术带来的权力集中化问题。克里斯·本森指出,人工智能似乎有集中权力的趋势——如果你拥有数据中心,如果你有大量的计算资源,你就能做更多的事情。他问到,这是否是技术的必然结果?

施奈尔斩钉截铁地回答:这完全不是技术的函数,而是我们如何选择做技术的函数。这种技术并不一定必须集中在美国五家垄断公司手中。我们只是选择了这种方式。而这些垄断公司是非常强大的。在美国,金钱等同于政策——如果你富有,你就会得到你想要的政策的延续。

然而,施奈尔也指出了一些令人鼓舞的变化。DeepSeek 表明,你不需要尖端芯片和大量资金来构建有竞争力的核心模型。在书中,施奈尔倡导一种叫做“公有人工智能”的概念——即不是由公司构建、不是出于盈利动机的人工智能模型。有趣的是,这种想法在书出版后几个月就变成了现实:瑞士的苏黎世联邦理工学院和SuperBlox中心在政府资助下,发布了一个名为PubKey的核心模型。这个模型完全不是公司资助的,不建立在盈利动机上,没有非法使用训练材料,没有为微调而雇佣第三世界廉价劳动力,完全免费使用,而且与去年最好的模型具有竞争力。

施奈尔预测,核心模型高昂的成本——数百万美元——在几年后将成为笑柄。特别是,我们需要更多特定领域的模型。一个好的物理老师模型,一个好的餐厅推荐模型,一个将成为我的代理人的模型。这种模式将调用十几个或二十几个特定模型中的任何一个。在这种情况下,Claude、GPT和所有这些庞大的模型将成为过时的东西。

关于开放权重模型,施奈尔指出,它们仍然是用公司资金训练的,使用公司信息资源。他承认,美国可能无法做到这一点,因为美国政府甚至无法再资助气象服务。但其他国家可以采用瑞士模式。欧洲正在尝试建立整个科技栈,新加坡正在开发一个名为Sea Lion的东南亚语言模型,因为美国模型对东南亚语言的处理不够充分。法国已经建立了一个专门优化法国法律的模型。

施奈尔还谈到了美国的情况。他说,美国很可能会被科技巨头、被垄断企业主导,这种情况不会消失。但其他国家正在努力摆脱这种局面。他指出,现在在Hugging Face上有250万个公共领域模型,虽然很多是玩具模型,但其中也有优秀的内容。他认为,随着人工智能变得越来越便宜,越来越多的组织将能够构建自己的人工智能系统,这将自然地改变权力格局。

9. 人工智能代理系统与数据获取

节目中还讨论了人工智能代理系统的发展。克里斯·本森问到,除了模型本身的进化,还有哪些因素会影响人工智能的发展?特别是数据和系统访问的问题。

施奈尔回应说,在你输入聊天窗口的内容和模型实际接收的内容之间有很多软件,在模型产生的内容和你看到的内容之间也有很多软件。所有这些中间件都是应用规则、对齐和很多其他东西的地方。他认为,获取数据的渠道确实非常重要。

施奈尔警告说,我们将会有富人和穷人之分——能够获得好的模型的人和不能获得的人。但他也指出,很多人会被迫使用人工智能,而不是自己选择使用。他以Facebook为例,用户实际上没有选择使用人工智能,而是被迫使用。微软正在尽其所能强迫用户在使用微软应用程序时使用人工智能。谷歌也是如此——当他进行谷歌搜索时,无论他是否愿意,都会得到人工智能的答案,无法关闭。

他还举了一个健康保险公司的例子:保险公司现在使用人工智能来批准或拒绝索赔。这是强加给人们的,不是人们选择的。施奈尔总结说,这是一个复杂的生态系统,人工智能与非人工智能部分的交互非常重要,谁有权限访问什么也非常重要。

10. 深度长播客:人工智能与就业变革

在节目的后半部分,主持人请施奈尔谈一谈人工智能对就业的影响,特别是对那些可能感到被抛在后面的人。

施奈尔承认这是一个大问题。他认为这将与工业革命相提并论。职业将会消失,而且很可能是高薪职业。所有学徒制的职业都面临风险:医生、会计师、律师、建筑师、投资顾问。这些职业都是建立在你上学、学习如何做这件事、成为该领域的初级从业者、然后逐步晋升为高级从业者的基础之上的。但如果所有初级从业者都是人工智能,那么这种金字塔结构将如何运作?没有人知道答案。

施奈尔强调,这将是极其颠覆性的,而且将是我们意想不到的工作类别。他举例说,目前的情况并不是人工智能可以做你的工作,而是人工智能可以说服你的老板它可以做你的工作。所以人工智能会解雇你,你的工作做得一团糟,现在没有人知道该怎么办。

他呼吁社会认真思考如何将生活与就业脱钩,无论是通过全民基本收入等关键措施,还是通过将医疗保险与公民身份而不是与就业挂钩等看似简单的改变。很多事情都将不得不改变。

施奈尔还指出,人工智能不会造成这些问题,但它会让现有的问题变得更糟。我们生活在一个收入极度不平等的世界,这种不平等已经让社会不稳定,而人工智能将会加剧这种不稳定。所以我们首先需要解决我们现有的问题,然后还需要应对气候变化等全球性挑战。

11. 技术工作者的道德责任

在节目接近尾声时,主持人请施奈尔给那些正在建设人工智能系统的技术人员一些建议。

施奈尔强调,技术工作者拥有很大的权力。回到15到20年前,科技工作者对他们工作的公司拥有很大的权力,因为他们总是可以在10分钟内找到新工作。所以他们说什么,他们想做什么,他们拒绝做什么都很重要。但这种情况在大科技公司已经发生了很大变化——这些公司出现了大量裁员,很多人正在找工作。劳动力市场不再像以前那样是卖方市场。但尽管如此,人工智能研究人员和工程师在企业内部仍然拥有很大的权力。

施奈尔希望技术人员能够成为更强大的道德指南针。他说不的能力很重要。他提到了谷歌员工在2018年因为一个名为Project Maven的五角大楼项目而举行罢工的事件,这是科技工作者权力的巅峰。他希望技术人员能够更多地参与他们所做工作的后果的讨论。

施奈尔承认这很困难,因为这是一项非常通用的技术。正如他一开始所说的,这是一种增强力量的技术。技术不知道它在增强什么力量,它没有道德指南针。它会做更多你告诉它做的事情——无论你是好人还是坏人,它都会做更多。但他也指出,这些变化即将到来。目前他们正处于某种 plateau 阶段——新模型并不比去年的模型好多少。他们在大型语言模型中没有看到质的飞跃。但他们仍然在预测模型和非生成模型中看到了很多改进。还有很多新的范式正在研究中。变压器(transformers)不太可能成为从现在到永远的人工智能数据结构的巅峰。所以将会有其他的东西。

施奈尔最后呼吁技术人员:让我们努力让这些新技术造福人类,而不是让硅谷的白人男性科技亿万富翁受益。

12. 总结与展望

本期节目为听众提供了关于人工智能与民主关系的全面而深入的探讨。布鲁斯·施奈尔作为一位在技术领域享有盛誉的专家,通过他的新书《重塑民主》为听众展示了人工智能对民主制度各个方面的深远影响。

节目涵盖了五个核心领域:人工智能与选举、人工智能与立法、政府行政中的 AI、司法系统中的 AI,以及公民参与中的 AI。施奈尔通过来自日本、德国、巴西、台湾等不同国家的丰富案例,展示了人工智能改善民主运作方式的巨大潜力。

同时,节目也深入探讨了人工智能带来的挑战,包括权力集中化、就业 disruption、以及技术决策中的道德责任等敏感话题。施奈尔关于公有人工智能的愿景、关于技术人员应该承担更多社会责任的呼吁,都为这个快速发展的领域提供了宝贵的思考方向。

这期节目让听众意识到,人工智能与民主的关系远比深度伪造这一表象复杂得多。作为公民、技术工作者和政策制定者,都需要认真思考如何确保人工智能成为增强民主而不是削弱民主的力量。


本期节目时长约48分钟,嘉宾为布鲁斯·施奈尔(Bruce Schneier),哈佛大学伯克曼·克莱因互联网与社会中心研究员,著有《重塑民主:人工智能如何改变我们的政治、政府与公民身份》。


📺 播客地址


播客时长: 49分钟