原始标题: The state of homelab tech (2026) (Friends)

发布日期: 2026-01-24 | 来源频道: @changelog

📝 深度摘要

1. 节目元数据

  • 节目名称:The State of Homelab Tech (2026)
  • 频道:Changelog Friends
  • 发布日期:2026年1月24日
  • 时长:2小时2分钟(122分钟)
  • 主持人:Adam Stachowiak、Techno Tim
  • 本期主题:2026年Homelab技术现状与未来展望
  • 背景音乐:Break Master Cylinder

2. 核心摘要

本期节目是Changelog与知名Homelab YouTuber Techno Tim的年度对话,聚焦2026年Homelab领域正在发生的深刻变革。在全球硬件短缺的大背景下,两位主持人从供应链危机聊到软件生态爆发,从传统NAS架构演进到AI Agent赋能的基础设施自动化,从个人实践案例延伸到行业未来趋势。

2026年的核心主题可以概括为「可用性的悖论」:一方面,服务器零部件一货难求,价格飙升至历史高位;另一方面,AI工具的成熟使得软件开发不再是专业程序员的专利,更多普通用户得以将自己的创意转化为自托管的解决方案。TrueNAS与Proxmox的边界正在模糊,ZFS混合存储架构成为性能与容量的完美平衡,Dockling等文档AI处理工具重新定义了数字化工作流,而Ralph Wiggum循环等Agent迭代模式则预示着基础设施管理的全新范式。

这是一期信息密度极高的深度对话,既有硬核的技术细节(ZFS special vdev、PCIe bifurcation、VLAN策略),也有轻松的生活化讨论(Tim的域名迁移血泪史、算法AB测试的困惑),更有面向未来的趋势洞察。无论你是Homelab新手还是资深玩家,都能从中获得启发。


3. 深度技术剖析

3.1 硬件短缺与供应链危机:Homelab的至暗时刻

当前Homelab面临的最大挑战是前所未有的硬件可用性危机。服务器级硬件——包括主板、CPU、网络设备、存储控制器——几乎无法通过常规渠道获取。这种情况的根本原因在于:大型云服务商与数据中心运营商的长期合约锁定了绝大部分供应,零售市场和二手交易平台的的价格已经飙升至历史高位。

Adam在节目中分享了他的观察:现在不仅是新品稀缺,连二手市场都难以找到合适的配件。以往Homelab玩家可以低价甚至免费获取企业淘汰的服务器设备,但现在这些设备的价值被重新认知——二手商家意识到Homelab群体的存在,开始在这些「垃圾」上定价。RAM价格涨幅达到2至3倍,14TB机械硬盘从一年前的159美元涨至230至260美元,涨幅接近70%。更夸张的是GPU市场——RTX 3090在2020年初的售价(约1100-1300美元)已成为「传说」,现在的RTX 4090、5090不仅价格昂贵,且根本无货可寻。

Tim还提到了关税政策对硬件价格的叠加影响。虽然这不是硬件短缺的根本原因,但确实让本已昂贵的价格雪上加霜。唯一例外的是电脑机箱——因为无人购买,库存积压导致价格走低。

这种状况的根源在于AI数据中心建设热潮导致的全球硬件短缺。训练大语言模型需要海量的GPU算力,科技巨头们纷纷斥巨资建设AI数据中心,这些设施吞噬了大量高性能硬件,连带影响了消费级和二手市场。Tim戏言:如果2020年你买了GPU(四年前),那你就是人生赢家——以现在的市场行情,那笔投资简直物超所值。

3.2 ZFS混合存储架构:传统硬盘的极限压榨

面对硬件短缺和成本压力,如何最大化利用现有存储资源成为关键课题。Techno Tim展示了他的TrueNAS终极方案——基于ZFS的混合存储架构,这一设计让传统机械硬盘在大多数场景下拥有接近NVMe的响应速度。

Tim的存储配置细节如下:他使用10块14TB硬盘组成RAID 10风格的striped vdev,配置为镜像对以平衡性能与数据安全。这意味着每对硬盘互为镜像,数据同时写入两块硬盘,任意一块故障都不会造成数据丢失。五对镜像提供了约70TB的有效存储(每对14TB减去镜像开销)。

关键创新在于引入了NVMe设备作为特殊vdev(special vdev)。在ZFS中,特殊vdev专门用于存储元数据和小文件——这使得传统机械硬盘阵列的元数据查询速度提升了数个数量级。当用户访问一个包含数千个文件的目录时,元数据查询不再需要在慢速机械硬盘上进行,而是在NVMe上疾速响应。

Tim进一步使用Intel Optane驱动器作为NVMe缓存介质。Optane是英特尔推出的一种革命性存储技术,拥有极低的延迟(微秒级别)和超长的使用寿命(远超传统NAND SSD)。虽然英特尔已停止生产Optane,但二手市场上仍然可以找到。Tim先后从不同渠道购买了四块Optane(两块Newegg,两块Amazon),将其配置为镜像以确保安全。他的理念是:虽然任何NVMe都能胜任,但Optane的性能是最强的,任何消费级NVMe都无法企及。

整个存储层级设计非常精密:

  • ARC (Adaptive Replacement Cache):ZFS的RAM缓存,作为最快速层
  • NVMe Special vdev:存储元数据和小文件(<64KB)
  • HDD Bulk Storage:大容量机械硬盘存储

这种设计带来的体验是革命性的:即使是机械硬盘,在元数据和小文件读取场景下的响应速度也接近NVMe。Tim正在运行约50-60个容器,大多数数据读取实际上发生在RAM或NVMe层,只有批量大文件才触达机械硬盘。

3.3 文档数字化与AI OCR:Paperless的范式转移

Paperless-ngx作为自托管文档扫描解决方案早已广为人知,但其传统OCR(光学字符识别)的准确率在复杂文档面前常常不尽如人意。2026年的突破在于多模态LLM的引入——Paperless AI和Paperless GPT可以对接视觉模型,从扫描图像中提取高保真数据。

Adam分享了他的亲身体验:使用传统OCR扫描设备序列号时,识别结果惨不忍睹——只能识别出"Made in Japan",序列号完全错误。但当接入视觉模型(如Ollama上的小型多模态模型)后,识别准确率大幅提升。模型甚至能识别FCC认证标识的含义——那个带有圆形C的F标志,实际上代表FCC认证。

这种技术进步的背景下,两位主持人深入探讨了文档数字化的完整工作流。Dockling是IBM推出的开源文档结构化工具,它不仅提取文本,还能识别文档的物理结构——标题在哪里、页脚在哪里、表格如何分布。对于RAG(检索增强生成)系统来说,这种结构化信息至关重要:只有理解文档的语义结构,才能准确回答用户提问。

Paddle OCR是另一个值得关注的方案,它同样专注于从文档中提取丰富的元数据。这两个工具的共同点在于:它们为传统OCR赋予了「理解」能力,让机器不仅知道「这里有字」,还知道「这些字是什么意思、它们之间的关系是什么」。

在讨论书籍数字化时,Tim提出了medallion ETL架构的创意应用。Medallion架构(又称多 medallion 架构)源自数据工程领域,将数据处理分为Bronze(原始数据层)、Silver(清洗后数据层)、Gold(可直接用于生产的精炼数据层)三个阶段。Tim将这一概念应用到文档数字化:

  • Bronze层:存储原始扫描图像作为永久档案——这是最纯净的数据源
  • Silver层:进行初步处理,可能包括基础OCR、结构识别
  • Gold层:输出可用于生产的结构化数据(Markdown、JSON等)

这种设计确保了当视觉模型技术进步时,可以回溯原始数据重新处理,而无需重新扫描原件。就像4K蓝光碟片发行商总是回归原始胶片进行重制一样,文档数字化的终极形态也是回归原始图像。

Tim的目标是将扫描内容转换为Markdown格式,这需要极高的转录准确率——目前他已达到98-99%的准确率,距离完美仅一步之遥。

3.4 网络架构与VLAN实践:家庭网络的安全哲学

Adam分享了一个有趣的网络排障案例,展示了AI Agent在Homelab网络管理中的潜力:邻居家孩子的Switch无法连接WiFi,DNS解析失败。他最初怀疑是自己用Rust重写的DNS服务(DnsHole,Pi-hole的替代品)出了问题,最终发现是VLAN规则冲突导致的。

这次经历让他意识到:即使是网络管理员,也常常会被VLAN配置搞晕。于是他祭出了Claude——通过SSH直接登录Ubiquiti UniFi Dream Machine(UDM Pro),直读MongoDB修改配置,重启服务刷新缓存。整个过程AI直接操作底层数据库,而非通过官方API「曲线救国」。虽然生产环境不推荐直接操作数据库,但对于Homelab场景来说,这种「艺高人胆大」的方法效率极高。

Tim随后阐述了他的家庭网络VLAN策略:基础配置至少需要四个网段——Trusted(信任网络,放置主要计算设备)、Kids(儿童设备,限制访问和时间)、IoT(物联网设备,与信任网络隔离)、Guests(访客网络,完全隔离)。但设备放置的原则不是看设备类型,而是看设备的「角色」。

举例来说:Apple HomePod虽然可能放在客厅,但如果它需要访问用户的日程和智能家居控制,信任网络的访问权限是必要的——因为用户已经在设备上输入了敏感信息,本质上已经信任了这个设备。NVIDIA Shield游戏机同理——登录了账号、绑定了支付方式,显然应该放在信任网络。

XBOX则更有趣:Tim曾经坚定地将其放在IoT网段,但后来意识到自己在这个设备上输入了微软账号密码、购买了游戏,本质上和使用PC没有区别——于是果断移至信任网络。

VLAN的核心原则是限制攻击面(blast radius)——不是追求绝对隔离,而是当某个设备被攻破时,损害范围可控。对于真正敏感的设备(如摄像头),单独一个VLAN是必要的;但对于大多数消费级设备,过度隔离只会带来麻烦。

3.5 存储后端的选择与演进:NAS的终极形态

关于TrueNAS应用层的定位,两位主持人进行了深入讨论。传统观点认为NAS应保持纯粹的存储功能,将应用服务器分离部署。但Tim的实践是将应用程序直接运行在TrueNAS上,这引发了关于存储后端选择的深入讨论。

Tim解释了为什么NFS挂载在某些场景下表现糟糕:对于数据库来说,NFS的锁机制会导致严重问题。SQLite会因文件锁冲突导致数据损坏;PostgreSQL在NFS上虽然可以运行,但IO性能会急剧下降。这是因为数据库需要极低的延迟和极强的并发写入能力,而NFS的网络开销和锁竞争在这种场景下是灾难性的。

Tim选择将应用与存储共置的核心原因是降低故障域:如果plex媒体服务器与存储分离,意味着有两个故障点——NAS可能宕机,应用服务器也可能宕机。合并后只需保障一个组件的可用性。当然,这意味着单点故障的后果更严重——但TrueNAS的稳定性和ZFS的数据完整性校验让这种权衡变得可接受。

TrueNAS从Kubernetes回归Docker的决定让一切变得更加简单。用户可以直接使用Docker Compose管理容器,而无需面对Kubernetes的复杂性。Tim特别强调:他只使用YAML配置容器——「让我填表格?那不如杀了我。我是开发者,YAML就是我的菜。」这种态度代表了资深Homelab玩家的典型偏好:CLI和配置文件 > Web界面和表单。

Tim目前的方案是在TrueNAS上同时运行两类服务:核心服务(如Plex、监控系统)需要高可用,放在「Home Production」层;实验性服务则可以随时重建。这种分层策略兼顾了稳定性与灵活性。


4. Homelab 折腾日常

4.1 从树莓派到多集群的演进之路

Tim回顾了自己的Homelab历程,这段经历极具代表性:始于2004年或2005年从经理那里拿回家的二手服务器,用来学习Linux和Active Directory——那是一台已经运行了10年的「老古董」,经理让他把硬盘拿走,剩下的主机就归他了。

此后,他经历了从树莓派到专业服务器的完整升级路径。他将Homelab的发展比作高尔夫运动——一旦入门,就会不断投入更多设备和精力:从简单的文件存储逐步扩展到流媒体、容器化、集群管理、乃至现在的AI模型运行。每个阶段都有新的挑战和乐趣。

Tim的起点其实很低:一块别人不要的服务器硬盘,就是他Homelab生涯的开端。然后是树莓派——在上面运行第一批容器,探索Homelab的可能性。当年的树莓派性能有限,但足以点燃对自托管的热情。随着需求增长,需求也在升级:从「能跑」到「跑得爽」再到「要什么有什么」。这种欲望的无止境扩张,正是Homelab的魅力所在。

真正的Homelab基础设施始于四大基础服务:存储(NAS)、流媒体(plex等)、计算(容器/VM)、转码能力(GPU)。Tim建议新人从旧PC开始:即使是中国产的二手i3处理器,也能轻松碾压任何自托管容器应用的需求。RAM不用太多,存储不用太豪华——关键是想清楚自己要什么服务。

4.2 容器即应用:快速迭代的乐趣

Tim将容器视为「手机应用」的服务器版本——可以快速部署、测试、不喜欢就删除。这种理念彻底改变了Homelab的玩法:不再是一次部署长期运行,而是不断尝试、不断淘汰、不断进化。

他目前在TrueNAS上运行50-60个容器,包括Grafana、Prometheus监控系统等。通过LLM的帮助,曾经需要一周时间才能完成的Prometheus指标采集工作现在仅需10分钟即可搞定。这种效率提升是革命性的:以前配置监控系统需要阅读大量文档、调试各种参数,现在只需告诉LLM目标机器,它就能帮你完成配置。

监控已经覆盖了所有服务——网络流量、数据库查询、应用性能等,这在以前是不可想象的运维投入。Tim预告将发布Homelab全面巡检视频,展示他精心构建的软硬件架构。他必须让视频足够精彩——因为YouTube观众总是期待「比去年更好」的内容。

4.3 三套Kubernetes集群:专业级的Homelab

Tim目前管理着三套Kubernetes集群:

  • 家中测试集群:运行在Proxmox虚拟机上,用于验证新想法和新服务
  • 数据中心生产集群:托管在 colo,承载 technotim.com 等公共服务
  • ** colo 自托管Proxmox集群**:完整的Proxmox VE集群,运行自托管服务

他的Kubernetes节点运行在Proxmox VM之上,而非裸金属——这是常见的Homelab部署模式,兼顾了灵活性与安全性。Proxmox本身还运行着LXC容器用于轻量级服务(如DNS、Postgres)。

关于高可用性(HA),Tim选择将HA下沉到服务层面(Kubernetes自身的多副本机制),而非在Proxmox VE层面做HA——这种「宠物vs牛」的方式更适合Homelab场景。真正重要的是服务不中断,而非底层虚拟机不宕机。如果有重要服务需要高可用,在Kubernetes层面运行三个副本即可;虚拟机层面做HA对于Homelab来说过于复杂且收益有限。

Tim还提到了Proxmox Helper Scripts这个社区神器——它将LXC容器和VM的创建变成了「一键安装」模式,就像手机应用商店一样。比如你想安装Home Assistant,只需运行一个shell脚本即可完成。这个项目最初由一位已故开发者维护,后来被社区接手,现在已经是Proxmox生态中最受欢迎的工具之一。

4.4 域名迁移的血泪史:永远不要改域名

Tim分享了从techno.tim.live迁移到techno-tim.com的惨痛经历——这简直是一部血泪史。需要设置数十个重定向、更新短链接系统、处理邮件别名等,整整花了一天时间。好在有AI帮忙,否则可能需要更久。

这次经历让他对新手提出强烈建议:从一开始就选择一个好的域名,永远不要在域名上使用街道名或产品名(除非是Main Street这种绝对通用的名称)。因为业务扩张后迁移成本极高——你需要更新所有链接、书签、SEO、第三方服务配置等。

Tim还提到了美国本地企业的教训:很多商户以街道命名(如Mercer Dance Hall),当租金上涨不得不搬家时,名字就成了笑话——你不在Mercer街上了,凭什么叫Mercer Dance Hall?同理,产品名也会过气——Dollar Store已经涨到「Dollar 25 Store」了,但它还叫Dollar Store。


5. AI 与 Agent 工作流

5.1 Claude在基础设施中的深度应用

Adam展示了Claude(通过Clod项目)如何直接操作基础设施,这种玩法代表了AI Agent在Homelab中的新范式。传统AI助手只是「更聪明的命令行」,而现在的Agent可以:

  • SSH登录网络设备
  • 直读MongoDB修改配置
  • 重启服务刷新缓存
  • 诊断复杂网络问题

在VLAN问题排查案例中,Claude甚至发现了Adam自己设置的冗余规则和冲突配置——这些是他在不同时间段设置的网络策略,自己都已经搞不清楚了。AI直接操作底层系统,虽然生产环境不推荐,但Homelab场景下这种「艺高人胆大」的方法效率极高。

Tim随后展示了他为Proxmox开发的CLI工具pxm:只需一行命令即可指定IP、CPU、RAM、磁盘创建新虚拟机,10秒内就能获得返回的IP地址。更关键的是,这个输出格式被设计为Agent友好——也就是说,Agent可以读取这个输出,自动完成后续的SSH登录和配置。

5.2 自动化基础设施:pxm CLI的设计哲学

Tim演示了pxm的典型工作流:

pxm create --cpu 4 --ram 8G --disk 50G --template ubuntu-cloud

10秒后返回VM的IP地址。然后Agent读取这个输出,通过SSH登录并开始自动化配置——安装软件、配置服务、部署应用。这种「基础设施即代码」的流程让AI Agent可以完全自主地完成从零到应用的完整部署。

pxm的另一个亮点是安全保护:添加了「保护模式」,防止意外删除VM。如果要删除受保护的VM,需要输入一串复杂的确认信息——就像删除生产数据库前需要输入「I am sure」一样。这种设计避免了AI Agent「手滑」导致的灾难。

Tim承认pxm目前的实现还有改进空间:模板定义目前是硬编码在二进制里的。他计划重构为用户空间模板系统——用户可以fork一个仓库,定义自己的Ubuntu、Fedora、Debian镜像模板,指定默认安装什么包、配置什么环境变量。这样pxm二进制保持不变,但功能可以通过配置文件扩展。

5.3 Ralph Wiggum循环:Agent的新工作模式

Tim介绍了一种新兴的Agent工作模式——以《辛普森一家》中Ralph Wiggum命名的「Ralph Wiggum Loop」。这个名称来源于Ralph「坚持不懈 despite setbacks」的特点。

其核心思想是:定义一个prompt.md文件作为任务规范,然后让Agent循环执行直到完成。用户可以设置预算上限(如20美元或15次迭代),Agent会在约束内不断尝试,每次迭代可能产生不同的解决方案,最终展示结果供人类检查。

这种模式特别适合「低风险」场景:用户只关心结果是否有效,而不关心实现过程是否「优雅」。就像让Agent帮你做一个特效视频——你给出一个想法,然后让它不断迭代,直到你满意为止;或者直接设置一个成本上限,超出预算自动停止。

Tim计划将这种方法应用在Proxmox自动化上:给Agent一个规格说明,让它自主完成虚拟机配置和应用部署。这种方式的魅力在于:如果你不满意结果,大不了重试——成本可控,风险有限。

5.4 MCP服务器与Agentic Postgres

节目中途插入了Tiger Data的广告,介绍了他们为AI Agent设计的新型数据库方案。传统Agent需要维护向量数据库(存储embeddings)、关系数据库(存储对话历史)、搜索引擎(全文检索)等多个数据源,架构极其复杂。

Tiger Data的方案是将这些统一在PostgreSQL之内:

  • 原生MCP服务器集成:Agent可以直接用SQL查询、探查schema、执行操作,数据库本身成为Agent可使用的工具
  • 混合搜索:向量相似度搜索和传统关键词搜索在一张SQL表里搞定,无需维护Elasticsearch集群
  • 零拷贝分叉:Agent可以在不到1秒内创建完整数据库副本用于隔离测试,而仅对实际修改的数据付费——这对于需要运行「破坏性实验」的Agent场景来说是革命性的

这个概念类似于Docker的Copy-on-Write:创建一个数据库fork几乎是即时的,只有当fork中的数据被修改时才会占用额外空间。一个1TB的生产数据库可以瞬间fork出一个测试环境,Agent可以尽情「折腾」而无需担心破坏生产数据。

5.5 代码生成与测试:AI开发最佳实践

Tim分享了一个重要实践:让AI生成代码时同时生成测试。测试不仅是质量的保障,更是Agent理解代码意图的重要窗口。在Code Review时,通过阅读测试可以理解开发者的意图和边界条件。

这种「代码即文档」的思路值得所有使用AI辅助开发的Homelab爱好者借鉴。当你告诉AI「帮我写个脚本实现XX功能」时,加上一句「同时写单元测试」——这不仅让结果更可靠,还能帮助AI理解你的真实需求。


6. 行业洞察

6.1 2026:软件之年与开发者的民主化

Tim断言2026年是「自托管软件之年」。这个判断基于以下观察:

硬件短缺的必然选择:既然搞不到新硬件,玩家就必须接受已有设备并进行深度优化。这种约束反而激发了创造力——如何用更少的资源做更多的事?如何让老设备焕发新生?

AI工具的成熟:软件开发不再是专业程序员的专利。即使是完全不懂编程的人,只要能描述清楚自己想要什么,AI就能帮他实现。Chris from Crosstalk Solutions的例子很有代表性——他使用UniFi API构建了自己多年来梦寐以求的解决方案,而这之前他完全不会编程。

软件生态的爆发:从Paperless-ngx到Home Assistant,从Ollama到各种自托管AI工具,Homelab可运行的软件正在经历爆发式增长。Tim说得好:「两三年前我还在抱怨软件干旱——感觉所有能自托管的容器都玩遍了。现在呢?每隔一周就有新东西出来——全是基于AI的,全是我闻所未闻的。」

6.2 厂商支持与开源商业化

Proxmox的盈利模式主要是企业级支持许可证——对于Tim这样的Homelab用户来说,每年500-600美元的费用确实难以承受。但实际上,用户可以轻松绕过Nag屏幕并使用最新版本(虽然功能上可能有细微差异),只是无法获得官方支持。

Tim在节目中呼吁Proxmox提供更便宜的Homelab授权级别。这实际上代表了整个开源社区的商业化趋势:基础功能免费,高级功能或支持服务收费。Depot、Tiger Data、Notion等赞助商都在践行这种模式——核心功能不要钱,企业级特性或支持服务收费。

6.3 消费级硬件的工作站救赎

对于想要PCIe bifurcation(通道拆分)功能的用户——即在一个16x PCIe插槽上安装NVMe bifurcation card,将一个插槽拆分为四个4x插槽——工作站级主板是一个极具性价比的选择。

价格通常在600-1000美元区间,即可获得服务器级别的能力:ECC内存支持、IPMI远程管理、强大的CPU支持。这为Homelab玩家提供了一个「消费够得着、企业级体验」的中间路线,比真正的服务器主板便宜,又比消费级主板强大太多。


7. 工具雷达

7.1 核心基础设施

  • TrueNAS Scale:支持Docker的NAS系统,可同时承担存储与应用服务角色。2026年从Kubernetes回归Docker,简化了容器管理
  • Proxmox VE:虚拟化和容器化平台,Adam的心头好。LXC容器和VM支持完善
  • ZFS:混合存储架构的核心,支持special vdev、ARC等高级特性
  • UniFi Dream Machine (UDM Pro):一体化网络网关,内置路由、交换、WiFi功能

7.2 文档与知识管理

  • Paperless-ngx:自托管文档扫描与归档系统
  • Paperless AI / Paperless GPT:集成视觉LLM的文档处理增强方案,准确率远超传统OCR
  • Dockling (IBM):开源文档结构化工具,支持PDF、Excel、音频等格式,为RAG系统提供完整语义
  • Paddle OCR:文档元数据提取方案

7.3 自动化与CLI

  • pxm:Proxmox CLI工具,Adam自研,支持一键创建VM
  • Proxmox Helper Scripts:社区维护的LXC/VM一键部署脚本集(community-scripts.github.io),被Tim誉为「Proxmox应用商店」
  • Cloud-Init:虚拟机自动化配置工具
  • Ansible:基础设施自动化框架(Tim推荐用于标准VM配置)

7.4 监控与可观测性

  • Grafana:指标可视化
  • Prometheus:时序数据库与监控
  • Zabbix/Nagios:传统监控方案

7.5 AI与Agent工具

  • Ollama:本地LLM运行平台,支持多种开源模型
  • Open Web UI:Ollama的Web界面
  • Claude / Clod:AI Agent直接操作基础设施
  • MCP (Model Context Protocol):Agent与外部系统交互的标准化协议
  • Open Code:新兴的Agent编程工具

7.6 存储介质

  • Intel Optane:超低延迟、高耐久性的SSD,现已停产但二手市场仍有流通,性能远超任何消费级NVMe
  • NVMe SSD:作为ZFS special vdev使用,加速元数据和小文件访问
  • 14TB+ HDD:大容量存储的主力,近年价格涨幅显著

8. 金句摘录

关于硬件短缺

「我们过去不用交’Homelab税’——二手服务器gear是免费或超便宜拿回家的。现在人们意识到Homelab玩家的存在,二手设备价格就涨上去了,而且你根本找不到货。」

关于软件之年

「今年是自托管软件之年。我们搞不到硬件,就得在现有设备上精打细算。所以这是软件的年份。」

关于AI赋能

「以前要花一周才能搞定Prometheus采集,现在10分钟就搞定——这个权衡值得了。」

关于Agent工作流

「我不想要在每个环节都做人类在环——你能不能自己搞定,搞定了再叫我?我就像个导演。」

关于Homelab心态

「我妻子说’这不行’的时候,就是我出场的时候——什么东西坏了,我有活干了。」

关于VLAN策略

「别看设备是什么,要看它的角色是什么,以及你有多信任它。」

关于工具选择

「我不想要填表格,我就想编辑YAML。我是开发者,YAML就是我的菜。」

关于基础设施演进

「从IT转行做开发者后,我意识到不需要UI了——给我API或CLI,我就能搞定一切。」

关于AI与代码质量

「代码只要能解决问题,就是好代码。能不能运行?能不能满足需求?这才是标准。」

关于Homelab的未来

「我觉得这是AI进入Homelab的第二年。去年是元年,今年会更深入。」


9. 赞助商

Depot (depot.dev)

构建缓慢是每个开发团队的噩梦。Depot通过多项技术创新将构建速度推向极致:

  • 最新一代CPU:使用AWS最新一代ARM和AMD CPU,比GitHub Runner快30-40%
  • 缓存复用:在GitHub Actions中实现高吞吐量的缓存复用,直连blob存储
  • RAM Disk测试:用内存替代物理磁盘进行CI测试,测试数据库迁移等IO密集任务
  • 可观测性:提供构建分析,帮助团队识别瓶颈并持续优化

Depot的产品免费使用,只需在GitHub Actions中更改一行代码即可接入。访问depot.dev了解详情。

Tiger Data (tigerdata.com)

AI Agent需要向量数据、关系数据、对话历史、Embeddings等多种数据存储,传统方案需要维护PostgreSQL+向量数据库+Elasticsearch的「数据系统动物园」,架构极其复杂。

Tiger Data推出了专为AI Agent设计的PostgreSQL方案,完美解决了这个问题:

  • 原生MCP服务器集成:Agent可直接对话数据库——查询数据、探查schema、执行SQL,无需编写脆弱的胶水代码
  • 混合搜索:向量相似度搜索和传统关键词搜索在一张SQL表里搞定,无需维护Elasticsearch集群
  • 零拷贝分叉:不到1秒即可创建隔离测试数据库副本,Agent可以尽情运行「破坏性实验」而无需担心破坏生产数据,Copy-on-write确保只对实际修改的数据付费

免费试用版和CLI已可供下载,支持MCP协议快速实验。访问tigerdata.com获取更多信息。

Notion (notion.com/changelog)

Notion作为一体化工作空间,将笔记、文档、项目管理无缝连接。现在Notion Agent更进一步——不仅辅助工作,还能根据用户偏好自动完成任务。

从播客准备工作(整理邮件、日历、笔记)到日常管理,Notion Agent让用户专注于创作而非行政事务。它理解你的工作流、偏好和组织方式,就像一个真正了解你的AI助手。

超过50%的财富500强企业已在使用Notion,OpenAI、Ramp、Versel等明星公司也是其用户。通过notion.com/changelog注册可获得试用资格——同时也是对Changelog播客的支持。

Fly.io (fly.io)

Fly.io是面向全球的容器化应用托管平台,采用Firecracker VM技术实现超快启动和关闭。Changelog的所有服务都托管在Fly.io上。

如果你热爱容器,Fly.io就是你的菜——无论是容器优先的应用架构还是需要接近裸金属的性能,Fly.io都能提供满意的方案。访问fly.io了解如何启动你的应用。


10. 结尾与下期预告

本期节目在轻松愉快的氛围中结束。Adam和Techno Tim约定三个月后再聚首,届时Tim将展示他在Homelab中更深入使用AI Agent的最新成果。Adam笑称这是给Tim的「处方」:「去把你的Homelab网络放手交给AI吧,三个月后回来给我讲故事。」

Tim则表示期待不已:「我敢保证三个月后你会变成一个完全不同的Tim。」

2026年的Homelab,注定是软件之年、AI之年、自动化之年。无论硬件多么稀缺,创造力永远不会短缺。这正是Homelab精神的最佳诠释。

Techno Tim的YouTube频道:techno-tim.com Changelog社区:changelog.com/community 如何加入讨论:Zulip群组


📺 播客地址


播客时长: 123分钟