原始标题: 268 | Get Your Brand into AI Search Engines Without Spending a Dime on Ads with Pietro Montaldo
发布日期: 2026-02-17 | 来源频道: @leveraging-ai
📝 深度摘要
1. 播客概览与访谈元数据
嘉宾画像与 AI 背景:Pietro Montaldo | AI 自动化布道者、Workflow 架构师([嘉宾未披露具体公司名称])。Pietro 是当前最活跃的 AI 自动化实践者之一,在 LinkedIn 拥有大量关注者,其推文和自动化案例经常获得数十万级曝光。他开设有一门专门教授 AI 自动化工作流构建的课程,擅长使用 Relay、Make、n8n 等无代码/低代码平台构建生产级 AI 解决方案。主持人 Isar Maitis 此前主要使用 Make 和 n8n,对 Relay 并不熟悉,因此本次演示对其而言也是一次学习机会。
主题与行业坐标:AI 搜索时代的品牌获客重构。本期节目聚焦于一个极具前瞻性的命题——如何在 AI 聊天机器人和 AI Agent 日益取代传统搜索引擎的背景下,让品牌主动出现在 AI 生成的回答中。核心颠覆领域:传统 SEO 正在被 AI 搜索重新定义,品牌不再需要投放广告即可获得 AI 时代的"搜索可见性"。
深层结构性痛点:传统 SEO 依赖 Google 排名规则,但 AI 搜索(ChatGPT、Gemini、Claude 等)的内容引用逻辑完全不同。品牌面临的核心难题是:不知道如何在 AI 对话中获取曝光;手动搜索和筛选 Reddit 帖子耗时巨大;无法规模化地识别高价值评论机会。
核心结论 (TL;DR):Reddit 是 AI 搜索引用的最大单一内容来源(占比高达 40%),通过构建自动化工作流监控相关性 subreddit并生成评论建议,品牌可以在零广告投入的情况下获得 AI 时代的"搜索可见性"。Pietro 在节目中演示了如何使用 Relay 平台从零构建这一自动化系统,整个流程包含 8 个核心步骤,最终产出每周一封包含 3 个最佳评论机会的邮件摘要。
2. 核心工作流拆解
分支 A:实操与工作流构建类内容
痛点与背景
传统方法的痛点:手动筛选 Reddit 帖子并决定是否评论的效率极低。以 B2B SaaS 公司为例,可能需要关注的 subreddit 包括 r/productmarketing、r/producthunter、r/Startup、r/B2B 等数十个,每个 subreddit 每天产生数十到数百个新帖子。人工逐一浏览、评估、撰写评论,单次执行可能需要数小时,且无法规模化复制。更关键的是,即使成功发布评论,也无法追踪该评论是否被 AI 引用。
为什么需要引入 AI 工作流:AI 的核心优势在于批量处理非结构化文本、识别模式、进行语义匹配。通过构建自动化工作流,可以实现:持续监控目标 subreddit 的新帖子;基于公司定位自动判断相关性;生成评论建议并附带选择理由;定期汇总并通过邮件推送。整个过程 90% 可自动化,人类只需在最后环节进行审核和发布。
AI 解决方案与架构
技术架构与组件依赖:整个工作流运行在 Relay 平台之上(类似 Make、n8n 的无代码自动化平台),核心组件包括:
| 组件 | 角色 | 具体实现 |
|---|---|---|
| Relay 调度器 | 触发引擎 | 每周四上午 8:00 自动执行(Scheduled Trigger) |
| Table(静态配置) | 参数存储 | Subreddit 列表、公司信息(名称、URL、博客、LinkedIn) |
| Iterator(迭代器) | 循环控制 | 遍历所有目标 subreddit |
| Reddit 连接器 | 数据获取 | Get Posts by Subreddit(按 new 排序,过去一周) |
| Gemini 3 Pro | AI 决策 | 分析帖子相关性,输出结构化推荐理由 |
| Email Sender | 结果交付 | 每周向用户发送邮件,包含推荐帖子列表 |
数据流向:Static Table(公司信息)→ AI Profile Generation(生成公司画像)→ Iterator + Reddit API(批量获取帖子)→ AI Relevance Filter(相关性判断)→ Email Output(最终输出)。
工作流对比地图
传统模式(Linear/Manual):
- 人工手动访问 Reddit,逐一打开目标 subreddit
- 手动浏览帖子标题和内容,主观判断是否与公司业务相关
- 手动撰写评论,需注意措辞以免被视为 spam
- 人工追踪哪些帖子已评论、哪些未评论
- 无规模化可能,单人单次仅能覆盖极少量 subreddit
- 反馈周期以天计算,无法实时响应热门话题
AI 赋能模式(Agentic/Automated):
- 一次性配置目标 subreddit 列表和工作流
- 每周自动触发执行,无需人工介入
- AI 批量分析所有帖子语义,匹配公司价值主张
- AI 生成评论建议和选择理由(可选择仅输出建议,手动发布)
- 所有输出结构化存储于平台内部,可追溯、可审计
- 反馈周期以分钟计算,支持更高频监控
- 边际成本趋近于零,可轻松扩展至数十个 subreddit
像素级执行步骤/SOP
步骤 1:创建工作流并配置定时触发器
- 在 Relay 中创建新 Workflow,命名为"Reddit SEO Comment"
- 添加 Trigger 类型选择"Scheduled"
- 配置为每周四上午 8:00 执行一次
- 点击 Done 完成触发器设置
步骤 2:定义目标 Subreddit 列表
- 进入 Utilities → Table of Constant
- 创建包含两列的表格:subreddit_name(含 r/前缀)、subreddit_clean(不含 r/前缀)
- 填入目标 subreddit(示例:r/productmarketing、r/producthunter)
- 此步骤一次性完成,后续无需频繁修改
步骤 3:定义公司信息表
- 同样使用 Table of Constant 创建公司信息表
- 包含字段:company_name、company_url、company_blog、linkedin_url
- 这些信息将在后续 AI 步骤中被引用
步骤 4:生成公司画像(AI Step 1)
- 添加 Custom AI Step
- 选择模型:Gemini 3 Pro(推荐,成本与精度平衡)
- Prompt 设计(核心逻辑):
基于以下公司信息,生成一份公司画像描述: - 公司名称:[company_name] - 公司网址:[company_url] - 博客地址:[company_blog] - LinkedIn:[linkedin_url] 描述需包含:公司服务于哪类客户、处于什么细分市场、目标客户画像、主要价值主张和沟通风格、提供什么类型的产品或服务 - 配置 AI 访问权限:需能读取 Step 3 的公司信息表
- 输出格式:Plain Text(简单文本)
步骤 5:迭代提取 Subreddit 帖子(Iterator + Reddit API)
- 添加 Iterator,引用 Step 2 的 subreddit 列表
- 在 Iterator 内部添加 Reddit 连接器
- 选择动作:Get Posts by Subreddit
- 参数配置:
- Subreddit:引用当前迭代项的 subreddit_clean(不含 r/)
- Sort by:New(最新帖子)
- Time Period:Last Week(过去一周,仅当工作流每周执行时)
- Limit:[嘉宾未指定具体数字,建议从 10-25 开始测试]
- 权限说明:仅读取权限,不会自动发布内容,不会损害账户声誉
步骤 6:AI 相关性判断与机会识别(AI Step 2)
- 在 Iterator 内部、Reddit API 之后添加第二个 Custom AI Step
- 选择模型:Gemini 3 Pro(亦可选择 Claude 3.5 Sonnet、Gemini 3 Flash 等)
- Prompt 设计(核心逻辑):
基于以下公司信息,判断哪些 Reddit 帖子适合评论: 公司名称:[company_name] 公司画像:[AI Profile from Step 4] 任务: 1. 阅读以下 Reddit 帖子列表:[Posts from Step 5] 2. 识别其中与公司价值主张或解决方案相关的帖子 3. 选择最相关的 3 个帖子 4. 对每个帖子说明:为什么相关、评论角度建议 选择标准: - 话题与公司业务高度匹配 - 用户提问或讨论的内容可自然引入公司解决方案 - 避免直接硬广,优先提供价值 - 配置 AI 访问权限:需能读取 Step 4 的公司画像 + Step 5 的帖子数据
- 输出格式:推荐使用平台自动生成的格式(包含 post_title、post_url、why_relevant、comment_insight 等字段)
步骤 7:构建邮件通知
- 在 Iterator 外部添加 Email Sender
- 邮件主题:Post to Comment This Week + 当前日期
- 邮件正文:
- 固定开头:Here are the top posts identified for strategic commenting this week
- 动态内容:引用 Step 6 的输出结果
- 引用字段:post_title、post_url、why_relevant、comment_insight
- 发送至:用户在 Relay 绑定的邮箱
步骤 8:测试与部署
- 点击 Workflow 顶部的"Start Test Run" → “Start Now”
- 观察每个步骤的执行日志,确认数据流向正确
- 检查最终邮件内容是否符合预期
- 测试通过后,保留为生产版本,工作流将按计划自动执行
3. 关键洞察与商业启示
洞察 1:Reddit 正在成为 AI 搜索的"第一信息源"。SEMrush 2025 年数据显示,LLM 生成回答中的外部引用有高达 40% 来自 Reddit,远超其他任何单一平台。这意味着品牌在 Reddit 上的可见性直接决定了其在 AI 搜索结果中的曝光概率。随着 AI 搜索渗透率提升,这一比例只会继续增长。
洞察 2:AI 自动化工作流的核心价值是"规模化人工判断"。Pietro 强调,工作流并不取代人类的最终决策权——它负责 90% 的研究和筛选工作,人工负责最终审核和发布。这种"Human-in-the-Loop"模式既保证了效率,又避免了完全自动化可能带来的品牌声誉风险。
洞察 3:B2B 品牌在 Reddit 的获客效率被严重低估。Reddit 用户群体以高收入、高教育程度、注重真实性为特征。在 100,000+ 个 subreddit 中,几乎任何垂直领域都有高度相关的社区。品牌只需找到 3-5 个核心 subreddit 并持续提供价值,即可建立可观的 AI 搜索可见性。
洞察 4:自动化工作流的边际成本结构发生了根本变化。传统人工运营每个 subreddit 需要数小时/周,而 AI 自动化后的增量成本仅来自 LLM token 消耗。Relay 平台显示,一次完整执行的消耗约为 285 credits(Gemini 3 Pro 占比约 241 credits),成本可控且可优化。
4. 决策者行动指南
切入点战略(Beachhead Strategy):
对于首次尝试的品牌,建议按以下优先级启动:
- 第一阶段(耗时:30 分钟):列出 3-5 个与业务最相关的 subreddit(使用 Reddit 搜索功能,关键词 + “subreddit”)
- 第二阶段(耗时:1 小时):在 Relay 注册免费账号,创建上述工作流,仅监控这 3-5 个 subreddit
- 第三阶段(耗时:30 分钟/周):每周收到邮件后,花 15-20 分钟审核 AI 推荐的帖子,选择 1-2 个手动撰写评论发布
资源配置清单:
| 资源项 | 推荐选择 | 理由 |
|---|---|---|
| 自动化平台 | Relay(免费版可用) | 无需 API Key,UI 直观,Reddit 集成完善 |
| LLM 模型 | Gemini 3 Pro 或 Gemini 3 Flash | 成本效率平衡好,可一键切换 |
| 监控 Subreddit 数量 | 起始 2-3 个 | 控制 token 消耗,确保可管理的评论量 |
| 执行频率 | 每周一次 | 与人工审核节奏匹配,避免信息过载 |
技能准备:
- 基础 Prompt 工程能力(理解 AI 输入→输出逻辑)
- 简单的数据筛选思维(知道什么样的帖子值得评论)
- 评论区编辑能力(将 AI 建议转化为自然的品牌提及)
5. 经典金句
“The more crowded keyword, it’s obviously much harder, right? But on simple keyword, it can be this easy, right? You appear on the right thread with the right response. It makes a difference.”
翻译:关键词竞争越激烈,难度自然越大。但在长尾关键词上,事情可以简单到这种程度——在正确的帖子下留下正确的回复,就能产生差异。
“I think it is very, very important to have the human in the loop, because otherwise… they comment on everything I post on LinkedIn, and 100% of their posts are AI generated, and it’s horrible.”
翻译:我认为保持人工在循环中非常重要,因为否则……他们在我的每条 LinkedIn 帖子下都会评论,而且 100% 都是 AI 生成的内容,这非常糟糕。
📺 播客地址
播客时长: 63分钟