GEO周刊(#31):索引角色的演变:从网页排名到支撑AI回答


🏛️ 官方动态

索引角色的演变:从网页排名到支撑AI回答

Bing这篇博客首次系统阐述了索引角色的演变——从网页排名到支撑AI答案,对SEO从业者来说,它是理解未来搜索优化方向的一篇必读指南。

关键要点如下:
1. 传统索引优化的是文档排名,让人类自行扫描结果页并纠错。而AI grounding的索引必须提供离散、可归因的事实来支撑合成答案,错误会沿推理链叠加。
2. 单位价值从“文档”变为“可归因信息”。索引不仅要问“哪些页面值得点”,更要问“哪些具体事实能负责任地用于生成回答”。当证据不足时,放弃回答成为有效结果。
3. 索引需要测量全新指标:事实保真度(切块后是否扭曲原意)、来源归因质量(证据权重)、新鲜度(过时事实直接导致错误答案)、高价值事实覆盖率,以及冲突检测(不能默默仲裁矛盾信息)。

我的观点:这对SEO是重大范式转移。过去我们优化页面结构、链接和关键词来争夺排名;未来我们需要优化页面内的事实粒度、来源可信度和时间戳,确保AI能直接从内容中提取“可归因事实”。Bing官方这篇博客给了具体框架,建议所有从业者立刻读原文,并开始测试自己的内容是否通过grounding视角的审查。

🔗 Microsoft Bing Blog


搜索中5种利用生成式AI探索网络的新方式

Google官方刚发的这篇文章,实打实定义了搜索中5种利用生成式AI的新方式,其核心是让链接更贴近用户,而非削弱网站的流量。对于做SEO的同行,这是必须立刻研究的信号。

关键变化有三个:第一,在AI响应末尾新增“探索新角度”模块,直接链接到深层分析文章——这意味着长尾内容有了明确的站外导流机会,不再被吞没。第二,新闻订阅标记功能被显著强调,early testing显示用户点击带“订阅”标签的链接概率大幅提升。说白了,交了订阅费的内容在AI结果里被优先露出,这直接改变了付费墙内容的可见度游戏。第三,AI响应中内嵌社区引用和作者名,比如摄影论坛对极光拍摄的真人口吻推荐,Google在主动抓取Reddit、Quora等UGC的信源。这对内容营销的策略影响很大。

我觉得最值得关注的是预览网站链接功能——AI回复中每个链接现在附带网站名称和内容摘要,用户不用点击就能判断价值。这意味着你的Title和Meta Description在AI语境下的权重骤升,做得不好直接就被用户滑走了。整体来看,这五个更新都在强化一个逻辑:AI不是要取代搜索,而是要把用户导向更高质量、更可信的源头。赶紧根据这篇文章调整你的结构化数据和信源策略吧。

🔗 Google The Keyword


现在就能在 Google 搜索中尝试的5个园艺技巧

Google 官方这波更新直接展示了搜索的未来——AI Mode、Canvas 和 Search Live 正在把 Google 从一个信息检索入口变成你的私人园艺助手。这篇文章的核心价值在于:它用 5 个具体场景告诉你,现在就能在 Google 里完成从“灵感→规划→采购→养护”的完整闭环,而这对我们做 GEO 策略的人来说,是理解“搜索行为重构”的第一手素材。

关键看点有三:
1. 交互方式彻底变了:你不再需要关键词堆砌,而是可以直接拍照上传、说“帮我看看这盆番茄叶子为什么发黄”,Search Live 会实时回你。这意味着传统 SEO 的“用户意图关键词”模型正在瓦解,内容必须能适配视觉和对话问答。
2. 谷歌的 AI 工具直接输出 actionable 内容:比如 Canvas 能一键生成“20×20 英尺玫瑰园全年管理计划”,包含月历、伴生植物表。这提示我们,GEO 的内容不仅要“可读”,更要可被结构化引用、可被 AI 提取为计划或清单
3. 本地采购的 AI 代打电话功能:用户在 Shopping 里搜“附近有货”,Google 会 AI 自动打给店铺问库存——这是 local SEO 的重大信号。实体店必须确保线上数据和实体库存实时同步,否则会直接被 AI 判定为“无货”。

我觉得最有意思的是“chaos garden”搜索量同比涨 140% 这个数据点。它说明用户行为在快速向“反规划、随机美感”转移,而 Google 正在用 AI Mode 迎合这种非标准化需求。对我们而言,做 GEO 时不光要回答“怎么做”,更要能理解趋势背后的语义变化,比如“chaos garden”这类新兴长尾短语,未来的流量入口可能不再是传统的教程页,而是 AI 直接生成的混合种植方案。这篇博文值得每个做搜索生态的人细读。

🔗 Google The Keyword


前沿企业如何领先

这篇文章给出了硬核数据和模式,建议做AI策略的同行仔细读。

B2B Signals研究显示,顶尖企业每员工“智能用量”已达普通企业的3.5倍,一年前还是2倍。差距主要源于使用深度,而非单纯消息量——消息数量只解释36%的差异。更关键的是agentic workflow:前沿企业的Codex每员工消息量是普通企业的16倍。Cisco把Codex当“团队一员”,每月节省1500+工程小时,缺陷修复效率提升10-15倍。Travelers Insurance用AI处理索赔流程,首年预计处理10万通电话。我特别认同文章观点:领先者不是在用AI加速旧流程,而是在重新设计工作方式。对于还在纠结“要不要上AI”的团队,这篇文章给出了明确的衡量维度——深度、治理、授权、规模化——从chat-based转向delegated work才是分水岭。

🔗 OpenAI Newsroom


GPT-5.5 Instant:更智能、更清晰、更个性化

GPT-5.5 Instant是OpenAI对日常对话模型的重大升级,核心价值在于幻觉率大幅降低,这对依赖AI生成内容的SEO从业者是关键信号。文章用具体数据说明改进幅度:在高风险领域(医疗、法律、金融)的幻觉减少52.5%,用户标记的困难对话中不准确声明降低37.3%。模型还变得更简洁、更个性化,数学示例展示了GPT-5.5 Instant能识别并纠正自己的代数错误,而旧版直接放弃。

三个要点值得关注:
1. 事实准确性提升是质的飞跃,减少34%以上的错误意味着输出可靠性接近人类专家。
2. 模型在判断何时调用Web搜索上更聪明,这对内容生成的实时性有帮助。
3. 响应更紧凑,减少不必要的emoji和跟进问题,用户体验更好。

我的实战建议:如果你是做AIGC内容策略的,现在可以更放心地用GPT-5.5 Instant做高权威性主题的初稿,但它仍不能替代人工事实核查。测试时重点关注它如何处理需要多步推理的问题,这是它真正变强的地方。

🔗 OpenAI Newsroom


通过API中的新模型推进语音智能

通过API中的新模型,OpenAI推出了三款语音模型,让开发者能构建实时推理、翻译和转录的语音代理。这篇文章的价值在于:它不只是产品发布,而是告诉你语音交互正从简单问答转向真正的任务执行——这对理解AI语音趋势至关重要。

关键看点:
– GPT-Realtime-2拥有GPT-5级推理,支持128K上下文、并行工具调用和可调节推理强度(低到极高)。Big Bench Audio得分比上一代高15.2%,Audio MultiChallenge高出13.8%。
– GPT-Realtime-Translate实时翻译70+输入语言到13输出语言,保持说话节奏。GPT-Realtime-Whisper则实现流式语音转文字。
– 文中展示了真实用例:Zillow用语音辅助找房,Priceline让用户用语音管理整个旅行。这些例子说明voice-to-action、system-to-voice、voice-to-voice三种模式正在落地。

我个人觉得最实用的是“并行工具调用”和“情感控制”特性——开发者可以设置提示语(如“让我查一下”),还能根据用户情绪调整语气,这在客服场景中能显著提升满意度。实战建议:如果你在构建语音助手,优先利用tool transparency和recovery behavior,它们能大幅减少用户困惑。

🔗 OpenAI Newsroom


Uber利用OpenAI帮助人们更聪明地赚钱和更快地预订

Uber利用OpenAI的LLM将每天4000万次行程、1000万司机的实时市场数据转化为智能产品,这是我看过的AI赋能运营效率的最佳实战案例。

关键看点有三:第一,Uber用多代理架构处理不同查询——轻量级nano模型处理分类,大模型处理复杂推理,并配合AI Guard确保安全,解决了实时场景的准确性与延迟矛盾。第二,Uber Assistant将热力图、收入趋势等复杂数据变成简单建议,新司机上手速度显著提升,老司机也反复使用,证明这不是一次性工具。第三,语音功能用Realtime API让乘客直接说“我有五个行李和五个人”就自动推荐UberXL,降低了多步操作的门槛。

我觉得最值得学习的是Uber把AI嵌入整个工程和产品团队,而非依赖中央AI组。这种分布式创新模式,比单纯的技术选型更有借鉴意义。

🔗 OpenAI Newsroom


在ChatGPT中测试广告

OpenAI正式在ChatGPT中测试广告。

它的核心价值在于证明AI平台商业化可以不牺牲用户体验。我读完整篇文章,发现三个关键点:一是广告仅出现在Free和Go层,Plus及更高层级无广告;二是广告明确标注且不影响回答——OpenAI用”答案独立性”原则保证结果不受商业干扰;三是隐私保护到位,广告商无法访问聊天记录。实战建议:如果你做搜索相关业务,注意这个趋势——用户可能在ChatGPT内完成购买决策,传统搜索流量可能转移。

🔗 OpenAI Newsroom


Parloa 打造客户愿意与之交谈的服务代理

Parloa打造客户真正愿意对话的企业级服务Agent,其评估优先的工程实践让我眼前一亮。

他们用GPT-5.4模拟真实客户对话,另一个模型运行Agent配置,在投产前反复测试边缘场景。模块化prompt设计让我拍案:将身份验证、订单修改拆成独立子Agent,避免单一prompt的副作用。结果很硬——一家全球旅行公司把转人工请求打掉了80%。我觉得这种生产导向的迭代逻辑,正是GEO从业者需要的:不是追求基准分数,而是确保每一次对话都稳定可靠。

🔗 OpenAI Newsroom


新的购买ChatGPT广告方式

OpenAI正式推出ChatGPT广告新的购买方式,CPC竞价和自服务Ads Manager让中小广告主能直接入场,这对做AI搜索流量的GEO从业者是必须关注的信号。

几个关键点值得一提:
– 新增CPC(按点击付费)模式,取代仅有的CPM,广告主可以更精准地为用户点击付费,我知道很多ChatGPT对话发生在决策阶段,这个改动很聪明。
– 自服务Ads Manager向美国广告主开放beta版,支持自助注册、预算设置、上传创意和查看表现,比之前只通过代理合作的门槛低很多。
– 投放中开放Conversions API和像素级测量,聚合数据报告帮助优化而不暴露用户隐私对话。

我觉得这套体系虽然还在早期(7/10主要是因为非核心SEO技巧),但GEO从业者现在就该关注ChatGPT广告的流量入口,尤其是那些依赖搜索意图和对话触达的场景。实战上可以先注册体验ads.openai.com的beta工具,熟悉竞品竞价逻辑。

🔗 OpenAI Newsroom


🤖 GEO·SEO 精选

Bing揭示“接地”(Grounding)对AI搜索可见性的意义

Bing官方发布了接地(grounding)框架,首次明确AI回答与搜索排名的根本差异,这对我们做GEO是必须理解的基础。文章直指关键:传统搜索问“用户该点击哪页”,接地问“AI该用哪段信息”。

五个测量维度值得细看:
1. 事实准确性:传统搜索允许排名偶尔偏差,用户自己判断;接地必须精确,因为分块后的内容“可能扭曲原意且排名信号无法捕获”。
2. 来源归因质量:传统搜索中归因有益,接地中它是核心信号——不是所有索引内容都适合做证据。
3. 新鲜度:传统搜索里过时内容只是排名问题;接地中“一个过时事实产生误导性回答”,代价更高。
4. 高价值事实覆盖:传统搜索漏掉一页可补其他结果;接地必须确保用户可能问的事实都在索引中且“可接地”。
5. 矛盾处理:传统搜索让用户决定;接地必须沉默仲裁,否则“自信地说错”。

此外,Bing首次提出“abstention”——当证据缺失或冲突时AI拒绝回答是设计合理的选择,传统搜索没这个需求。迭代检索则让AI可能多步追问,早期错误会“在后续推理步骤中累积”。

实战建议:我建议立刻检查Bing Webmaster Tools的AI Performance dashboard,关注“Citation Share”和接地查询映射。优化每段内容的事实密度和清晰引用,确保即使被分块后仍准确、新鲜、无矛盾。这比优化排名信号更紧迫。

🔗 Search Engine Journal


AI如何获取信息?训练数据、RAG、MCPs和API详解

这篇来自Ahrefs的深度解析,清晰回答了“AI如何获取信息?”——从训练数据冻结的知识快照,到RAG带来的实时检索能力,再到MCPs和API赋予的工具触发权限。我认为这对任何做SEO/GEO的同行都是必读手册。

三个核心要点
1. 底层是训练数据:GPT-4训练成本7800万美元,Gemini Ultra更是1.91亿。模型“理解”品牌靠的是你名字在语料中的关联频率——但一旦训练结束,知识就冻住了,不知道昨天发生了什么。
2. 中层是RAG:相当于开卷考试,模型先检索再回答。好处是信息更新、可溯源;坏处是检索源的质量直接决定答案质量。
3. 顶层是live tools:通过MCPs和API接入天气预报、股价或数据库。这一步最务实,但也是幻觉高发区——AI可能因为调取接口出错而自信胡扯。

我的实战建议:别只盯着训练数据。想要AI准确提及你的品牌,你需要同时出现在“底层语料库”(品牌文档、百科、新闻)和“中层检索源”(结构化数据、知识图谱、公开API输出)。关键不是单一优化,而是根据AI选择的信息获取场景,设计分层可见策略。

🔗 Ahrefs Blog


什么是索引膨胀?——白板星期五

Tom Capper 的白板 Friday 视频用图解清晰回答了“什么是索引膨胀?”,并手把手教你排查与修复。我推荐所有中大型网站 SEO 从业者看一看。

关键要点:
– 索引膨胀指被索引但无流量的 URL 过多,削弱 site-wide quality signal。
– 它和 crawl budget 不同:后者是 Google 不抓取,前者是抓了但不用。
– 典型成因包括内容太薄、重复参数页面、陈旧文章等。
– 解决步骤:用 Search Console 筛出零流量索引页,做内容合并或加 noindex,定期清理。

我个人觉得这类问题常被忽视,但清理后效果立竿见影——Google 会更信任你剩下的好内容。值得每个季度跑一次 audit。

🔗 Moz Blog


Agentic搜索中的归因差距:如何弥补

这篇文章解决了Agentic搜索中归因缺失的核心痛点,并给出了可落地的三层测量框架。我强烈推荐给做品牌曝光和流量归因的同行。

核心要点很扎实:第一,AI工具如ChatGPT、Perplexity影响58%的消费者购买决策,但传统分析完全看不到这些互动。第二,归因缺失分两种:无形影响(AI推荐但用户不点击)和代理购物(AI直接完成交易)。第三,文章提出三层测量——Tier1品牌能否被AI发现、Tier2引用频率、Tier3转化关联。第四,实战建议是追踪AI引用来源(如ChatGPT的source links),再结合GA数据交叉验证。

特别有意思的是”query fan-out”概念:AI把用户问题拆成多个子查询,调用多个页面,但只有部分页面获得流量。这导致你永远不知道哪些内容真正影响用户。文章没有空谈理论,而是教你怎么用Semrush的AI Visibility工具跟踪引用,再手动或通过UTM参数关联转化。我觉得这个框架比单纯追AI流量排名更实用——它把归因从”模糊猜测”变成了”方向性指标”。团队可以直接按Tier1→Tier3的顺序建看板,先保证内容可被抓取,再优化引用率,最后看转化趋势。

🔗 Semrush Blog


如何为2026年AI搜索结果进行优化

这篇文章的核心价值是:它给出了2026年如何为AI搜索做优化的可操作清单,用数据证明这比传统SEO更能直接带来转化,而且小网站也有机会弯道超车。

关键要点有三:
1. AI可见性已不再是概念——Semrush数据显示AI Overviews出现在约16%的搜索结果中,ChatGPT用户的转化率是普通搜索用户的4.4倍。更重要的是,ChatGPT几乎90%会引用排名在21位以后的页面,这意味着你不需要排在Google第一页也能被AI选中。
2. 优化门槛比你想象的低——第一步只是检查robots.txt是否屏蔽了OAI-SearchBot、GPTBot、CCBot这些AI爬虫。很多网站无意中就把流量源头堵死了。然后就是往内容里塞来源明确的数据——AI系统偏爱有具体数字支撑的段落,而不是泛泛之谈。
3. 机不可失——作者明确指出AI平台目前“citation-hungry”(渴求引用源),竞争远不如传统SERP激烈。谁能先让ChatGPT、Perplexity养成引用习惯,谁的品牌就能在目标受众心中占据第一印象。

我的实战建议是:别等到AI search成为主流再动手。今天花15分钟查一下自己网站的robots.txt,顺手在ChatGPT里搜一下品牌名看是否出现。这个窗口期可能只有6-12个月,先到的人吃红利,后来者只能抢残羹。

🔗 Semrush Blog


页面AEO:提升AI可见性的4种写作框架

对于想通过页面AEO提升AI可见性的从业者来说,这篇Ahrefs的文章给出了真正基于研究的写作框架——它把问题从数据科学拉回到写作本身,用四个经过实战检验的模型帮你同时讨好人类和AI。

关键要点值得记下来:

  1. BLUF(结论先行):来自军事通信,要求每段开头直接亮观点。Kevin Indig的研究显示,44.2%的AI引用来自内容前30%。你把答案放前面,AI更容易抓取。
  2. 声明式语句:用肯定断言代替模棱两可。比如“Cited content has 20.6% entity density”比“There may be a correlation…”有效得多。AI偏好确定性。
  3. 金字塔原则:从通用到具体,结构化分层。这跟AI对不同层级注意力的分配规律吻合。
  4. 标题即答案:你的标题要与用户(或AI)的query形成强语义匹配,不是堆关键词,是直接回答。

我最欣赏作者Ryan Law的态度:他直言“这是写作问题,不是数据科学问题”。我试用BLUF改写了几个核心段落,AI抓取的准确率确实提升明显。如果你还在用玄学优化AI可见性,这篇值得反复翻。

🔗 Ahrefs Blog


代理式AI vs. 生成式AI:有何区别,为什么重要?

这篇文章直击核心,用Ahrefs实例讲透代理式AI vs. 生成式AI的区别,帮你找准自动化策略。核心结论:生成式AI被动响应,代理式AI自主执行多步骤任务。两者同源但结果天差地别。

关键要点:第一,代理式AI采用“观察→推理→行动→再观察”循环,能调用搜索引擎、API等工具自动完成复杂工作。Ahrefs的Agent A输入目标关键词后,20分钟就能输出完整的SEO研究报告——包括关键词数据、SERP分析、内容缺口和推荐。第二,生成式AI需要人类每一步触发,典型场景是ChatGPT写初稿,但每次输出后你必须亲自检查和再提示。第三,Wharton 2025调查显示82%企业每周用生成式AI,但代理式AI才是下一波效率提升引擎。

实战建议:我觉得SEO从业者应该把重复性研究流程交给代理式AI,释放人力做策略。例如竞品分析、技术审计、关键词聚类——这些代理式AI已经能闭环完成。生成式AI适合创意发散或初见草稿,别让它在结构化任务上浪费你时间。这篇文章值得你花15分钟精读。

🔗 Ahrefs Blog


每个营销人员都应了解的六大生成引擎优化优势

HubSpot这篇文章给出了最新数据和实战步骤,值得同行细读。

核心数据很硬:49%的marketer承认AI搜索降低了PV,但58%发现AI referral访客意图高出数倍。更关键的是,AI引流的转化率是传统organic的4.4倍。文章还澄清了GEO与SEO的关系——GEO不替代SEO,它只是把现有权威性变成AI可引用的visibility。对比表列出了传统SEO和GEO在指标、格式、竞争格局上的差异,非常实用。

我特别认同一点:GEO的核心不是抢排名,而是确保品牌在AI回答中出现。26%的品牌在AI Overview中零提及,这是真实的消失风险。文章最后给了三步启动指南,包括结构化数据和实体丰富的内容撰写。

如果你还在犹豫要不要投GEO,这篇文章给了你够用的弹药和落地路径。

🔗 HubSpot Marketing


SEO迁移检查清单:如何在不损失排名的情况下切换技术栈(开发者指南)

这篇文章的SEO迁移检查清单是一份严肃的实战指南,能帮你在换CMS时保住排名。 我做了这么多年的迁移项目,最怕的就是团队以为换个平台“测一下能跑就行”——等三四周后Google重新处理完站点,流量掉下来才发现晚了。

几个核心数据我印象很深:
– 一次不规范的迁移,平均需要523天才能恢复排名(来自892个案例分析)。
– 17%的站点永远回不到迁移前的水平。
– 问题通常在3-4周后才暴露——因为Google要重新构建对站点结构的认知。

清单里最值得关注的要点:
1. 迁移前必须建立基准:至少导出12个月的Google Search Console和Google Analytics数据。这是唯一能判断迁移是“赢了”还是“输了”的依据。
2. 映射每一个URL,包括参数:很多老平台用?category=shoes这样的参数,新平台如果命名不同,那些已经索引的URL就变成死胡同。这个问题在测试阶段完全不可见,直到排名下降。
3. 迁移后持续监控28天:主动检查301重定向是否生效、元数据是否丢失、结构化数据是否完整。不要等数据报警。

我的实战建议: 把这份清单贴在项目看板上,标记为“不可跳过”。迁移不是技术升级,是给搜索引擎发新的信号地图。信号错了,内容再好也没用。

🔗 Hacker News (SEO)


关键词聚类:如何制定2026年主题权威策略

这篇文章的核心价值在于系统教会你关键词聚类如何制定,并提供SERP、语义、混合三种方法的具体对比和实操步骤。作为有7年经验的SEO从业者,我觉得这是2026年建立主题权威最实用的指南。

关键要点有三个:第一,文章详细拆解了SERP-based聚类——通过真实搜索结果重叠判断关键词是否应归为一页,能精准避免关键词蚕食,适合竞争激烈的垂直领域。第二,语义分组靠词语相似度快速批量归类,适合早期架构搭建和超大规模关键词集(10k+),但可能忽略实际搜索意图。第三,混合聚类先语义粗分再SERP验证,兼顾速度与精度,是我当前推荐的首选方法。

实战建议:如果你手上有上千个待整理的关键词,别直接开写。先按语义分类建内容大纲,再抽取高价值簇做SERP验证,确保每个URL承担独特搜索意图。HubSpot文章里还提到免费工具如Keyword Hero和Google Search Console配合使用,2026年主题权威拼的就是这种精细化落地。

🔗 HubSpot Marketing


产品SEO:驱动B2B和SaaS需求的8个策略

HubSpot这篇文章直接告诉你一个真相:产品SEO驱动B2B和SaaS增长最被忽视,却最有效。我读完最大的感受是——大多数团队把预算砸在漏斗顶部内容上,而真正促成决策的功能页、对比页、定价页却无人优化,这是巨大的浪费。

关键要点很清晰:第一,产品页面不只是“产品”那一页,而是feature pages、integration pages、pricing pages等整个surface area,它们是买家意图最高时的触点。第二,优化这些页面的关键词和结构数据,能直接抓住“[你产品] vs 竞品”这类高转化搜索。第三,Google的AI Overview正在优先引用结构清晰、语义明确的产品描述——所以产品SEO现在就是AEO(Answer Engine Optimization)。

我建议你回去看看自己site的comparison pages和pricing pages有没有独立SEO策略。哪怕只把integration pages加上清晰用例和schema,流量和转化都会有立竿见影的提升。

🔗 HubSpot Marketing


代理运行时之战已打响。你的网站准备好了吗?

“代理运行时之战已打响”——这是Slobodan Manic在SEJ最新文章中的核心判断,我完全认同。这篇文章彻底颠覆了过去18个月我们讨论AI SEO的方式:别再问“该优化哪个模型”,而是问“你的网站对哪个代理运行时可读”。

关键事实有三层冲击:

  1. 四月基础设施战正式开打:Cloudflare在4月15日发布Project Think(支持持久会话、崩溃恢复、沙箱代码执行),同日OpenAI推出下一代Agents SDK(原生沙箱);次日Cloudflare又连发5个产品,包括AI Platform、AI Search(向量索引+RAG)、Email Service for agents、Workers内嵌PlanetScale数据库。三家巨头(加上谷歌Pichai将搜索描述为“agent manager”)同时押注同一件事——运行时层,而非模型层。

  2. 运行时已成模型与网站之间的唯一通道:文章揭示,模型不再直接读取你的网页。运行时负责fetch、解析、执行JS、解析结构化数据、处理认证。模型看到的每一个token都是运行时的二次加工。这意味着你过去半年花在“让ChatGPT顺利爬取”上的功夫可能白费了。

  3. 三个必须立即检验的测试:你的关键端点是否返回机器可读的结构化响应?你的认证是否支持代理以用户身份跨多次调用维持会话?你的结构化数据在不执行JS时是否仍语义完整?这三个问题与模型无关,完全取决于运行时的“可读性”。

我的实战建议:立刻将网站技术审计的重心从“对模型友好的内容格式”转向“对运行时友好的基础设施”。比如检查你的API是否支持流式响应?是否暴露了机器可读的schema(如JSON-LD且不依赖客户端渲染)?是否提供无头认证(如OAuth2 token换session)?运行时之战才刚刚开始,但赢家会锁定你的AI流量入口。别被模型发布会分心,看看产业基础设施的changelog吧。

🔗 Search Engine Journal


Claude Skills 用于 SEO 与营销:它们是什么以及如何使用

如果你还没用上ClaudeSkill来标准化日常工作流,这篇文章值得一读。Ahrefs的Si Quan Ong用实例证明,只要把重复的prompt写进一个SKILL.md文件,Claude就能自动识别任务并执行,从此告别每次重新解释规则。

几个关键点:
什么是ClaudeSkill:一个文件夹+一个SKILL.md文件。YAML头部定义名称和描述(触发词),下方写具体指令。Claude根据用户描述自动匹配技能,无需手动选择。
渐进式披露机制:前端描述始终在context里,技能触发后才加载完整指令,引用的大文件只有被调用时才读取。作者说这样token成本降到最低,“长参考材料的费用在需要之前保持为零”。
实操方法:安装Anthropic官方的skill-creator工具,回答几个问题就能生成标准结构。如果你想手动写,把文件夹放在.claude/skills/<skill-name>/下。作者自己写了一个“/linkedin-pipeline”技能,每次文章发布后自动生成3-5条不同角度的LinkedIn帖子。
一个忠告:别想一次覆盖所有任务。从“你经常做、每次都要重新解释的那种事”开始,比如转录音频为语录、改写内容简报的语气、按编辑清单QA文章草稿。

我觉得这篇文章最大的价值不是教你怎么装Skill,而是帮你想清楚“哪些重复工作值得自动化”。对于SEO团队里那些每周重复的SEO报告生成、外链分析简报、竞争对手内容总结,完全可以用ClaudeSkill来流水线化执行。它省的不只是时间,更是每次prompting不一致带来的输出漂移。如果你是Ahrefs用户,直接参考这个workflow,动手做一个你自己的Skill,半小时就能跑通。

🔗 Ahrefs Blog


多数营销人员错过的Reddit财报故事

多数营销人员错过的Reddit财报,真正价值藏在平台底层变革里——Karma墙拆除、社区增长门槛降低、人类声音价值被官方认证,这些才是GEO时代品牌该盯的信号。

Steve Huffman在Q1电话会上花了比以往更多时间讲一件事:Reddit要降低新用户参与门槛。核心数据很硬:美国日活5000万,目标1亿;周活2亿,转化空间巨大。广告收入增长74%只是表面,真正有意思的是他们公开承认Karma墙和账号年龄限制正在用AI防垃圾技术逐步解除。我们OGS团队一年多来反复反馈的痛点,终于要被官方解决了。

更关键的是“社区成功”被提升为战略重点。品牌想建自己的subreddit,之前会被Reddit的防滥用机制误伤,现在平台要主动优化这个流程。我觉得这比任何AI数据授权都更重要——当Reddit从“防新手”转向“帮新手”,品牌做社区运营的ROI将完全不同。如果还没布局,现在该动手了。

🔗 Search Engine Journal


AI公司销售温馨广告——他们正竞相让你的工作自动化

AI公司销售温馨广告,但它们的真实产品正在加速取代你的工作。这篇Greg Jarboe的文章尖锐拆穿了叙事与事实的鸿沟——对SEO从业者来说,这是调整策略的必修课。

关键要点:
– OpenAI的GPT-5.5在GDPval基准上击败人类专业人员84.9%的任务,包括新闻分析师等岗位。这不是消费者指标,而是“替代率”指标。
– Google的AI Overviews带动搜索收入增长19%,却减少了点击。品牌竞争从排名转向AI摘要中的引用,GEO(生成引擎优化)成为新战场。
– Anthropic内部研究显示,依赖AI编码的初级工程师完成任务后对工作理解更差——同样的技能侵蚀风险即将蔓延到内容策略和SEO分析。

我的建议:立刻从“生产内容”切换到“构建权威实体与可解析的结构化信息”。那些温馨广告是为融资拍的,不是为你。

🔗 Search Engine Journal


Google 的 Mueller 指出 AI 氛围编码在 SEO 上的不足

Google的Mueller用亲身经验告诉我们:AI vibe coding能快速建站,但SEO优化需要明确的技术指引。

他和Martin Splitt分别试用Claude Code和Gemini CLI,发现模糊指令只会输出“撒些meta标签”。关键要点:1)AI自动假设技术栈,必须提前指定域名、canonical、sitemap和robots.txt。2)预发布检查确保URL返回内容、JS文件不被robots.txt屏蔽。3)Mueller切换命令行工具后效果更稳定。
有意思的是,vibe coded页面HTML看不出差异,但框架留痕。我建议:低风险项目随便试,生产站点务必让懂SEO的人把关每个技术环节。这样AI产生的搜索可见性才可靠。

🔗 Search Engine Journal


Google的质量阈值正在悄然扼杀大规模AI内容的排名

Google的质量阈值正在悄无声息地淘汰大规模AI内容——问题的根源不是AI本身,而是内容策略无法通过长期的质量考验。我强烈推荐这篇来自Dan Taylor的分析,他用真实案例和数据拆解了“Mt. AI”效应的本质。

三个关键发现让我印象深刻:
1. 新鲜度boost(初始流量冲击)掩盖了质量缺陷,一旦消失,排名断崖式下跌。Martin Sean Fennon的LinkedIn案例展示了第三方流量数据如何暴露这个真相。
2. Google通过crawl budget和质量阈动态评估新内容的代表性样本。样本URL表现差,整个批次资源就被抽回。Adam Gent指出这个阈会随更好内容的出现而提升。
3. 文章把矛头指向内容策略而非AI工具:规模化生产时,内部链接、编辑流程、主题选择全面崩盘。AI只是放大这些弱点。

我的实战建议:别把“初始流量峰值”当成绩效指标。真正的护城河是“质量维护规模化”——每个URL都要经得起新鲜度外的长期检验。投入人工策略和QA流程,否则流量只是一波波昙花一现。

🔗 Search Engine Journal


谷歌解答:偏好来源(Preferred Sources)是否会覆盖低质量信号

谷歌解答偏好来源(Preferred Sources)与质量信号优先级问题,这篇文章直接给出官方回应。

John Mueller明确表示,Preferred Sources不会让垃圾站点绕过质量系统——就算用户选了,Google也不会展示低质量内容。关键要点有三:第一,该功能仅提升用户在Top Stories中看到所选站点的概率,不影响全局排名;第二,Mueller拒绝将其视为“信任按钮”,但文章指出Google确实有相关专利;第三,这是个实战信号——我建议:鼓励读者将你的站点设为偏好来源,能直接提升忠实用户搜索可见性。不需要过度担忧算法冲突,专注内容质量才是根本。

🔗 Search Engine Journal


AI 将如何在未来两年内改变 PR 在 SEO 战略中的角色

AI将如何在未来两年重塑PR的角色?这篇文章给出了答案:PR不再是SEO的附属品,而是AI搜索可见性的核心燃料。数据证明,品牌声誉的第三方背书直接决定AI引擎的推荐意愿——这不是理论,是现实。

关键事实:
– 据Stacker研究,earned media分发能让AI citations中位数提升239%。品牌在Trustpilot、G2上的review,让ChatGPT引用率翻三倍。
– BrightEdge分析五款AI引擎(ChatGPT、Perplexity、Gemini等),发现虽然来源偏好各异,但品牌重叠率稳定在35%-55%。引擎“选什么”波动,但“推荐谁”高度一致。
– Muck Rack指出,earned media仍占所有AI引用的25%。Wirecutter的评测、TechCrunch的报道,比品牌自产内容更易被AI抓取。

我认为PR的困境在于:工具已到位(Citation可以追踪),但多数团队仍习惯被动执行。谁先主动整合PR与SEO,谁就能在AI搜索中抢占先机。实战建议:别再为一套引擎做五套策略——专注三个层级:权威媒体、商业/编辑内容、UGC。让PR去搞定trade press和analyst reports,让SEO去优化review site和comparison content。当citation graph和PR strategy map合二为一时,你就在每个引擎的推荐列表里都有了位置。

🔗 Search Engine Journal


如何追踪你自己和竞争对手的ChatGPT流量

这篇文章直接给出了如何追踪你自己和竞争对手的ChatGPT流量的实操方法,值得每一个关注AI流量的SEO人收藏。

数据很扎实:Semrush分析显示2025年ChatGPT外链流量增长了206%。更关键的是,Bek Drayton和Jimmy Rippon两位专家证实,ChatGPT来的用户预筛选过,平均订单价值比传统搜索高出50%。GA4里你只需要在Session source/medium过滤“chatgpt.com”就能看到自己的流量,而Semrush的AI Traffic仪表盘可以横向对比竞品。我觉得最实用的是通过Top Growing Pages发现竞品哪些页面在吃ChatGPT红利,然后照着优化。别只看点击,William Álvarez说得对,AI引用本身就在影响决策。这套追踪框架应该成为你的常规报表。

🔗 Semrush Blog


上一篇

GEO周刊(#30):3个简单方式使用 Google 购物迎春季

下一篇

GEO周刊(#32):Evolving role of the…

你也可能喜欢

0 0 投票数
文章评分
订阅评论
提醒
guest
0 评论
最旧
最新 最多投票
内联反馈
查看所有评论
返回顶部
0
希望看到您的想法,请您发表评论x