GEO周刊(#25):将个人智能的力量带给更多人


🏛️ 官方动态

将个人智能的力量带给更多人

Google 正在将个人智能功能扩展到更多产品中,这直接影响 SEO 从业者的工作方式。

个人智能现在在美国范围内覆盖 AI 搜索模式、Gemini 应用和 Chrome 中的 Gemini 功能。用户可以连接 Gmail、Google Photos 等应用,获得高度个性化的搜索结果,比如根据过往购买记录推荐商品、根据邮件行程自动生成旅行计划。

我注意到这个功能对 SEO 策略的影响:传统关键词排名可能不再足够,因为用户会看到基于个人数据的定制化结果。Google 强调用户完全掌控应用连接权限,并且训练模型时不会直接使用邮件内容或照片库数据。

对于从事 SEO 工作的同行来说,现在需要考虑如何让内容适配这种个性化搜索场景,而不仅仅是通用排名优化。

🔗 Google The Keyword


🤖 GEO·SEO 精选

关键词意图:定义及其在SEO策略中的应用

这篇文章深入解析了关键词意图分类与实际应用策略,对SEO从业者具有较高实用价值。Ahrefs高级SEO专家Despina Gavoyannis用10年经验解释了关键词意图的核心定义,以及如何区分搜索意图和关键词意图的实际应用场景。

文章重点介绍了四种主要关键词意图类型:信息型关键词(如”how to grow tomatoes”)适合构建内容策略;商业调查型关键词(如”best garden hose”)是电商和联盟营销网站的战略价值所在;交易型关键词(如”buy garden hose online”)虽然转化率高但竞争激烈;导航型关键词只建议拥有品牌词。此外,文章还指出传统四类模型忽略的两种类型:本地意图关键词(如”dentist near me”)需要本地SEO策略而非内容策略;品牌意图关键词需要专门的保护策略。

我觉得这篇文章最有价值的地方在于提供了实用的评估框架,特别是商业潜力评分方法,帮助判断哪些关键词值得投入资源。对于任何从事SEO工作的从业者来说,理解关键词意图是制定有效内容策略的基础。

🔗 Ahrefs Blog


基于数据,如何在ChatGPT中排名:真正有效的方法

我看了这篇Ahrefs关于ChatGPT优化的深度分析,觉得对AI搜索引擎优化从业者极具实用价值。

文章基于75,000个品牌的大数据分析,系统性地揭示了如何在ChatGPT中提升品牌可见度。最有意思的发现是:YouTube提及与可见度的相关性最强,甚至超过传统网页提及。这可能因为ChatGPT训练数据中包含大量YouTube字幕内容。

具体策略包括:
– 通过YouTube Studio查看已标记提及,用Brand Radar追踪未标记提及
– 发布优化SEO的YouTube视频,或赞助相关创作者
– 利用Brand Radar的筛选功能找到AI营销领域的优质频道

我特别认可作者的实操建议,比如用Boolean查询构建复杂筛选器,这种具体方法比泛泛而谈有用得多。不过文章也诚实地指出,由于ChatGPT响应的概率性,”排名”本身并不存在,我们能做的只是提高被提及的概率。

对我而言,这篇文章填补了AI搜索优化领域的实证研究空白,值得所有做数字营销的同行仔细研读。

🔗 Ahrefs Blog


内容衰退是什么?(如何在流量流失前修复)

内容衰退是每个 SEO 从业者都必须面对的现实问题。Louise Linehan 这篇文章用大量图表和数据告诉我们:90% 的内容在发布两年后都会出现流量下滑,而这往往是因为竞争对手更新、搜索意图变化或 AI 推荐偏好新内容。

她用 Ahrefs 的工具演示了如何用 Site Explorer 的 Organic Search 标签发现衰退内容,以及用 Top Pages 报告对比 AI 引用和搜索排名。最有意思的是她提到一个研究:通过更新发布日期,AI 排名能提升 95 位,这比传统 SEO 的优化效果还显著。

我觉得这篇文章最大的价值在于系统性——不仅讲了”是什么”,还提供了从检测到修复的完整流程。特别是她强调的内容生命周期模型,让我意识到很多团队只关注内容创建,却忽略了维护阶段。如果你负责的内容型网站月流量超过 1 万,这篇文章值得收藏下来作为内部培训材料。

🔗 Ahrefs Blog


数字公关策略的3个简单步骤

数字公关策略的3个简步骤,帮你2026年抢占AI搜索先机。

Chloe Osunsami用3个步骤构建系统化数字公关策略,特别适合应对AI搜索时代的变化。首先,通过SEO数据和竞争分析找到机会窗口 – 不仅要盯住传统对手,还要关注新兴挑战者,比如Hoover当年的竞争对手Electrolux。其次,识别覆盖和AI可见性差距,包括链接、品牌提及和AI提示词的空白点。最后,分析竞争对手成功的内容策略,发现可复制的模式。

我觉得最有价值的是她强调的”非真空竞争”理念 – 消费者会比较多个品牌,所以监控竞争对手不仅限于直接对手。数据显示,44%的搜索查询现在涉及AI生成结果,这意味着数字公关必须同时服务传统SEO和AI搜索优化。

实战建议:用链接交叉分析工具找出竞争对手的独家资源,然后通过高质量内容和权威媒体合作获取类似提及。别忘了设置行业新秀监控,防止被悄悄超越。

🔗 Moz Blog


2026年AI搜索趋势及应对策略

这篇文章深入分析了2026年AI搜索的演进趋势,并提供了实操的适应策略,对SEO从业者具有高价值。

核心观点是:AI搜索正从传统链接排名转向生成式答案,长尾复杂查询激增,多模态搜索快速增长。数据显示,美国30岁以下成年人中有58%使用ChatGPT,比2023年翻倍。Google Lens每月处理超过120亿次视觉搜索,Circle to Search功能查询量在过去一年内增长3倍。

我特别认可文章的实战建议:创建结构化内容,使用自然语言匹配复杂查询,添加图片alt文本和视频字幕。这些具体步骤能帮助内容在AI系统中被准确引用和合成。

🔗 Semrush Blog


2026年关键词研究方法(6种方式+框架)

这篇文章为2026年的关键词研究提供了完整的框架和六种实用方法,是SEO从业者必读的实战指南。

文章核心价值在于系统性地展示了如何通过Google Search Console和Semrush工具发现现有排名机会,同时强调了通过销售通话和客服数据挖掘第一方关键词的重要性。特别值得注意的是,它不仅关注传统搜索,还涵盖了AI搜索的优化策略。

我特别认同作者提出的”从现有排名中寻找机会”这一思路。比如通过GSC的”Queries”标签,可以发现那些虽然有曝光但点击率低的关键词,这些往往是容易优化的低垂果。同时,文章强调的”真实用户语言”比工具数据更重要,这与我过去的经验一致。

六种关键词发现方法涵盖了从技术工具到业务洞察的全过程,框架清晰,可操作性强。对于2026年的关键词研究,这篇文章提供了既有理论深度又有实践指导的完整解决方案。

🔗 Semrush Blog


AI搜索引擎内容优化指南【2026版】

这篇文章给出了AI搜索引擎内容优化的完整操作指南。Semrush研究发现Google AI Overviews现在出现在88%的信息查询中,而且引用来源与传统搜索结果差异巨大。

作者分析了AI搜索引擎如何选择引用内容。E-E-A-T原则依然重要,但LLM还看重具体信号:有资质的作者署名、原创数据、语义化HTML结构、行业最新内容、高质量反向链接。Google AI Overviews特别偏好结构化数据、新鲜内容和高排名页面。

对于想要在AI时代保持可见度的营销人员,这篇文章提供了从理论到实践的完整路径。

🔗 Semrush Blog


SEO顾问如何用Semrush AI情感洞察提升流量和可见性

这篇文章教你如何用AI情绪洞察提升搜索可见度,我强烈推荐给所有SEO从业者。

最有价值的是他强调”先修复现有内容,再做新内容”的原则。如果你忽略第一步情绪修正,后面做的再多也没用。这个方法不仅适用于共享办公,对任何受AI推荐影响的行业都适用。

🔗 Semrush Blog


谷歌:404抓取意味着谷歌愿意获取更多内容

这篇文章纠正了行业内对404状态码的重大误解。谷歌的约翰·穆勒明确表示,重复抓取404页面的行为实际上是Google认可该网站内容质量的积极信号。

核心观点:404页面被反复抓取≠问题,反而是Google愿意获取更多内容的表现。文章通过对比404和410状态码的官方标准定义,指出行业内流传的”404=页面损坏需要修复”完全错误。穆勒的回答”这些不会造成问题,所以我建议就让它们保持原样。它们可能会被重新抓取很长时间,410也不会改变这一点。从某种意义上说,这意味着Google可以接受从你的网站获取更多内容”非常明确。

我之前也见过很多站长为404报告焦虑,现在明白了这其实是”虚惊一场”。Googlebot持续抓取404页面是因为它在检查这些页面是否意外恢复,这种行为本身就表明Google对站点内容的关注度很高。

🔗 Search Engine Journal


内容护城河已死,背景护城河才是未来

这篇文章揭示了AI时代内容策略的核心转变:传统内容护城河已死,背景护城河才是幸存者。作者Duane Forrester用具体案例和数据证明,当AI能将3000字指南压缩成三句话时,只有拥有原创数据、专有方法论和第一手经验的内容才能保持竞争优势。

文章最有价值的部分在于定义”背景护城河”的四个具体类别:原创基准测试、专有数据、第一人称案例研究、专家评论和原创实验。这些内容AI无法复制,因为它们需要你独有的资源和经验。

数据显示,加入统计数据能让AI可见性提升41%,数据丰富的网站获得4.3倍更多引用。这不是理论,而是正在发生的现实。Gmail的Gemini摘要卡、Google的AI概览、微软Copilot的购买功能都在压缩内容与受众之间的层。当这一层能复制你页面的价值而不发送流量时,只有那些AI无法复制的内容才能幸存。

对于SEO从业者,这意味着必须从生产”正确且写得好”的内容转向生产”AI无法替代”的内容。这不是内容策略的调整,而是战略层面的根本转变。

🔗 Search Engine Journal


真实的人类对话™:Reddit的内容授权和SEO困境

这篇文章揭示了Reddit的”真实人类对话™”(Authentic Human Conversation™)背后的真相——一边起诉用户访问内容,一边以每年1.3亿美元的价格出售用户生成的数据。

Reddit现在面临双重危机:一方面,它起诉SerpApi只是为了”查看Google搜索结果”这一行为,这种法律论点荒谬到将每个SEO从业者都变成潜在的版权侵权者;另一方面,平台内容的真实性正在崩溃——Digg的失败证明了AI代理和自动化账户已经占据了互联网对话的主导地位。

最讽刺的是,Reddit的用户协议明确声明用户拥有自己的内容,但公司却在法庭上主张自己拥有控制权,并向Google和OpenAI收取高额授权费。这种”既要免费内容,又要独家授权”的双重标准,正在侵蚀整个网络生态的信任基础。

这不是一个孤立的Reddit问题,而是整个互联网内容生态的缩影。当我们追求算法推荐和AI训练数据的同时,我们正在失去最初让网络充满活力的”真实人类对话”。

🔗 Search Engine Journal


日志文件数据能告诉我工具无法提供的信息吗?

这篇文章让我重新思考了日志文件在SEO中的核心价值。Helen Pollitt 用具体案例和数据说明了为什么日志文件能提供其他工具无法获取的洞察。

日志文件能揭示真实的爬行行为,包括哪些页面被搜索引擎实际爬取、爬行频率以及爬行预算分配。她通过一个示例日志条目展示了如何解读时间戳、状态码和响应大小等关键数据。

最有价值的是日志文件能识别孤立页面和遗留URL,这在常规爬虫工具中很难发现。文章提到可以通过IP范围验证真实的Googlebot,防止恶意爬虫伪装。同时,日志文件还能帮助诊断技术问题,比如识别工具和实际服务器返回状态不一致的情况。

我建议所有SEO专业人士都应该学习日志文件分析,特别是在网站迁移后或进行技术SEO优化时,日志文件能提供最权威的验证数据。

🔗 Search Engine Journal


如何构建SEO委托工作流:从工单到需求

这篇文章提出了一个关键观点:SEO失败不是因为知识不足,而是参与太晚。企业级SEO需要从被动修补转向主动委托。

Hunt用建筑行业的类比非常精准。高楼大厦需要委托代理确保所有系统协同工作,SEO同样需要成为数字资产诞生时的”委托代理”。这个比喻让我立刻理解了概念。

文章的核心框架有三个阶段:
1. 定义意图 – 确定资产存在的原因
2. 定义资格信号 – 确定搜索引擎理解资产所需的结构
3. 定义结构需求 – 塑造平台和模板

最有价值的洞察是”为什么搜索引擎会选择这个资产?”这个问题。如果答案不清晰,就不应该继续。这改变了我们对SEO角色的认知,从修补者变成设计师。

对于大型组织,这篇文章提供了可操作的解决方案。不再是事后补救,而是将SEO要求嵌入到决策流程中。这不仅能提高效率,还能确保可扩展性。

如果你在企业级SEO工作,这篇文章值得仔细阅读。它不仅解释了问题,还提供了完整的委托工作流程框架。

🔗 Search Engine Journal


小型出版商搜索推荐流量下降60%,数据显示

Chartbeat 最新数据显示,小型出版商搜索推荐流量两年内暴跌60%,几乎是大型出版商的三倍损失。这篇来自 Search Engine Journal 的深度分析值得每个 SEO 从业者仔细阅读。

数据显示,小型出版商(1,000-10,000 日 PV)搜索流量跌幅达60%,中型出版商跌47%,大型出版商跌22%。ChatGPT 推荐流量虽增长200%以上,但仍不足1%。

有意思的是,新闻类内容在 AI 推荐中点击率高但参与度低,用户多用于快速核实事实。而实用类内容(健康、园艺等)虽点击率低,但每次访问的页面浏览量更高。

大型出版商通过邮件、应用和内部流量部分弥补损失,但小型出版商资源有限,更难转型。这篇分析用具体数据打破了”出版商整体受影响”的假设,对制定针对性策略至关重要。

🔗 Search Engine Journal


谷歌AI摘要使德国顶级有机点击率下降59%

Google AI Overviews使德国顶级有机搜索位置的点击率下降了59%,这是SISTRIX基于1亿个关键词的分析结果。

我看到这个数据很震惊,因为这意味着原本27%的点击率现在只有11%。在所有搜索中,有AI摘要时点击率从57%降至33%,相当于每月损失2.65亿次点击。

有意思的是不同行业影响差异巨大。育儿和婴儿类网站损失超过24%,而菜谱网站只损失1%。维基百科每月损失3160万次点击,但以比例计算,专业健康网站受影响最严重,有些网站损失30%的流量。

这个研究价值在于提供了具体数字而非模糊说法。如果你在欧洲做SEO,必须把行业分类数据纳入关键词策略考量。AI摘要的出现不再是”可能影响流量”,而是已经造成可量化的损失。

数据显示AI摘要在德国搜索中占比20%,仍在增长但速度放缓。这个趋势值得持续关注。

🔗 Search Engine Journal


热门与冷门:2026年Q1 AI搜索变化回顾

SEJ 的这篇Q1 2026 AI搜索回顾很实用,直接告诉你什么该做、什么别做。Matt G. Southern 和 Loren Baker、Shelley Walsh 三人从新闻、商业和内容角度梳理了三个月的AI搜索变化。

要点有:AI Overviews出现时点击率下降,但品牌词提升18%;AI Mode和ChatGPT都开始卖广告了;可替代内容受威胁,原创研究和经验内容价值更高;Schema标记现在不止影响Google,还训练跨平台LLM。

我觉得最有用的是Loren关于Schema的观点——从前这只是给Google看的技术细节,现在成了AI系统学习你网站内容的直接数据源。如果你的开发团队还把Schema放在低优先级,可以试着把”AI可见性”作为卖点推进。

视频回放在文章里有链接,如果你需要了解具体策略建议,建议看完整版。

🔗 Search Engine Journal


SEO测试显示在Google上排名错误信息易如反掌

SEO测试显示在Google上传播虚假信息是多么容易。Jon Goodey的实验揭示了一个令人不安的事实:一篇包含AI幻觉的LinkedIn文章,关于不存在的2026年3月Google核心更新,竟然在Google搜索和AI概述中排名第一页,甚至被多家SEO网站引用传播。

这不是偶然现象。我发现Google的搜索结果经常推荐可疑的黑帽SEO策略,搜索”Google stacking”这样的关键词可能直接验证这种违规手段。更严重的是,Google官方明确表示不会进行事实核查,甚至拒绝遵守欧盟的虚假信息核查法规。

实验结果显示:只有少数读者质疑信息真实性,大多数网站不加验证地重复传播,AI系统则进一步放大了错误信息。这对我们SEO从业者来说是重要警示——不仅要警惕自身内容质量,也要认识到搜索引擎传播机制的局限性。

🔗 Search Engine Journal


品牌税:谷歌如何从你已拥有的需求中获利

这篇文章揭示了品牌搜索的ROI陷阱,Contentsquare的99亿次会话数据显示,品牌税正在让谷歌从你已拥有的需求中获利。我推荐这篇给所有负责付费搜索的从业者。

文章核心观点:

  1. 品牌搜索虚高ROAS:Contentsquare数据显示,品牌关键词ROAS达到1299%,而非品牌仅68%。但这不是真正的”获取”,而是”捕获”你已有的需求。

  2. 收购成本全面恶化:过去三年广告成本上升30%,转化率下降5.1%,付费搜索跳出率高达59%,而有机搜索只有42%。

  3. AI搜索加速问题:Google Q4搜索收入仍增长17%,AI Overviews和AI Mode正通过减少点击量同时推高CPC,让品牌税问题雪上加霜。

作者提出具体解决方案:将品牌和非品牌搜索数据分离,建立正确的归因模型,才能看清真实的收购效率。对于考虑AI SEO的团队,这篇文章提供了强有力的财务论据。

🔗 Search Engine Journal


你并没有在规模化内容,而是在规模化失望

这篇文章是SEO从业者必读的现实提醒。Pedro Dias用历史复盘的方式,拆穿了内容规模化背后的谎言。

他用具体数据证明:2011年Panda更新后,Demand Media市值蒸发6400万美元;2025年最新研究显示,低质量内容不仅不被收录,还会干扰AI检索系统。

最有意思的是,他发现一个卖AI优化工具的公司,自己网站却用2017年的”Best X in City”模板大量生成内容。这种讽刺性案例说明行业根本没吸取教训。

我的看法是:工具在变,但内容的核心价值没变。Google评估内容时看的是相对价值,不是绝对数量。你生产500篇AI文章,不如写一篇有独家洞察的深度分析。

这不是技术问题,而是商业模式问题。规模化内容是财务上的幻觉,最终会变成维护成本和品牌损害。

🔗 Search Engine Journal


AI时代重新思考SEO

这篇文章深入探讨了AI时代SEO的变革,提出AI正在成为信息发现的新守门人,传统的搜索优化策略需要全面重新思考。

文章核心观点:AI系统在用户和搜索结果间增加了新过滤层,用户先向AI提问,AI再决定是否需要搜索外部信息,这改变了内容被发现的整个路径。

三个关键变化值得关注:
– 搜索碎片化:不同AI平台使用不同数据源,品牌在ChatGPT、Gemini、Perplexity等平台的可见性差异显著
– 前5名决定生死:AI系统通常只检索前5个搜索结果,不在前5的内容可能永远不会被AI引用
– 内容压缩效应:AI模型会压缩信息,只有强势观点或极端观点更容易被保留

Yoast推出的AI+工具很有价值,能追踪品牌在多个AI平台的提及情况,这在传统SEO工具中是缺失的。我认为这种监控能力将成为未来SEO工作的标配需求。

传统SEO原则依然有效,但需要在AI时代重新应用。高质量内容、清晰结构、满足搜索意图这些基础依然重要,但如何让内容在AI检索时脱颖而出,是新挑战。

🔗 Yoast SEO Blog


上一篇

GEO周刊(#24):2026年关键词有多重要?

你也可能喜欢

0 0 投票数
文章评分
订阅评论
提醒
guest
0 评论
最旧
最新 最多投票
内联反馈
查看所有评论
返回顶部
0
希望看到您的想法,请您发表评论x