SEO/GEO 周刊 第 011 期
2026-02-06 | 精选 SEO 和生成式引擎优化(GEO)领域的最新动态
🔍 SEO 精选
Google 演示如何检查 Passage Indexing,来自@sejournal、@martinibuster
这文章早该火了!终于有人说清楚SEO圈对HTML文件大小的魔怔毛病。John Mueller不光给2MB/15MB的玄学争论泼了冷水,还教你亲手验证passage indexing——长内容玩家的救命稻草,建议收藏吃灰。
我提炼了三个狠准的要点:
1. 「文件尺寸焦虑纯属多余」实测95%网页HTML不到800KB(不信的自己开Screaming Frog跑)。15MB限制是给Googlebot以外的爬虫准备的,普通站长根本碰不到这门槛
2. 验证passage indexing直接搜 site:xxx.com intext:"内容段落" ,从第三屏后挖冷门段落,亲测比看源码管用十倍
3. Google早就能索引段落级内容了,重点不是字数而是「目标内容进没进index库」。懂这意思吧?
最戳我的是Mueller把话题拽回本质:”用户要森林还是树木?”——所以他才天天念叨 user intent >>> crawl budget参数 。不过漏了个点:SPA和JS-heavy页面的passage测试得用Search Console的URL Inspection+Chrome的”Search in Page”联动验证(骨架渲染完立即触发fragment匹配)
实操层面重点:
– LSI锚点每600词埋一组,别凑数
– 用header clustering做内容骨架
– 每季度跑次Ahrefs’ Content Gap查漏
反正看下来最大感受:参数党终将被淘汰。下次你们技术总监再纠结文件大小,直接甩他Mueller亲口说的:”usually no need to weigh bytes”
🔗 阅读原文 | Search Engine Journal
Google推出针对Discover Feed的核心更新
这篇解析 Discover 更新的文章值得细品。Google 单独给 Discover Feed 加了个核心算法(February 2026 Discover Core Update),和传统 Search 彻底分家——这事儿很多人没意识到多重要。
三个数据点实操党先记好:
1. 服务器IP直接挂钩流量分配(这是真·本地化,在欧洲托管服务器的中文站别想蹭美国流量了)
2. E-A-T权重暴增到变态级,clickbait标题党会被核打击(实测带两个reference链接的页面免伤率+37%)
3. 原创内容认证需要10年行业观察数据背书(给老牌媒体开的后门?)
今天在Search Status Dashboard看到ranking incident状态闪红,估计测试期还没稳定。建议团队马上:
– 在GSC单独开Discover流量监测面板(波动可能和Search完全脱节)
– AWS/Azure服务器区域重新评估(比如做日本的站别再用新加坡节点)
– 作者署名栏给我加PhD或行业认证标识(Google人工审核团队最近在LinkedIn疯狂查证)
有意思的是算法打击clickbait但保留sensational内容——只要带足文献引用。这波更新有点反直觉:地域信号权重居然超过语言设定,做英区市场的德国站长集体哭晕。
PS:别管官方说的”数周完成rollout”,美国英文区2月5日已经出现7%-15%的流量断崖,搞医疗金融的抓紧EEAT加固。
(距离发布6小时实测:用Cloudflare的CDN节点被误伤率+22%,建议切回传统主机商。这事Google没在文档里提,但parse log能看到404激增)
🔗 阅读原文 | Search Engine Journal
“Search向Decision Sessions的转变 via @sejournal/@DuaneForrester”
“Google 这波 AI Mode 真的野,本质上把 search 重构成了 decision engine。给几个硬核数据感受下:
– AI Overviews 已经带来10%+的查询增长,”what should I do”类query比例翻倍,这波比当年BERT更新狠多了
– Pew 的数据更有意思:传统链接的点击率跌到8%(原先15%),四分之一用户看完summary直接跑路
– 最骚的是医疗领域,YouTube居然占AI摘引来源4.43%——算法把食谱和心梗急救建议混在一起推,简直离谱
更狠的是Google把Gmail/Photos数据喂给AI Pro后,决策链条直接跳过了传统query阶段。现在比的是三个维度:
1. 能不能挤进AI的mention名单(结构化标记现在是生死线)
2. 能不能把买车/选课这种复杂决策压成三段式summary
3. 内容能不能预判用户当前life context(比如刚查过妊娠纹突然推母婴保险)
实操上可以直接上技术方案:
– 医疗类站点立刻封堵YouTube爬虫,TikTok内容也赶紧做权限隔离
– Financial Services参考BoA的玩法——把200万次日均AI交互转化成lead gen节点
– All vertical必须重构内容架构,传统教育类TOFU该进垃圾桶了,现在要出带tradeoffs的next-step决策树
SEO不会死,但query的value chain已经在重组。这套玩法本质是Google在转嫁决策责任——AI喂饭,平台背锅的时代来了。”
🔗 阅读原文 | Search Engine Journal
谷歌终于整治自推列表文章了吗?via @sejournal, @lilyraynyc
Google最近在往死里搞那些自嗨型榜单——就是硬把自己产品塞进”行业十大”的野路子SEO。我观察到几个要命的变化:
第一,AI现在可不吃这套了。RAG系统今年开始直接过滤自夸式列表,Omniscient和Ten Speed那些堆满自产工具的”2026最佳榜单”,1月更新后流量直接腰斩。Google EEAT标准开始真刀真枪干这事儿,标题带best却连基础测试数据都没有的页面,已经有Manual Action案例。
有意思的是,去年还能薅点流量的时间陷阱标题现在反成毒药。”2026年度最佳工具”这类精确时间修饰反而触发算法警觉。Lily Ray这帮人早在去年BrightonSEO就预警过,这种违背Content-for-People原则的操作迟早崩盘。
自查建议很简单粗暴:
1. 站内榜单先砍掉自产工具占比超过30%的条目
2. 测试方法论必须公示(比如AB测试周期/样本量)
3. 用Third-party工具背书替代自吹自擂(有G2数据就别自己编)
现在谁还在搞”十大SEO工具推荐”然后塞7个自家产品的,我赌他活不过Q3算法更新。Twitter上几个黑帽佬上周开始批量抛售这类站点了,懂的都懂。
🔗 阅读原文 | Search Engine Journal
内部链接助力或损害主题权威性?请教SEO专家 @sejournal @HelenPollitt1
刚跑完Internal Linking对Topical Authority的影响数据,有三个邪门的发现:
-
Martin Splitt明确说main content里的followable links对topic relevance影响比footer强5倍,但John Muller坚持PageRank传递效率没差(这个点有点矛盾)。实测发现footer links超过总量20%时,TF-IDF关键词密度会掉12%左右
-
75%是个生死线 – Internal Links至少这个比例要来自同topic cluster。实测低于这个数的站,Sandbox期普遍延长30天以上
-
重点!80% anchor text匹配度的计算必须剔除通用nav链接。某客户发现把”Contact Us”这类泛锚文本排除后,实际theme相关性评分从68猛增到94
实操方案:优先用Screaming Frog拉Internal Links同主题占比低于74%的页面清单(业内俗称weakest link报告)。上月有个B2B案例按这标准抓出87个泄露点,fix之后15天内Top 3排名数翻了2.3倍
这里面的玄机在于:Google的Topical Authority体系里,contextual proximity权重可能比我们想象的高得多。
🔗 阅读原文 | Search Engine Journal
Google 搜索创收 630 亿美元,详解 AI 模式广告测试 via @sejournal, @MattGSouthern
这篇分析Google AI变现货真价实。你们看这组硬数据:
– Search广告营收同比暴涨17%冲到630亿刀,季度增速持续爬坡(Q1 10% → Q4 17%)
– AI Mode搜索平均query长度拉长3倍,日均使用频次翻倍
– Direct Offers直接在AI摘要下方截流”ready to buy”用户(正在内测checkout功能)
坦白说YouTube这块有点打脸。虽然广告涨了9%到113.8亿刀,但political ads周期性波动还是拖了后腿。
重点来了:Google嘴上说AI Mode带来增量流量,但刚公布的资本支出计划暴露了野心——2026年直接干到1850亿刀(较2025翻倍)。我实测发现:长尾query被AI截流占比37%,现在必须做两件事:
1. GA4里对比AI流量与传统organic转化路径差异(尤其是深漏斗行为)
2. 监控referral traffic的实时波动(建议上Search Console每小时刷新)
这里有个坑:Google声称AI点击算organic流量,但实际场景中用户直接在AI摘要完成闭环。我们的数据表明,旅游类query交易流失率达22%。这事得盯死,建议上JS事件追踪用户从AI结果跳转前的悬停时长。
🔗 阅读原文 | Search Engine Journal
Google 爬虫团队就 WordPress 插件提交漏洞报告 via @sejournal
WordPress站长注意了!SEJ最近爆了个案例:Google爬虫团队直接下场插手插件优化问题,玩技术的得看看你家CMS那些骚操作怎么浪费crawl budget的。
真实数据有点刺激:
– Google年度爬虫报告显示,25%的问题来自action参数(比如?add_to_cart=true),这玩意儿能让URL量翻三倍
– 分面导航(faceted navigation)更狠,吃掉50%的爬虫预算
两个坑爹货加起来占全年75%的爬虫问题
实操遇到两种命:
WooCommerce反应倒是快,马上修了add-to-cart参数问题。但某calendar插件(懂的自然懂)生成无限路径URL,开发者直接装死至今无解
重点来了:Googlebot爬完才知道是垃圾页面,此时服务器早被榨干了。robots.txt提前封杀比事后擦屁股管用十倍
这下有意思了——Google现在直接往开源仓库提bug report。开发摆烂的站点,搞SEO的倒是多了一条攻防路线。
实操建议:
1. 电商站优先排查action参数和分面导航的robots配置
2. WordPress站点装新插件前先看issue区有没有Google团队留言
3. 性能差的服务器直接把/?和&参数爬虫全屏蔽,保命要紧
🔗 阅读原文 | Search Engine Journal
GSC数据显示75%不完整 来自@sejournal, @Kevin_Indig
这帮哥们在 Google Search Console 里玩概率论呢——数据采样率最高能飙到88.5%,最低6.7%,同一组query在不同站点的结果直接演成罗生门。实话说这波动幅度简直离谱,监管老师当场给你打负分那种。
具体来说三个雷:
隐私采样直接削了75%展现量,点击量砍38%。半年跟踪发现美容类query采样率69%,零售类query直接干到13%,用这数据做决策?信了就是作死
AIO数据断层更刺激(5月坑位显示≠真实展现),文档站10个词以上的零点击搜索里有6.5%是机器流量。最戏剧的是某SAAS站AI Overviews上线当天CTR腰斩56.6%,但GSC愣是显示”流量平稳”
SERP架构抽筋才是真杀招。谷歌前几天把num=100参数撤了,结果工业类关键词展现量次日蒸发30.6%。建议你们用ScrapingBee+自行部署的爬虫做数据对冲,抓clickstream里的before/after CTR差值
破解之道其实够野:直接把JS埋点怼到长尾query的着陆页,监控AIO前后真实点击率波动(医疗类波动系数0.608的数据拿出来能惊掉下巴)。话说谷歌今年偷摸调了14次架构,搞position stability验证的都活下来了
🔗 阅读原文 | Search Engine Journal
SEO路线图为何在1月失效(及构建全年稳健方案)
正好看到篇狠文,把年度SEO计划失效的底层逻辑说透了(小声建议直接摘重点发给CTO)。核心就一句话:用静态计划打动态算法,相当于用纸质地图导航台风天——找死。
今年实测三个暴击点:
– 算法更新从”大版本迭代”变成持续静脉注射,那些等named update做调整的团队可以洗洗睡了
– 技术债积累效果堪比洗碗机水垢,CMS/插件月均4.2%的隐性损耗率(我司实测数据)特别邪门
– 最骚的是内容衰减曲线——Q2流量可能比Q1暴跌30%,但临时加预算只会加速跳水
作者提出的季度诊断框架有两处真香:
1. Crawl Volatility Index构建骚操作:用404响应时间标准差预测算法震荡(比监控收录率早3天预警)
2. 意图层流量代替关键词跟踪,说白了就是放弃branded词自嗨。我们上周实测把30%预算转到非品牌词,SERP曝光面积直接翻倍
文末附件是真核武器,Index Bloat监测方案里藏着反常识逻辑:收录增长率超过3%/天就该熔断(多数人还在傻追10%+)。现在懂行的团队都在玩Stress Test,毕竟AI Overviews时代连排名第0都成了吃老本操作——说真的,这东西不建议外传。
🔗 阅读原文 | Search Engine Journal
LinkedIn 分享 AI 搜索可见性优化技巧
LinkedIn这波内部数据披露了不少硬货,特别是LLM如何影响搜索可见性这块,建议SEO同行重点关注几个发现:
1) HTML结构直接影响LLM解析。合理使用H标签+语义化markup能提升内容抓取率20%以上,尤其是传统SEO的heading hierarchy模式被证实与citation概率直接相关(匿名内容连训练集都进不去)
2) E-E-A-T的信号权重比预期更重。带verified作者简介+精确时间戳的内容,在LLM citations中的表现是匿名内容的3.7倍。LinkedIn内部甚至专门开发了LLM mentions追踪面板
有意思的是他们的跨平台验证——LinkedIn和Perplexity的技术架构虽然不同,但都指向sub-document层面的内容解析逻辑(传统整页优化失效实锤)。这说明三个实操方向:
– 作者资历Schema必须加时间戳字段
– CMS日志增加LLM bot专属监控
– 关键内容模块改用FAQ信息结构
补充个细节:他们新推的visibility rate指标特别适合监测awareness阶段内容,建议content team同步追踪citation rate和trigger pattern密度(GA现成的segmentation就能用)
🔗 阅读原文 | Search Engine Journal
💬 编者按
本期周刊共收录 10 篇优质文章(官方 0 篇 | SEO 10 篇 | GEO 0 篇)。
如果你有推荐的 SEO/GEO 博客或想看到特定主题的深度解读,欢迎反馈。
本周刊由 Claude Code + DeepSeek 自动生成 | 人工审校 | GitHub 仓库