🏛️ 官方动态
微软开源业界领先的嵌入模型
微软开源了 Harrier 嵌入模型系列,在 MTEB-v2 多语言基准测试中排名第一。这个 27B 参数模型支持 100+ 语言和 32K 上下文窗口,比 OpenAI 的 text-embedding-3-large 高出 15.35 个百分点。
我觉得这对 SEO 从业者很重要,因为 Harrier 直接解决了信息检索的核心问题。它通过 20 亿弱监督对比预训练数据和 1000 万高质量微调数据训练而成,比传统模型减少了 30% 的检索失败率。
更关键的是,这不是简单的模型发布。微软在构建 Harrier 的同时,正在开发新的 Grounding Service,将这些技术直接应用到 Bing 中。这意味着未来的搜索体验会更准确,引文更可靠,多语言支持也更强。
从技术角度看,Harrier 采用知识蒸馏技术,让 0.6B 和 270M 的轻量级模型也能达到接近大模型的性能。这对部署成本敏感的应用场景很有价值。
🤖 GEO·SEO 精选
你的自有内容正在输给陌生人的 Reddit 评论
AI 时代,你的自有内容正在输给 Reddit 上的陌生人评论。这篇文章揭示了为什么社区共识已成为 AI 搜索的核心信号,以及品牌必须采取的行动。
数据很扎心:Reddit 在 AI 回答中的引用量增长 450%,85% 的品牌提及来自第三方而非自有域名。Google 每年向 Reddit 支付 6000 万美元获取内容授权,这不是偶然,而是 AI 架构决定的。
最有意思的是作者提出的”双层路径”理论。社区内容通过训练权重和实时检索两种方式进入 AI 系统。一个获得 847 个赞的 Reddit 评论,在 AI 眼中比大多数官方内容更可信,因为它代表了分布式、非协调的真实用户验证。
但这里有风险。2025 年有营销公司在 Reddit 发布 100 个虚假评论推广产品,结果被曝光后声誉受损。更严重的是,15% 的 Reddit 帖子已被 AI 生成,这正在污染社区信号本身。
我觉得这篇文章最有价值的地方在于,它不只是指出问题,还给出了具体解决方案:品牌需要在 AI 时代建立真实的社区存在,而不是继续依赖自有内容。
ChatGPT 爬虫量是Googlebot的3.6倍:2400万次请求揭示的真相
这篇文章揭示了AI爬虫量已超越Googlebot的关键行业数据。Alli AI分析了24,411,048个代理请求,发现ChatGPT-User爬虫量是Googlebot的3.6倍,这是我见过最扎实的实证研究。
数据显示:ChatGPT-User在69个网站上产生了133,361次请求,而Googlebot只有37,426次。更值得注意的是,OpenAI同时运行两个不同爬虫——ChatGPT-User负责实时检索,GPTBot负责模型训练,很多站长对两者的区别并不清楚。
从技术层面看,AI爬虫效率更高:PerplexityBot平均响应8毫秒,成功率100%;而Googlebot平均84毫秒,成功率96.3%。这主要是因为AI爬虫基于实时查询抓取,不像Googlebot维护庞大历史索引。
行业报告印证了这一趋势:Cloudflare数据显示ChatGPT-User请求量2025年同比增长2,825%,OpenAI已成为最大AI爬虫运营商,占所有AI爬虫请求的42.4%。
这对SEO策略有直接影响:我们需要重新评估robots.txt配置,区分训练爬虫和检索爬虫的阻挡策略,同时为AI爬虫优化内容可见性。
代理搜索:AI 代理如何决定哪些品牌被发现
这篇文章解释了代理搜索如何改变品牌在AI时代被发现的方式。
数据显示代理网络流量在2025年前8个月增长了1300%,AI代理平均每次查询会采取4.9步行动。文章通过奥斯汀场地预订案例,展示了从简单查询到委托行动的四个场景,并指出品牌需要在发现性、清晰度、权威性和信任度四个维度做好准备。我建议SEO从业者立即评估自己的品牌在AI代理搜索中的表现,因为传统SEO策略已无法覆盖这种多源交叉验证的评估模式。
ChatGPT流量分析:17个月点击流数据的洞察
这篇Semrush的ChatGPT流量分析报告太有价值了!他们用17个月的点击流数据,揭示了AI搜索引擎优化从业者最关心的几个趋势。
最震撼的数据是:ChatGPT推荐流量一年内增长了206%!更关键的是,超过30%的推荐都去了10个域名,其中21.6%直接去了Google。这说明用户在用ChatGPT发现信息后,还是会回头用Google确认。
报告还发现ChatGPT搜索功能只在34.5%的查询中启用(从2024年底的46%下降),这意味着大部分回答还是基于训练数据。用户平均每次会话的提问数在过去4个月激增50%,说明大家越来越依赖ChatGPT。
我最喜欢的洞察是:ChatGPT不是Google的替代品,而是搜索生态的扩展。用户会同时使用AI和传统搜索,所以你的SEO基础必须打牢。报告特别提醒,AI平台优化(ASO)应该成为你新的优先级。
这篇10分推荐给所有做AI搜索优化的同行!
提示中的品牌偏见:一次实验
这篇Moz博客的实验数据让我重新思考AI搜索优化策略。Dr. Pete通过300个提示测试发现,直接在提示中提及品牌几乎能保证品牌出现在输出中(100%),而纯非品牌提示只有53%会包含品牌,平均每条品牌提示生成14.5个品牌提及,非品牌只有0.79个。
实验将提示分为三类:品牌提示(直接提及品牌名称)、软品牌提示(围绕工具主题但未直接提及)和非品牌提示(纯信息性问题)。有趣的是,即使是”软品牌”提示,因为主题天然偏向工具类,也会产生一定品牌偏见。
这对我们的AI搜索优化意味着什么?首先,我们需要超越简单的品牌/非品牌二元对立,理解品牌偏见其实是个连续光谱。其次,提示的措辞方式对品牌可见度影响巨大。最后,跟踪AI可见性时必须考虑不同意图层次的提示组合,不能只关注品牌提及数量。
如果你正在制定AI搜索策略,这篇文章的实证数据值得参考。
🔗 Moz Blog
AI搜索时代的Reddit品牌策略——白板周五
这篇文章为SEO从业者提供了AI搜索时代Reddit品牌策略的实用指导。Victory Umurhurhu详细解释了如何在Reddit社区中提升品牌可见度并建立受众信任。
文章的核心观点是:在AI生成内容泛滥的今天,品牌需要在Reddit上采取三种参与模式来建立信任。首先,通过洞察收集模式了解目标受众和社区规则;其次,通过情境贡献模式在现有对话中建立价值;最后,通过对话催化剂模式主动发起有意义的讨论。
我特别认同作者提到的”信任差距”概念。随着AI内容激增,用户更渴望来自真实人类的对话。数据显示Reddit拥有1.66亿日活用户和10万多个活跃社区,这为品牌提供了巨大的机会。文章还提到了Reddit与Google和OpenAI的重要合作,这直接影响了内容在AI搜索中的表现。
对于实践者来说,文章提供了具体的步骤指导,比如如何建立洞察列表、如何理解不同subreddit的规则、如何使用Reddit AI answers工具等。这些都是可以直接应用到工作中的具体方法。
🔗 Moz Blog
谷歌 CEO 预测搜索将成为 AI 代理管理器
谷歌CEO预测搜索将成为AI代理管理器,这篇文章揭示了搜索未来的重大转变。Pichai明确表示,信息查询将演变为”代理式搜索”,用户将通过多个并行线程完成任务,而非传统的结果列表。
最有意思的是,他拒绝预测10年后的搜索形态,认为一年后的技术曲线就足够陡峭。这表明Google正在从”搜索引擎”向”代理管理器”转型,搜索将成为用户与AI代理之间的编排层。
我注意到Pichai在长达一小时的访谈中从未提及网站,这可能是最关键的信号。当被问及搜索是否会消失时,他回答”搜索会成为代理管理器”,这意味着传统SEO可能面临根本性挑战。
这对我们行业意味着什么?我认为需要立即调整策略:从优化页面排名转向如何让AI代理理解和信任我们的内容。传统搜索框可能不再是主要入口,但对高质量内容的依赖不会改变。
沙丘路创造了 GEO
GEO Was Invented On Sand Hill Road 这篇文章揭露了 VC 如何通过投资叙事操纵行业术语,SEO 专业人士则成为这种炒作的帮凶。
文章提供了具体证据:2025 年 a16z 发布的 GEO 博客文章,推广其投资的 Profound 等工具,随后社交媒体上出现虚构的”34页内部备忘录”传播,SEO 从业者出于职业焦虑主动采用 GEO 标签向客户推销不确定性服务。
我推荐这篇文章是因为它戳破了 GEO 的泡沫本质,提醒我们行业需要回归实证而非追逐 VC 创造的潮流词汇。
为什么产品Feed不应成为电商领域最被忽视的SEO系统
这篇文章让我重新思考产品Feed在电商SEO中的战略价值。作者Sophie Brannon指出,大多数电商品牌仍将产品Feed视为PPC工具,而忽视了其在AI驱动搜索和有机流量中的核心地位。
文章核心观点:产品Feed正在从”广告基础设施”进化为”搜索基础设施”,直接影响品牌在传统搜索和AI对话式搜索中的可见度。
三个关键发现:
1. OpenAI已发布产品Feed规范,要求ChatGPT准确索引产品
2. Google Shopping现依赖结构化数据作为”真相锚点”,确保Feed与页面信息一致
3. 产品Feed质量直接反映品牌在AI时代的可信度
作者提出四大SEO优化维度:
– 语义查询映射:用高意图关键词重构产品标题
– 分类学逻辑:建立清晰的产品层级避免被埋没
– 结构化数据:确保Feed与Schema一致性
– 数据分析:识别”幽灵产品”并持续优化
最有价值的是文章揭示的常见错误:自动生成的Shopify标题、缺少GTIN/MPN、Feed与页面信息不一致等问题,这些都会导致Feed被拒或排名下降。
这篇文章对任何负责电商SEO的人来说都是必读,尤其是在AI搜索快速发展的当下。
如何将AI搜索可见性数据转化为GEO策略以弥补引用缺口[网络研讨会]
这篇文章的核心价值在于提供基于500M+AI对话数据的GEO策略框架,帮助SEO团队从数据出发制定可执行的AI搜索可见性提升计划。
我最看重的是它解决了GEO执行中最常见的两个问题:一是缺乏数据驱动的优先级排序,二是缺少可规模化的执行工具。文章提到传统的”全面优化”策略往往无效,因为不同行业在ChatGPT、Perplexity和Gemini中的引用机制差异很大。比如某些行业可能更看重新闻来源引用,而另一些则需要技术文档的权威性。
最实用的部分是它提供的GEO优先级框架,这个框架能帮助团队识别自己在AI搜索中的具体”citation gaps”,然后有针对性地进行内容优化和外部引用获取。更难得的是,它还提供了免费的开源AI代理工具,可以自动化执行这些GEO任务,这对资源有限的团队特别有帮助。
如果你已经有了AI搜索不可见的dashboard,但不知道如何把数据转化为行动,这篇文章的框架值得借鉴。
消费者如何在AI模式下进行高风险购买决策
AI Mode正在重塑消费者在高风险购买决策中的行为模式。这项185个任务的可用性研究显示,74%的AI Mode用户直接接受了AI生成的短名单,没有进行外部验证。
具体发现:
– 88%用户直接采用AI推荐的短名单,只有8个任务用户自行构建
– 64%AI Mode用户在整个任务中没有点击任何链接
– 用户在AI Mode上平均节省了89秒决策时间
这对SEO策略的影响很直接:当用户停止在搜索结果间横向比较时,品牌需要在AI能理解的层面提供清晰的决策资产。研究显示,用户离开AI Mode的主要目的是验证已接受的候选,而非发现新选项。
保险类目用户最依赖AI推荐(可能因为决策复杂度高),而洗衣机/干衣机类目用户点击最多(因为涉及具体物理约束)。这种行为变化意味着SEO从”争夺点击”转向”影响AI的推荐逻辑”。
AI概览是否窃取了你的点击?付费搜索团队如何适应答案引擎时代
AI概览是否窃取了你的点击?这篇文章给出了答案。
Neil Patel 的数据显示,AI 摘要已占据搜索结果顶部 15% 的位置,导致传统付费广告点击率下降 23%。有趣的是,有 68% 的广告主开始调整策略,将预算从高竞争关键词转移到长尾词和问题型搜索。
我注意到文章提到了三种实用策略:一是优化广告文案以匹配AI生成的内容风格;二是增加否定关键词防止无效曝光;三是测试新的广告位置,比如在AI摘要下方展示。
有意思的是,文章还分享了一个案例:某电商客户通过将搜索词从”跑步鞋”改为”如何选择适合马拉松的跑步鞋”,CPC 降低了 31%,转化率提升了 19%。
如果你在担心AI搜索对付费推广的影响,这篇文章的实战建议值得参考。
SaaS公司的AEO策略:6种将潜在客户转化为试用的战术
这篇文章是 SaaS 从业者必读的 AEO 策略指南。它不仅解释了为什么 AEO 对 SaaS 公司至关重要,还提供了六个具体可操作的策略,包括如何优化早期可见性和评估阶段问题。
数据很扎实:56% 的 SaaS 买家现在开始在生成式 AI 工具上进行供应商研究,而传统搜索引擎只有 33%。这意味着如果你的品牌不在 AI 搜索结果中被引用,就可能在买家形成 shortlist 之前就被淘汰。
我特别喜欢文章中关于早期可见性的观点。虽然 AI Overviews 减少了点击量,但早期内容在 AI 生成答案中的出现率直接影响买家如何认识和推进你的品牌。文章还提供了实用的实施建议,比如使用清晰的标题、短段落和直接答案来优化内容结构,让 AI 系统更容易提取信息。
文章的工具推荐也很实用,尤其是 HubSpot 的 AEO Grader,可以帮助评估品牌在 AI 搜索中的可见性。对 SaaS 营销团队来说,这是一份从策略到工具的完整指南。
零点击搜索与营销漏斗的未来
这篇文章系统分析了零点击搜索如何重塑营销漏斗,提供了从 AEO 策略到衡量指标的完整解决方案。
文章用具体数据支撑观点:Bain & Company 发现 80% 消费者在至少 40% 搜索中依赖零点击结果,Google 报告 27% 搜索以零点击结束,CTR 已降至 40.3%。这些数据显示零点击搜索已成为营销团队必须面对的现实。
我认为最有价值的是它将零点击搜索分为四个关键场景:Featured snippets 提供直接答案,Knowledge panels 展示实体信息,People Also Ask 扩展相关问题,AI Overviews 综合多源答案。这种分类帮助我理解不同零点击形式的运作机制。
文章强调零点击不等于零价值——被引用的品牌能在潜在客户心中建立认知,当用户最终访问网站时转化率更高。这种”印象经济”的洞察对重新定义 SEO 成功指标至关重要。
最后,HubSpot 提供的免费 AEO 评估工具让我能实际检验自己品牌在 AI 搜索中的表现,这种工具+策略的结合让文章极具操作性。
13家推动生成式搜索成功的企业GEO代理商
这篇文章为我们整理了13家在生成式搜索领域表现突出的企业GEO代理商,对AI搜索优化从业者具有实用参考价值。
文章提供了具体数据支持:AI驱动的首页流量平均增长10.7%,知识工作者使用AI进行工作研究的比例也在快速上升。这些数据说明了企业必须重视GEO策略的重要性。
我注意到Siege Media的做法很有参考价值——他们使用BlueprintIQ工具审计内容,DataFlywheel每年刷新20-60个资产。这种数据驱动的内容更新机制值得学习。
对于不同行业需求,文章分类明确:B2B领域可以参考Directive Consulting和Growth Plays;全球化企业可关注WebSpero的多语言优化;注重声誉管理的品牌则适合Go Fish Digital。
这份清单不仅覆盖了知名大厂如Adobe、Amazon、Zoom,还包括了垂直领域的专家如Minuttia(B2B SaaS内容系统)和Onely(技术SEO)。无论是寻找整体解决方案还是专项服务,都能在这里找到匹配的合作伙伴。
7家最佳医疗 SEO 机构助力医疗机构、健康科技和制药企业增长
这篇文章详细评测了7家顶尖医疗SEO机构,为医疗机构、健康科技和制药公司提供了全面的对比参考。
Siege Media以其在健康科技领域的专业性和GEO技术脱颖而出,其与University of St. Augustine for Health Sciences的合作案例显示:一年内实现800%月有机流量增长和27.1万美元流量价值提升。文章还涵盖了First Page Sage的B2B医疗线索生成、Cardinal Digital的多地点医疗集团服务等,每家机构都根据专长和客户案例进行了详细评估。
紧急求助 – 网站被黑 – 排名全无
这篇文章是Reddit上一个SEO从业者紧急求助的帖子,网站被黑后排名全无,引发了社区的热烈讨论和帮助。
帖子发布者描述了网站被黑后的症状:流量骤降、页面出现垃圾内容、Google Search Console出现警告。社区成员迅速提供了恢复步骤,包括:1)立即下线网站进行安全审计;2)使用Sucuri等工具扫描恶意代码;3)提交Google重新评估请求;4)加强安全措施防止再次被黑。
有意思的是,有经验的SEO指出,很多被黑案例源于主题或插件漏洞,建议定期更新和安全扫描。一位用户分享了自己被黑后恢复的经历,花了两周才恢复70%流量,提醒大家要做好备份。
我推荐这篇文章给所有管理WordPress网站的SEO从业者,因为它提供了真实案例和社区智慧,能帮助大家在遇到类似问题时快速应对。
调查显示:AI搜索中的广告可能降低用户信任度
63%美国成年人认为AI搜索结果中的广告会降低信任度,这项Ipsos调查对SEO策略制定至关重要。
我看到数据显示27%的人强烈同意、36%的人部分同意,只有24%的人不同意。有趣的是,52%的人认为广告不会简化购买流程,这与广告主预期相悖。目前ChatGPT广告点击率约0.91%,远低于Google搜索的6.4%。随着OpenAI和Google都在扩大AI广告投放,我们需要重新思考广告在AI搜索中的位置。我觉得这项调查提醒我们:用户对AI搜索纯净度的期待可能与商业化目标存在矛盾,需要找到平衡点。
Google CEO称AI可能’破坏几乎所有软件’
Google CEO Sundar Pichai 说 AI 可能”破坏几乎所有软件”,这对SEO从业者来说是必须关注的安全警报。
Pichai 在与 Stripe CEO 的对话中提到,AI 模型正在加速发现软件漏洞,黑市零日漏洞价格可能因此下降。Google 威胁情报组数据显示,2025 年追踪到90个零日漏洞被利用,比2024年增长15%。
有意思的是,虽然黑市价格可能下降,但商业漏洞市场价格仍在上涨。这说明 AI 正在同时加速攻击和防御。
对于网站运营者来说,这意味着安全补丁窗口正在缩小。WordPress插件、服务器配置、第三方脚本都可能更快被发现漏洞。我建议增加自动化安全扫描频率,并考虑使用AI驱动的威胁检测工具。
这不是空谈,Google 的威胁研究团队已经在报告中预测 AI 会加速攻击者和防御者的竞赛。我们需要把安全视为SEO工作的重要组成部分,而不仅仅是技术团队的事。
Google解释为什么网站变大并不重要
Google解释为什么页面变大不重要,这篇文章让我重新思考了SEO中页面权重的真正意义。
核心观点是页面大小不能简单用字节数衡量。Google的Gary Illyes和Martin Splitt指出,15MB的HTML文档如果大部分是内容本身,就比内容少但标记多得多的页面更有价值。
有意思的是压缩算法让问题更复杂。服务器用Brotli压缩后传输可能只有5-6MB,但用户端解压后恢复到10MB。所以同样一个页面,看传输层还是看用户端,大小完全不同。
更关键的是页面里有很多对用户不可见但必要的数据。比如结构化数据、第三方工具标记、合规要求等,这些都会增加页面大小,但不是”冗余”。
我以前总想着”页面越小越好”,现在明白了,真正重要的是内容和标记的比例,以及这些数据对用户和机器的实际价值。