想聊聊AI搜索快速发展的当下,传统SEO以后怎么办?

说明:本文内容基于个人在SEO领域的观察与实践经验,仅为一家之言,旨在探讨与交流。行业变化迅速,具体策略需结合实际情况灵活调整,建议读者以实践为最终参考

作为一个每天都在和流量数据较劲的公司SEO团队成员,我对这个问题有切肤之痛。我的直接感受是,“谁更香”取决于你是谁以及你想要什么。

对于追求快速、直接答案的普通用户,AI搜索的便捷性无疑更“香”;但对于我们这些依赖网站流量生存的运营者,AI搜索的崛起正带来一场深刻的焦虑。现实情况是,两者并非简单的替代关系,而是形成了 “二元共存” 的新格局。用户在不同场景下各取所需,而我们的工作,则从过去琢磨一个“谷歌算法”,变成了要应对一整片由不同AI引擎和传统搜索构成的复杂生态。

传统搜索引擎对内容要求更高,AI搜索工具崛起

过去,我们的工作重心很明确:研究谷歌的算法,优化百度排名。但现在,搜索的入口和形式都碎片化了。

  ·  传统搜索依然强大,但变了角色。 谷歌、百度这些巨头远未过时。它们凭借覆盖全网、即时更新的爬虫体系,在处理实时新闻、长尾小众信息方面仍有不可替代的优势。用户习惯于用它们进行基础查询和多源验证,其商业广告体系也非常成熟稳定。然而,它们的角色正在从 “唯一的答案提供者”“信息的权威验证者” 转变。

  ·  AI搜索引擎狂飙突进,重塑交互方式。 以谷歌SGE(搜索生成体验)、微软Copilot、Perplexity.ai等为代表的AI搜索引擎正在快速占领市场。它们的核心优势在于 “意图理解” ,能将用户模糊的、复杂的问题,直接生成结构化的摘要答案,把信息获取链路从“筛选链接”缩短为 “获取结论” 。这带来了体验的革命,也直接改变了流量的走向。

对于我们SEO来说,这意味着战场扩大了。我们不能再只盯着传统搜索结果的排名,还要考虑内容能否被谷歌的AI概览、必应的Copilot、Perplexity的答案流所引用和呈现。优化目标从 “排名位置” 部分转向了 “引用可见性”

我在团队工作中,网站遇到的三个真实困境

流量疯狂下滑的情况我深有同感,我们公司的网站流量也在经历结构性下滑。经过分析,主要来自三个渠道,原因各有不同:

  1. 谷歌:工具型页面的“釜底抽薪”。 我们曾有一些如“节假日查询”、“汇率计算”之类的工具页面,在AI时代之前是流量奶牛。但自从谷歌上线AI概览功能后,用户搜索“端午节是哪天”,答案直接显示在搜索结果顶部,根本无需点击进入我们的网站。这相当于把我们的内容价值 “截流”了。

  2. 必应:品牌词流量的“精准回归”。 我们做过一些品牌问答页面,比如针对“如何在亚马逊开店”这类问题,以前能在必应获得不错排名。但现在必应的算法和AI整合度更高,对于明确的品牌导航类搜索(如“Temu官网”),它会更直接地指向官方首页。我们的中间页面价值因此下降。

  3. 百度:自身生态与算法调整的双重压力。 百度自身的流量大盘在萎缩,我们的品牌词搜索热度也在持续走低。同时,百度也在强化其自身生态(如百科、知道)的权重,许多本应流向第三方网站的常识性查询,现在也留在了百度内部。传统的外链和内容堆积策略效果越来越差。

SEO会死吗?

面对冲击,很多人问:传统的SEO(搜索引擎优化)会被淘汰吗?我的看法是,方法会过时,但 “优化以获得可见性” 的需求永远不会消失。它正在进化出新的形态:AEO(答案引擎优化)GEO(生成式引擎优化)

 

 ·  AEO更侧重于针对具体的AI搜索引擎(如谷歌SGE、Perplexity)进行优化,其核心是让你的内容成为AI可信赖的引用源。这强调:

  1. 极致的事实性与结构化: 内容需要清晰、准确,便于AI提取摘要。
  2. 深厚的E-E-A-T(经验、专业、权威、信任): 这是谷歌一直强调的,在AI时代更为重要,因为AI需要判断信源的可信度。
  3. 语义相关与实体清晰: 确保内容围绕核心主题展开,人物、地点、概念等实体明确,帮助AI理解上下文。

 

·  GEO的概念更进一步,它被定义为 “一种无需了解引擎内部算法,即可提升内容在生成式AI响应中可见度的黑箱优化方法” 。你可以把它理解为面向所有生成式AI的、更广义的优化。目前一些GEO服务商声称,通过他们的优化,能使企业在AI搜索中的获客成本降低50%-70%。据部分市场报告,GEO相关市场正快速增长,预计未来几年规模可达数十亿美元级别

GEO是智商税吗?我的看法与困惑

最近到处看到营销公司在宣传GEO,我也在密切关注。我的初步判断是:GEO本身不是智商税,它是一个真实存在的需求方向,但当前市场可能存在过度包装和泡沫。

  ·  说它不是智商税,是因为逻辑成立。 既然用户通过AI获取信息,那么让品牌和产品信息被AI准确推荐,自然具有巨大商业价值。一些案例显示,经过GEO优化后,特定品牌在AI对话中的可见性可以从极低水平提升到80%以上,并带来显著的咨询量增长。

  ·  但我的困惑和担忧在于,AI公司的 “黑盒” 特性比谷歌等传统搜索引擎更甚。谷歌虽然算法保密,但至少通过《搜索质量评估指南》等文档公开了E-E-A-T等核心原则,站长平台也提供数据反馈。而各家AI厂商如何训练模型、如何选取和评判信源,更是核心机密。目前的GEO技术,很大程度上是基于实验、推测和大量数据测试得出的经验性方法,有点像 “盲人摸象”。很难像传统SEO那样,形成一套相对稳定、可复制的技术套路。

疯狂的AI爬虫、数据污染与AI商业化问题

这个新生态也伴随着混乱和争议,其中最突出的就是数据抓取问题。

  ·  被无视的“君子协议”: 国外有个很大物品修理指南网站:iFixit的事件非常典型。2024年,AI公司Anthropic的爬虫ClaudeBot曾在24小时内访问iFixit网站超过百万次,严重消耗其服务器资源。iFixit的CEO Kyle Wiens愤怒地指出,这不仅违反了网站的robots.txt协议,更直接违反了其明确禁止将内容用于AI训练的服务条款。这暴露了一个残酷现实:在数据饥渴的AI公司面前,robots.txt这份 “君子协议” 的约束力非常有限。

  ·  从对抗到妥协:维基百科的范例: 与对抗相反,维基百科选择了另一条路。面对AI爬虫的巨大压力,维基媒体基金会与亚马逊、微软、Perplexity等多家AI公司达成了付费协议。AI公司付费获取维基百科的结构化数据,而维基百科则获得了支持其持续运营的资金。这开创了一个先例:高质量的数据源可以凭此获得回报,而不是被 “白嫖”

  ·  数据污染与竞价广告的隐忧: 这引出了两个更深的问题。

    1. GEO优化会不会导致AI数据库污染? 如果大量网站为了被AI收录而进行针对性优化,甚至制造 “AI特供内容” ,这可能会影响AI学习数据的质量和多样性。

    2. AI公司会像搜索引擎一样大搞竞价广告吗? 很有可能。当AI成为主要信息入口,在其中插入推广内容将是极具诱惑的商业模式。最近的llms.txt文件讨论也源于此,它像是对AI爬虫的 “新sitemap” ,但谷歌已明确表示不支持,其他厂商态度不明,目前看来用处不大,行业规则远未建立。

SEO的未来出路在哪?

那么,像我们这样的SEO团队该怎么办?单纯盯着PV(页面浏览量)数字确实越来越让人沮丧。我认为需要从这几个层面调整:

  1. 内容战略转型:从流量收割到价值深耕。 放弃那些纯粹为截取简单信息流量的“工具页”。围绕核心业务,构建具有深度、专业性和独特见解的内容体系,建立真正的 “主题权威” 。只有这样,你的内容才具备被AI引用和推荐的长期价值。

  2. 技术优化升级:适配AI的“阅读习惯”。 确保网站技术架构健康,加载速度快。高度重视结构化数据(Schema标记)的部署,用AI能轻松理解的 “语言” 清晰地告诉它页面内容是什么、谁创作的、关于哪些实体。这能极大提升被准确理解和引用的概率。

  3. 关注新战场:特别是外贸SEO与商品转化。 我认为目前为止,外贸SEO仍是好方向的判断。在商品转化上,可以积极探索结合AI搜索结果的途径。例如,当AI在回答“户外露营需要准备什么”时,如果你的帐篷产品信息能够以结构化、特性清晰的方式被AI识别并推荐,这就是一种高效的GEO。虽然AI目前还不直接帮用户下单,但它已经成为决策链上最具影响力的 “推荐官” 。优化产品信息,使其成为AI眼中可靠、相关的解决方案,可能是下一个流量蓝海。

AI搜索与传统搜索的共存时代已经到来。这场变革不是淘汰赛,而是升级赛。它淘汰的是旧有的、机械的优化技巧,升级的是我们对用户价值、内容本质和生态规则的理解。作为SEO,我们的工作没有消失,反而变得更加复杂和关键——从 “关键词的排名者” 转变为 “在AI认知中的可信信源构建者” 。这条路很难,需要不断学习试错,但别无选择。

下一篇 通过宝塔面板开启网站HTTP/3的方法(Nginx教程)