从SEO到GEO的新趋势
传统搜索引擎优化(SEO)在过去几十年是企业提升网络可见度的主要手段。然而,随着以ChatGPT等大型语言模型(LLM)为代表的生成式引擎兴起,搜索的范式正在发生转变。
2025年,搜索用户正逐步转向由LLM驱动的对话式答案,各大平台(如Apple计划在Safari中内置Perplexity和Claude)加速了这一趋势。这意味着优化重点从传统网页排名转向生成式答案的可见性,业内将此新领域称为“生成式引擎优化”(Generative Engine Optimization, GEO。有研究预计,2025年GEO相关服务市场规模将接近8.5亿美元。
本文将围绕北美市场,探讨GEO的应用现状和策略、“AI投喂”是否有效、主流观点如何看待这种优化,以及Google、OpenAI、Perplexity等平台对于采集公开网页内容的政策。

1.北美市场的GEO应用现状及主要策略
GEO兴起及重要性:随着用户使用ChatGPT等聊天机器人获取信息、商品推荐的频率上升,品牌和营销人员开始重视GEO。调查显示,2025年假日季美国购物者通过聊天式AI寻求礼物和折扣的流量相比2024年可能增加520%。这迫使企业调整线上营销策略,从单纯争夺Google排名转向争取在AI生成答案中被提及。
换言之,过去强调网页点击率,如今更关注“引用率”,即品牌内容在AI答案中被引用或成为答案来源的频度。例如,加拿大鹅(Canada Goose)使用新的GEO分析工具来监测LLM是否自发提及其品牌,以衡量在AI时代的认知度。
主要策略:北美的营销专家和机构已总结出一系列优化策略,以提升内容在生成式引擎中的可见性:
提供结构化、易解析的信息:生成式AI倾向于选择组织良好、易于解析且信息密度高的内容。相比冗长的长文,简明扼要的段落、要点列表、FAQ问答更容易被AI提取和复述。
例如,Wired报道指出聊天机器人往往偏好简单的列表和FAQ页面,而不是一篇长篇大论的博客。Andreessen Horowitz的分析也提到,内容中诸如“In summary(总结)”这样的短语或项目符号格式有助于LLM高效提取信息。
因此,企业被建议撰写简洁的要点和问答,例如将网页小标题设为用户可能询问的问题,并在紧随其后的2-3句中直接给出明确答案。这类似于过去针对语音助手或特色摘要的优化(Answer Engine Optimization, AEO),目的是让自己的内容成为AI直接引用的权威回答。
深化语义覆盖与权威性:仅靠堆砌关键词难以打动LLM。专家建议采用主题集群和语义SEO的方法,围绕某一领域构建完善的内容生态体系。这包括设置主题支柱页面并链接相关子话题页面,确保网站内容对相关主题有深度覆盖。
此外,提升品牌/网站在领域内的权威形象很关键——LLM具有“记忆”和综合能力,会更倾向引用它认为可信的来源。为此,应强化实体识别:确保品牌信息在第三方权威平台(如Crunchbase、行业评测站)上一致,争取新闻报道和正面评价。
一家公司如果在行业内被广泛提及且与特定领域强相关,生成式模型更可能在回答中提到它。简而言之,“让模型认识你”成为新竞争点,正如业界所说:“你的品牌如何被编码进AI层,将成为竞争优势”。关于实体SEO,可以参看文章
什么是 Entity SEO?以及它为何是 AI 时代 GEO 的底层能力
利用结构化数据标注:在GEO背景下,传统SEO中的结构化数据(Schema)依然发挥作用。通过在网页中添加JSON-LD格式的架构化标记(如Article、Product、FAQ等),可以帮助AI更准确理解内容。即便ChatGPT本身不实时爬网,结构化数据可提升在Google SGE、必应Copilot等AI搜索中的可见性。
因此专家建议站长使用Schema标注作者、产品细节、常见问答等信息。这有助于内容在AI平台中被正确识别和信任。
例如,产品页面提供规范的价格、评价等标记,可确保AI引用时信息准确权威。对于通过WordPress建站的B2B企业,可以采用不同的SEO插件来让自己的网页支持结构化标注数据。对于用Shopify进行电商建站的朋友,Shopify也有类似的可以购买的插件支持。
监测并反向优化:GEO仍在早期探索阶段,不同模型引用内容的偏好可能各不相同。主流观点强调“测试和学习”:营销团队可以通过询问ChatGPT等AI对本行业问题的回答,看看自家品牌/内容是否被提及。如果没有,紧接着可追问AI其答案来源,从中找出行业内被频繁引用的出版物、博客或专家。
这些信息可帮助制定内容策略——比如在那些AI常引用的平台上发表文章或获取提及,从而进入模型的“视野”。一些新兴工具甚至通过模拟大量AI提问,分析品牌露出率和语境情感,以便针对性优化内容定位。
总的来说,北美市场的GEO实践强调内容质量和可读性,重视结构化呈现和权威背书,辅以数据和实验来持续迭代优化。这些策略的核心目标是:在LLM生成答案时,让自家内容有更高机率被检索、被引用,甚至成为直接答案。
2.海外是否存在“AI投喂”影响生成式引擎的实例或技术方案
“AI投喂”概念解析:“AI投喂”通常指主动向AI模型提供特定信息,以期影响其生成内容的倾向。在中文市场,有服务机构宣称可以通过布置问答内容、构造知识库等方式来“投喂”ChatGPT、Google SGE、Perplexity等,使得这些AI在回答相关问题时提高某些内容的出现频次或排名。本节探讨在海外是否存在类似的实例或技术方案。
官方数据接入途径:值得注意的是,一些生成式AI平台正式开放了数据接入渠道,允许内容提供方将信息“喂给”AI系统,从而直接影响AI的回答。这是“AI投喂”的正规形式。
例如,OpenAI在2025年推出了Agentic Commerce Protocol (ACP),允许电商商家提交结构化商品数据Feed至ChatGPT。商家可以每15分钟更新一次包含产品标题、描述、价格、库存等信息的Feed文件。
ChatGPT接入这些商家提供的一手数据后,就能在对话中直接推荐商品、提供购买链接(OpenAI甚至与沃尔玛合作实现聊天窗口内直接下单)。这一方案本质上是商家在“投喂”ChatGPT商品数据库,其提供的Feed会作为ChatGPT产品推荐的主要依据。
与传统Google依赖爬虫抓取页面信号不同,ChatGPT的商品Feed被视作最高权威的数据源,直接决定产品在对话推荐中的匹配和排序。这一实例表明,在垂直领域(如电商),通过官方渠道投喂结构化数据确实能显著影响AI推荐结果。
另一例子是You.com和Perplexity等新兴AI搜索平台,它们鼓励内容提供者主动提交数据。有国外SEO顾问指出:“像You.com和Perplexity这样的平台允许企业投喂数据,纳入其训练索引”。
比如,一家初创公司可以上传自己的产品帮助文档到Perplexity,以增加当用户搜索相关问题时,Perplexity引用其文档的概率。这是一种通过开放API或数据合作方式投喂AI的思路。
目前这类合作多限于特定伙伴或测试项目,但的确体现了一种趋势:部分AI搜索引擎开始接受外部数据注入,以丰富其知识库和答案来源。
内容优化与非官方投喂:除此之外,大多数生成式AI并没有公开接口允许任意“投喂”内容进入其模型内部。因此,许多海外营销实践的“投喂”更多是广义的内容优化:即在公开网络上发布大量结构良好且针对AI偏好的内容,希望AI模型在训练或检索时摄取到这些信息,从而在回答相关问题时予以采用。这可以视为一种间接投喂。
例如,上文提到的Brandlight公司CEO建议品牌发布丰富的FAQ,涵盖各种具体问题,以“给AI引擎提供上百个可选答案”。本质上,这是在尽可能多地“喂”给AI各种问答对,提升模型命中相关问答的概率。
同样地,一些公司会撰写详尽的对比测评、具体场景下的说明等内容,满足用户在AI对话中提出的细粒度问题。这些做法并非直接操纵模型,而是通过公开内容影响AI的训练语料或实时爬取结果。只要这些内容被模型收录或检索到,就相当于成功“投喂”了一次。
数据投毒与黑帽手法:从技术角度看,还存在一种极端的“投喂”形式:即数据投毒(Data Poisoning)。研究表明,恶意者可以将少量特定设计的有毒数据混入模型训练集,从而在模型输出中植入偏向。
例如,只需在训练数据中注入几十篇定向内容页面,就可能影响LLM在对应关键词上的输出倾向。对于习惯通过垃圾博客和内容农场操纵搜索结果的黑帽SEO来说,这种方法理论上具有诱惑力。“在模型的索引中塞入几百个页面,也许就能劫持整个关键词”的设想虽然听起来大胆,但并非没有根据。
已有学术工作成功在指令微调阶段用不到百条有偏数据,显著改变了模型针对特定触发词的回答。然而,需要强调的是:这种投毒攻击目前主要存在于研究层面,且实施难度和风险都很高。OpenAI、Google等不会坐视训练过程被轻易干扰,并已采取诸如训练数据截止、人工评审等措施降低风险。
因此,数据投毒并非正当的优化手段,更多是提醒厂商需防范的安全隐患。暂未有公开报道显示正规企业在用此法“投喂”AI。
总结实例:总体来看,海外确实存在“AI投喂”的可行途径,但多为正当且透明的形式——例如通过官方Feed接口提交数据,或发布AI友好内容来被动影响模型。没有证据表明有成熟的地下手段能够随意操控ChatGPT等主流模型的答案排序。
换言之,可以喂AI,但要么按游戏规则喂(如结构化数据接口),要么靠优质内容喂。那些声称掌握神奇“投喂术”即可显著提升排名的说法,需要谨慎对待。
3.海外主流观点对这种优化方式的看法
围绕GEO和所谓“AI投喂”,海外主流专家和研究机构的观点总体是谨慎支持态度,即:认可优化必要性,但提醒效果和手段需理性评估。
一方面,大多数行业专家肯定为生成式AI优化内容的价值,并提供了实用建议(正如前文所述的各种策略)。他们鼓励企业主动适应AI回答的特点,构建高质量知识内容、布局问答页面、提供结构化数据,以提升在AI回答中的曝光。
许多权威报告都强调“内容为王”在AI时代依然适用甚至更加重要——因为AI会综合多来源信息,越是专业、详实、有权威背书的内容越可能被模型选中。
比如Estée Lauder公司的高管就表示,他们会确保官方产品信息和权威出处都充分提供给AI模型去“食用”:“我们要确保产品信息、权威来源……都是喂给模型的东西”。这表明主流企业认可通过充实权威内容来影响AI回答的思路。
此外,一些SEO专业社区开始探索生成式搜索优化(GEO)最佳实践的分享,证明业内已将其视为SEO演进的新阶段。
另一方面,主流观点也提醒:当前GEO仍处于实验初期,很多假设有待验证,优化效果存在不确定性。Andreessen Horowitz的报告指出:“GEO就像早期SEO一样还在摸索阶段。每次模型重大升级,我们都可能得重新学习如何与之交互”。一些看似有效的做法其实仍是推测,例如“模型是否更偏好新闻媒体内容而非社交帖子”等,还有待更多数据支撑。
因此,专家们建议将GEO视为长期策略,坚持监测-反馈-调整的循环,而非指望一招奏效。例如,Wired报道也提到,目前品牌关注的重点是提升在AI中的认知度,而不急于计算每篇内容带来的直接ROI。很多营销人员承认,眼下处于“学习阶段”,不会苛求某篇内容立刻带来转化,而是先占据AI回答心智再说。
对于“AI投喂”这种更夸张的说法,海外专家大多持审慎和质疑态度。他们认可通过内容影响AI是可行的,但不认同有什么捷径可以操纵AI推荐。一位SEO博主形象地将黑帽投喂AI形容为“黑帽SEO的春梦”,意指这种想通过少量投喂就“劫持”模型输出的想法虽然诱人,却不切实际。
主流声音强调,与其企图钻空子,不如脚踏实地提高内容质量。因为生成式AI提供答案更像是综合成千上万素材后的结果,单靠投放几个“特供”内容很难奏效,反而可能被模型的真实性检查机制忽略甚至视为不良信息过滤。
例如,Perplexity明确在算法中加入域名信任评分和垃圾过滤,以剔除低质量“搜索垃圾”内容。这意味着企图用大量伪劣内容去投喂,只会被排除在外。
综合来看,海外主流研究和业内观点支持合理的GEO优化,认为这将是未来数字营销的重要一环。但是,他们同时警示不要把GEO神化:它不是包治百病的灵丹,更非通过漏洞操控AI的黑魔法。正确的做法是遵循AI演算法则,提供对用户真正有价值且机器容易理解的内容。
换言之,GEO的本质依然是在正确的渠道做正确的内容。那些声称“投喂AI就能操纵排名”的宣传在严谨的海外视角下往往站不住脚,至少目前缺少实证支持。
4.平台政策:Google、OpenAI、Perplexity对公开网页内容的采集与参考
不同平台对于是否采集并参考公开网页内容,以及内容提供方如何参与其生成式答案,有各自的政策和机制。下面对Google、OpenAI和Perplexity的平台策略做一对比:
| 平台名称 | 生成式引擎及内容来源 | 官方政策与内容提交方式 |
| Google 搜索生成体验(SGE) | 在Google搜索中以生成式AI给出快照答案,并附上相关网页链接。
SGE基于Google现有的网页索引和知识库(例如商品领域依托拥有350亿商品的Shopping Graph数据集),通过LLM对检索结果进行总结。 在回答中,SGE会引用多达数个来源链接以供用户“深挖”详情。 内容来源主要是公开网页内容(Google已有的索引)以及结构化数据(如商家Feed等)。 | 明确承认参考公开内容:Google官方表示,引入生成式AI的目的是“突出并引导关注网页内容”,并承诺继续为网站带去流量。
SGE没有独立的内容提交入口,网页被纳入AI答案主要取决于其在Google搜索索引中的表现和相关性。 因此,SEO依然适用:站长应确保网站可被正常抓取和索引,并遵循Google内容质量指南。 结构化数据也有助于搜索理解内容,但Google未特别指定SGE需要新的标记。 目前,Google允许站长通过标准的robots协议控制爬虫访问,但未提供针对SGE的单独控制选项。 |
| OpenAI ChatGPT (及其搜索模式) | 基础ChatGPT模型:训练数据包括大规模公开互联网语料(如Common Crawl爬取的网页文本),但具体来源未完全公开。
已知其训练截止时间曾为2021年,因此之后的新网页内容默认未包含在基础模型中。 ChatGPT联网搜索(ChatGPT Search/Atlas):OpenAI在2023-2024年测试了一种集成实时搜索的ChatGPT模式。 该模式会利用Bing的搜索索引,并通过OpenAI自有爬虫OAI-SearchBot抓取网页内容,在ChatGPT回答中引入最新资料。 ChatGPT的回答界面会相应给出引用来源链接。此外,在电商场景下,ChatGPT通过ACP协议直接使用商家提供的产品Feed数据作为权威信息源。 | 训练和回答均涉及网页内容,但可控:OpenAI明确推出了GPTBot网络爬虫,用于收集公开网页训练其模型,并允许站长通过robots.txt选择退出。
也就是说,OpenAI会采集未被阻止的公开网页用于模型训练。对于ChatGPT的实时搜索回答功能,OpenAI使用的OAI-SearchBot遵循robots协议,站长若屏蔽它,网站内容将不会出现在ChatGPT的搜索型回答中。 OpenAI官方说明要想让网站有机会在ChatGPT答案中被引用,需要满足两个条件:被Bing索引、允许OAI-SearchBot抓取。另一方面,站长可以选择在robots.txt中仅屏蔽GPTBot而允许SearchBot,以避免内容用于训练但仍参与ChatGPT搜索。 对于商家,OpenAI提供了详细的产品Feed规范,自愿提交可让商品出现在ChatGPT购物推荐中。 综上,OpenAI既利用公开网页做训练和回答支撑,也给予内容提供者一定控制权(如opt-out机制和Feed直连)。 |
| Perplexity.ai | Perplexity是独立的AI问答搜索引擎。其模式是:自行抓取并索引高质量网页内容,再用LLM对检索结果进行汇总回答。
Perplexity拥有自己的爬虫(PerplexityBot)遵循robots.txt抓取网页,也曾借助第三方爬虫扩充索引。它偏重权威来源,聚焦常见查询的头部内容以保证准确性。 在生成回答时,Perplexity严格要求模型只基于检索到的内容作答,不“臆测”额外信息。每句回答几乎都会附上来源出处,供用户核验。因此Perplexity的回答实质上是多网页内容的即时整合。 | 全面参考公开内容,强调质量与透明:Perplexity官方非常重视引用公开网页,甚至比传统搜索更深入解析网页全文(提取段落而不仅索引链接)。它有一套信任评分机制,会过滤低质量和垃圾内容。
对站长而言,Perplexity并没有提供类似站点提交或Feed的接口,网站能否被其收录主要取决于正常的SEO收录以及内容质量是否足够优秀。 Perplexity表示其使用的第三方模型(如OpenAI API)不会将用户通过Perplexity查询的数据用于训练(保护用户提问隐私),但对于公开网页则默认遵循爬虫规范进行抓取和引用。 简言之,Perplexity充分利用公开网页内容为用户答疑,但站长只能通过提升自身在Bing/Google等的权威度和不阻止PerplexityBot来确保被收录。 |
表:Google SGE、OpenAI ChatGPT、Perplexity 三个平台在生成式搜索中对公开内容的利用和政策对比。
从上述对比可见:
Google主要将生成式答案视作对其现有搜索结果的增值,在引用公开网页方面持开放和支持态度(甚至声称要为网站引流)。
OpenAI则既通过爬虫索引网页用于模型训练,又在新版ChatGPT中集成网页搜索,允许实时引用公开内容,并提供了让数据直接进入其系统的官方渠道(如商品Feed)。
Perplexity作为AI搜索引擎,完全建立在开放网页内容之上,强调引用可信来源来增强回答可靠性。
值得注意的是,这些平台也给出了内容拥有者相应的选择权。Google一直允许网站用robots.txt限制爬取或索引;OpenAI推出GPTBot时特别提供了退出机制让网站拒绝被其收录训练;Perplexity遵循行业规范尊重robots.txt。
这表明大型平台在利用公开内容时,也在平衡网站版权和意愿。这些透明政策侧面反映:如果某些机构声称能靠“投喂”一些隐秘内容让AI模型采纳,实际上模型方可能早有防范(因为可以被站长拒绝收录,或通过信任体系过滤)。
结论:对“投喂AI影响排名”的分析与判断
综上所述,GEO已成为北美数字营销的新焦点。主流平台和专家都在探索如何优化内容以在生成式AI回答中获得曝光。
从北美经验看,有效的做法包括制作结构化、丰富的内容供AI引用,利用官方渠道提交数据,以及确保自身在行业内的权威性。然而,这些方法本质上是顺应AI搜索机制的内容优化。
所谓国内一些服务宣称的“AI投喂影响排名”,在海外并未体现为某种神秘捷径;相反,其内涵多半与上述正当策略相吻合,即通过高质量内容和数据让AI“吃饱吃好”,从而更愿意在回答中提及。
海外主流观点不否认可以影响AI回答的排序和推荐——毕竟谁提供了更好的答案素材,AI就更可能引用谁。但这是一场内容实力和优化技巧的竞争,而非靠投机取巧喂几口“私货”就能颠覆AI判断。
正如Andreessen Horowitz所言:“GEO正在经历实验阶段,有些策略有效,有些仍属揣测”。任何优化都需要持续观察模型动态,并警惕“一招鲜”的承诺。尤其对于ChatGPT这类大型闭源模型,其训练更新并不频繁,短期内用外部内容左右其知识库的空间极为有限;
倒是像Google SGE、Perplexity这样实时检索型的引擎,更接近传统SEO思路,可通过内容和技术优化获得更佳呈现。
总的来看,国内所谓“投喂AI影响排名”的说法需要辩证看待。一方面,它反映出企业顺应AI搜索趋势、主动优化内容的正确思路,与海外GEO实践不谋而合;但另一方面,如果有人将其包装成快速、神秘的干预手段,则有夸大之嫌。
根据本次调研的海外资料,可以判断:与其花钱寻求“投喂秘籍”,不如脚踏实地打造对用户和AI都友好的内容生态。
生成式引擎最终服务的是用户需求,只有当你的内容真正有价值并易于被机器理解时,才能在激烈的AI答案竞争中胜出。那些经不起检验的“喂养”手法,即便一时奏效,也可能被平台算法的进化所淘汰。
来源公众号:QuickCreator(ID:QuickCreator)用AI做出海SEO最佳实践者
本文由奇赞合作媒体 @QuickCreator 发布,未经许可,禁止转载、采集。
该文观点仅代表作者本人,奇赞平台仅提供信息存储空间服务。

