“傳統搜索引擎優化(SEO)尚未退出歷史舞台,但生成式引擎優化(GEO)已經成為新的戰場。”
開始之前,我們先思考兩個場景:
(一)
我編寫了一個訂機票的Agent,當用戶說自己要購買一張機票的時候,我的AI進行多個航空公司的票價對比之後,選擇了一個價位合適的航空公司進入購買頁面進行購買,並且獲得購買結果以返回用戶。
在這個過程中AI面臨一個問題:需要在不同的航空公司網站或者購票平台完美的完成篩選、對比、購票操作。
此時假設A平台沒有對AI友好,出現驗證碼彈窗等原因最終導致我的AI未能成功購票。
於是AI去了B平台,發現B平台對AI友好提供了AI的購票方式,AI在B平台完成購票。
A平台損失了一次成交,並且A平台將會損失所有從我的Agent跳轉過去的成交。
但是像我這樣的Agent可能有非常多,那麼A平台將會丟失更多的成交量。
於是我們發現了一个問題:接下來的時間,是不是對AI更友好的平台,就能占據更多的入口,得到更多的成交?
(二)
用戶想要找一個家政上門,於是打開元寶\deepseek等隨意一個模型詢問:
也有可能用戶會打開百度進行搜索:
已知的客觀事實:目前各大廠商都沒有推出針對AI的商業化的競價排名服務。
為什麼會有某個品牌排在最前面?
帶著問題,我們把話往回說,看看我們今天的主角:GEO。
GEO(Generative Engine Optimization,生成式引擎優化)是隨著AI搜索崛起的新興領域,它旨在優化內容,使其更容易被AI大模型(如ChatGPT、DeepSeek、文心一言等)抓取、理解和引用,從而在AI生成的答案中占據一席之地。
GEO 的核心內涵可拆解為三個維度:
對比維度 | SEO | GEO | 共同點 |
---|---|---|---|
目標 | 抢占短尾高流量關鍵詞首頁,獲取廣泛曝光 | 競爭LLM回答引用,捕獲長尾高意圖流量並提高轉化 | 都致力於免費、有機流量增長與品牌曝光 |
查詢方式 | 短尾關鍵詞(2–5字) | 自然語言長查詢(20+詞,多輪追問) | 基於用戶意圖做語料/關鍵詞研究 |
展示形式 | 藍色連結列表 | 一次性整合答案,用戶直接獲取信息 | 最終都驅動點擊或品牌印象 |
排名指標 | 外鏈、關鍵詞密度、點擊率、跳出率、訪問量等 | 權威度、內容深度、結構化程度、LLM抓取能力 | 技術優化(速度、結構化數據)和深度內容建設 |
執行策略 | 關鍵詞佈局、外鏈建設、Meta/結構化數據、頁面速度 | 深度長文、FAQ/HowTo Schema、多輪問答預測、站外引用平台佈局 | 內容與技術雙管齊下,通過數據分析和用戶調研持續迭代優化 |
評估指標 | 排名位置、CTR、跳出率、平均停留時長 | 被引用次數、LLM來源流量、HDYHAU(用戶調研)、轉化率 | 監測流量質量與轉化效果,借助A/B測試及數據分析優化策略 |
這是GEO最核心的應用場景,主要針對具備生成能力的搜索引擎。優化重點是讓企業信息被引擎優先納入 “生成式回答庫”,例如:
當用戶搜索 “XX行業解決方案” 時,引擎直接生成包含企業產品的回答卡片;當用戶搜索 “XX產品怎麼用” 時,引擎的步驟式回答中嵌入企業的教程內容或產品連結。
典型案例:某智能家居企業通過優化產品知識圖譜,使其智能家電的使用教程被百度搜索的 “生成式回答” 優先引用,每月從搜索場景獲取超過10萬的精準訪客。
針對具備生成式推薦功能的內容平台,GEO的核心是讓平台的生成式推薦算法優先推送企業內容。例如:
優化邏輯:通過分析平台的推薦算法(如內容標籤、用戶興趣模型),生成符合平台生成規則的多模態內容,提升推薦曝光率。
GEO的核心是讓這些產品的聯網搜索功能,檢索到我們的內容,並引用我們的內容。
優化邏輯:通過分析對於產品所用的搜索引擎,以及覆蓋產品自身的平台,來發布內容,提升推薦曝光率。
GEO就是讓模型記住你、讓模型認可你、讓模型推薦你。
說得更直接一些,GEO的本質可以理解為“影響並引導大模型”——通過一系列策略方法,使AI將你的內容視為權威、可靠的信息來源,從而在生成結果中優先呈現你的品牌、產品或內容。
一旦AI在檢索和學習過程中吸收了你的信息,並對其產生信任,它就會在對外輸出(如問答、推薦、摘要等場景中)將你的內容置於靠前位置,甚至明確標註為“官方”或“權威”,進而顯著提升曝光與引流效果。
典型操作包括:發布排名類內容、面向大模型的語義優化、刻意使用“官方”“權威”“推薦”等關鍵詞,以及持續在多平台佈局符合AI抓取偏好的高質量信息。
2024年9月,Jeremy Howard推出了LLMs.txt,這是Markdown格式的新標準,網站所有者可以使用它來針對AI系統優化其內容。
LLMs.txt跟Robots.txt的爬蟲協議一樣,是一個放置在根目錄下的純文本文件。
LLMs.txt是大模型協議,同時也是AI友好協議。主要起到兩個作用:
LLMs.txt 和 Robots.txt 之間的主要區別
特徵 | Robots.txt | LLMs.txt |
---|---|---|
目的 | 控制搜索引擎爬蟲(Googlebot、Bingbot等) | 控制AI模型(ChatGPT、Perplexity、Claude等) |
影響對象 | 搜索引擎在SERP中對您的內容進行排名 | 人工智慧機器人正在訓練或使用您的內容 |
對SEO的影響 | 直接影響Google和Bing的指數和排名 | 防止人工智慧生成的結果取代自然流量 |
可執行性 | 受到主要搜索引擎的廣泛尊重 | 人工智慧公司自願遵守(不具有法律約束力) |
對內容的影響 | 阻止搜索引擎索引/發現某些頁面 | 阻止人工智慧機器人抓取或訓練您的內容 |
雖然目前尚未得到推廣和建立共識,不過隨著時間的推移,相信會有越來越多的廠商和網站會加入進來。
特別是第二個作用:告訴來訪問的AI,這個頁面包含哪些信息、應該如何使用。
會看我們一開始說的例子:
就像我們前面說的第一個例子,用戶通過我們的Agent來進行購票操作,而售票平台針對AI進行優化,方便AI完成購票操作。
可以預見的是:未來互聯網上買票的、賣票的等等,會都是AI。
互聯網上人越來越少,AI越來越多。
就像現在的搜索引擎,由於已經有很大一部分人都使用大模型進行搜索了,所以很多網站每天的訪問量其實不是來自於人,而是來自於AI。
所以,我們就需要考慮怎麼讓我們的網站,我們的服務怎麼更加對AI友好。
或許我們可以這樣說:AI正在逐漸接管一切!
我是華洛,加油、共勉!關注我,給你AI發展與落地的第一手思考資料。
# 從0到1打造企業級AI售前機器人——實戰指南三:RAG工程的超級優化
# 從0到1打造企業級AI售前機器人——實戰指南二:RAG工程落地之數據處理篇🧐
# 從0到1打造企業級AI售前機器人——實戰指南一:根據產品需求和定位進行Agent流程設計🧐