本文較長,建議點贊收藏,以免遺失。更多AI大模型應用開發學習視頻及資料,盡在聚客AI學院。
LangGraph被廣泛認為是構建生產級代理系統的首選。今天我們將通過深入研究助手這個示例,深入探討LangGraph的工作流程和MCP的整合模式。如果對你有所幫助,記得告訴身邊有需要的朋友。
npm install -g @mcp-servers/firecrawl # 安裝命令
LangGraph的StateGraph實現:
命令格式 | 功能說明 |
---|---|
@prompt: | 加載特定提示模板 |
@resource: | 加載指定資源 |
@use_resource: | 執行資源查詢 |
from langgraph.graph import StateGraph
workflow = StateGraph(AgentState)
workflow.add_node("research", research_tool_node)
workflow.add_node("web_crawl", firecrawl_node)
workflow.add_conditional_edges(
"agent",
decide_next_action,
branches={"research": "research", "web": "web_crawl"}
) # 動態路由邏輯
RAG即服務:拆分為獨立工具而非固定流水線
工具熱插拔:新增工具只需註冊到MCP伺服器
@mcp_tool
def pdf_extractor(url: str) -> str:
"""Firecrawl網頁PDF提取工具"""
return firecrawl_api.scrape(url, params={"extract_pdf": True})
if user_input.startswith("@prompt:"):
load_prompt(user_input.split(":")[1]) # 動態提示加載
elif user_input.startswith("@use_resource:"):
uri, query = parse_resource_cmd(user_input)
execute_resource_tool(uri, query) # 按需資源調用
git clone https://github.com/example/mcp-research-assistant
cd mcp-research-assistant && uv sync # 依賴安裝
# config.yaml
firecrawl:
api_key: YOUR_API_KEY
mcp_endpoint: "stdio" # 或 https://api.firecrawl.io
# 終端1:啟動自定義MCP伺服器
python research_server.py --port 8033
# 終端2:啟動Firecrawl服務
firecrawl-mcp --transport stdio
添加圖片註釋,不超過 140 字(可選)
{
"tool_output": "10篇相關論文摘要...",
"next_step": "是否需要深度網路搜索?"
}
該架構通過MCP協議實現工具/資源的標準化封裝,結合LangGraph的狀態化工作流引擎,構建出具備動態決策能力的研究助手。核心創新點在於: