langchain提供模块化ai agent构建路径:一、配置环境与依赖;二、定义llm与工具;三、构建react agent执行器;四、集成rag增强知识;五、部署为fastapi接口。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望基于大语言模型快速构建具备工具调用、记忆与工作流能力的AI Agent应用,LangChain框架提供了一套模块化、可组合的开发范式。以下是使用LangChain构建AI Agent应用的具体操作路径:
一、配置基础环境与核心依赖
LangChain运行依赖Python生态及主流LLM接入能力,需先完成运行时与模型连接层的初始化。该步骤确保后续链(Chain)、代理(Agent)与检索器(Retriever)组件具备可执行基础。
1、创建独立虚拟环境并激活:
python -m venv langchain_env && source langchain_env/bin/activate(Linux/macOS)或 langchain_envScriptsctivate.bat(Windows)
2、安装LangChain核心库及适配器:
pip install langchain langchain-community langchain-core
3、根据所选模型服务商安装对应集成包:
若使用OpenAI:pip install openai
若使用智谱AI:pip install zhipuai
若使用Ollama本地模型:pip install langchain-ollama
二、定义语言模型与工具集合
Agent行为由大语言模型驱动,其决策质量直接受模型能力与工具可用性影响。需显式声明LLM实例,并将外部功能封装为LangChain标准Tool对象,供模型动态选择调用。
1、初始化LLM对象:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model="gpt-4o", temperature=0.3)
2、定义一个天气查询工具:
from langchain.tools import StructuredTool
def get_weather(city: str) -> str:
return f"{city}当前晴,气温22℃,湿度65%"
weather_tool = StructuredTool.from_function(
func=get_weather,
name="weather_query",
description="用于查询指定城市的实时天气信息"
3、将多个Tool组成工具列表:
tools = [weather_tool]
三、构建ReAct风格Agent执行器
ReAct(Reasoning + Acting)是LangChain默认支持的Agent类型,通过提示词模板引导模型交替进行推理与工具调用,形成闭环决策链。该模式无需预设流程,适用于目标明确但路径不确定的任务场景。
1、导入Agent相关类:
from langchain.agents import AgentExecutor, create_react_agent
from langchain import hub
2、加载标准ReAct提示模板:
prompt = hub.pull("hwchase17/react-chat")
3、创建Agent实例:
agent = create_react_agent(llm, tools, prompt)
4、封装可执行代理器:
agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True)
四、集成RAG增强知识上下文
当Agent需依据私有资料回答问题时,仅靠LLM参数化知识存在局限。通过LangChain的RetrievalQA链或RunnablePassthrough机制,可将向量数据库检索结果注入Agent输入上下文,实现领域知识动态注入。
1、准备文档并切分:
from langchain.text_splitter import RecursiveCharacterTextSplitter
text_splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=50)
docs = text_splitter.split_documents(raw_docs)
2、嵌入并存入向量库:
from langchain_community.vectorstores import Chroma
from langchain_openai import OpenAIEmbeddings
vectorstore = Chroma.from_documents(docs, OpenAIEmbeddings())
3、构造检索链并绑定至Agent输入:
retriever = vectorstore.as_retriever()
retrieval_chain = {"context": retriever | (lambda docs: "\n".join([d.page_content for d in docs])), "input": lambda x: x["input"]} | prompt | llm
五、部署为可交互API服务
完成本地验证后,需将Agent逻辑暴露为HTTP接口,便于前端或第三方系统调用。LangChain原生兼容FastAPI,可通过简单路由封装实现生产级API交付。
1、初始化FastAPI应用:
from fastapi import FastAPI
app = FastAPI(title="AI Agent API")
2、定义POST接口及请求体:
from pydantic import BaseModel
class AgentRequest(BaseModel):
input: str
3、注册端点并调用Agent执行器:
@app.post("/invoke")
async def invoke_agent(request: AgentRequest):
result = await agent_executor.ainvoke({"input": request.input})
return {"output": result["output"]}
4、启动服务:
uvicorn main:app --reload --host 0.0.0.0 --port 8000










