0

0

动态RAG应用在Langserve中实现动态输入教程

花韻仙語

花韻仙語

发布时间:2025-10-24 10:58:13

|

816人浏览过

|

来源于php中文网

原创

动态RAG应用在Langserve中实现动态输入教程

本教程旨在指导用户如何在基于langchain的rag(检索增强生成)应用中,利用langserve实现动态输入。我们将重点介绍如何通过langchain表达式语言(lcel)构建可接受动态问题和语言参数的链,并将其部署为langserve服务,从而允许用户在运行时灵活地提供输入,实现交互式问答体验。

引言:Langserve与动态RAG的结合

在构建基于RAG(Retrieval Augmented Generation)的语言模型应用时,通常需要根据用户的实时输入动态地检索相关文档并生成答案。Langserve作为Langchain的部署工具,能够将Langchain表达式语言(LCEL)构建的链轻松地暴露为API服务。然而,初学者可能会遇到如何将动态的用户输入(例如查询问题和目标语言)传递给R链的内部组件(如检索器和提示模板)的挑战。本教程将详细阐述如何利用LCEL的强大功能,结合Langserve,构建一个能够处理动态输入的RAG应用。

核心概念:Langchain表达式语言(LCEL)与动态输入

Langchain表达式语言(LCEL)是构建复杂链的基础,它提供了RunnablePassthrough、RunnableParallel和itemgetter等组件,使得处理动态输入变得异常灵活。

  • RunnablePassthrough: 允许输入数据直接通过,或在传递前进行简单的转换。
  • RunnableParallel: 允许同时运行多个Runnable,并将它们的输出组合成一个字典。这对于为后续步骤准备多个输入非常有用。
  • itemgetter: 从字典输入中提取特定键的值。

通过这些组件,我们可以将Langserve接收到的整体输入(通常是一个字典)解构,并将不同的部分传递给链中相应的组件。

构建动态RAG链

我们将构建一个RAG链,它接受一个包含question(用户查询)和lang(目标语言)的字典作为输入。

1. 初始化RAG组件

首先,我们需要一个检索器(Retriever)、一个大型语言模型(LLM)和一个聊天提示模板(ChatPromptTemplate)。

from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough, RunnableParallel
from langchain_core.output_parsers import StrOutputParser
from langchain_community.vectorstores import FAISS # 示例,实际可替换为其他向量库
from langchain_community.embeddings import OpenAIEmbeddings # 示例,实际可替换为其他嵌入模型
from langchain_community.document_loaders import TextLoader # 示例
from langchain.text_splitter import CharacterTextSplitter # 示例
from langchain_openai import ChatOpenAI # 示例,实际可替换为其他LLM
from operator import itemgetter
import os

# 假设已经配置了OPENAI_API_KEY环境变量
# os.environ["OPENAI_API_KEY"] = "YOUR_API_KEY"

# 1. 模拟数据加载和索引
# 实际应用中,这里会加载你的文档并创建向量存储
# 为了示例,我们创建一个简单的内存向量存储
with open("example_docs.txt", "w") as f:
    f.write("Finance accounts typically contain records of financial transactions, including income, expenses, assets, liabilities, and equity. They are used to track a company's financial performance and position.\n")
    f.write("A balance sheet provides a snapshot of a company's assets, liabilities, and owner's equity at a specific point in time.\n")
    f.write("The income statement reports a company's financial performance over a specific accounting period, showing revenues and expenses.\n")

loader = TextLoader("example_docs.txt")
documents = loader.load()
text_splitter = CharacterTextSplitter(chunk_size=1000, chunk_overlap=0)
docs = text_splitter.split_documents(documents)

embeddings = OpenAIEmbeddings()
vectorstore = FAISS.from_documents(docs, embeddings)
retriever_llm = vectorstore.as_retriever() # 注意:这里命名为retriever_llm是为了与原问题保持一致,实际是retriever

# 2. 初始化LLM
llm = ChatOpenAI(model="gpt-3.5-turbo", temperature=0)

# 3. 定义提示模板
# 提示模板将接受 'context', 'question' 和 'lang' 作为输入
template = """根据以下上下文信息回答问题,并严格用{lang}语言输出:
{context}

问题: {question}
答案:"""
prompt = ChatPromptTemplate.from_template(template)

# 辅助函数:格式化检索到的文档
def format_docs(docs):
    return "\n\n".join([doc.page_content for doc in docs])

2. 构建LCEL链以处理动态输入

关键在于如何将Langserve接收到的字典输入 ({"question": "...", "lang": "..."}) 分别传递给检索器和提示模板。

# 定义RAG链
rag_chain = (
    # 1. 并行处理输入:
    #    - 'context': 从输入中提取 'question',传递给检索器,然后格式化文档。
    #    - 'question': 直接从输入中提取 'question'。
    #    - 'lang': 直接从输入中提取 'lang'。
    RunnableParallel({
        "context": itemgetter("question") | retriever_llm | format_docs,
        "question": itemgetter("question"),
        "lang": itemgetter("lang")
    })
    | prompt # 2. 将处理后的输入传递给提示模板
    | llm    # 3. 将提示模板的输出传递给LLM
    | StrOutputParser() # 4. 解析LLM的输出为字符串
)

在这个链中:

  • RunnableParallel 允许我们同时执行三个操作,并将结果整合成一个字典。
  • itemgetter("question") 从原始输入字典中提取question字段。
  • 提取出的question被送入retriever_llm进行文档检索。
  • 检索到的文档通过format_docs函数进行格式化,作为context。
  • 原始的question和lang也分别作为question和lang字段传递。
  • 最终,prompt会接收到一个包含context、question和lang的字典,从而能够动态地生成完整的提示。

使用Langserve部署应用

现在,我们将这个动态RAG链部署为Langserve应用。我们需要定义一个Pydantic模型来指定Langserve期望的输入类型。

from fastapi import FastAPI
from langserve import add_routes
from pydantic import BaseModel, Field

# 定义Langserve的输入模型
class InputQuestion(BaseModel):
    question: str = Field(..., description="The user's query for the RAG system.")
    lang: str = Field("English", description="The desired output language (e.g., 'English', 'Chinese').")

app = FastAPI(
    title="Dynamic RAG Langserve Application",
    version="1.0",
    description="A RAG application with dynamic question and language inputs."
)

# 添加路由
# input_type 参数确保Langserve知道如何解析传入的JSON请求体
add_routes(
    app,
    rag_chain,
    path="/dynamic-rag",
    input_type=InputQuestion, # 指定输入模型
    # output_type=str # 如果需要,可以指定输出类型,默认通常是字符串
)

if __name__ == "__main__":
    import uvicorn
    uvicorn.run(app, host="localhost", port=8000)

运行与测试

  1. 保存代码: 将上述所有代码保存为一个Python文件,例如app.py。

    网页制作与PHP语言应用
    网页制作与PHP语言应用

    图书《网页制作与PHP语言应用》,由武汉大学出版社于2006出版,该书为普通高等院校网络传播系列教材之一,主要阐述了网页制作的基础知识与实践,以及PHP语言在网络传播中的应用。该书内容涉及:HTML基础知识、PHP的基本语法、PHP程序中的常用函数、数据库软件MySQL的基本操作、网页加密和身份验证、动态生成图像、MySQL与多媒体素材库的建设等。

    下载
  2. 安装依赖:

    pip install langchain langchain-openai langchain-community langserve uvicorn fastapi pydantic
  3. 运行应用:

    python app.py
  4. 访问Langserve Playground: 打开浏览器访问 http://localhost:8000/dynamic-rag/playground/。 在Playground界面,你将看到一个表单,其中包含 question 和 lang 两个输入字段。你可以动态输入问题和目标语言进行测试。

    示例输入:

    • question: "What does finance accounts contain?"

    • lang: "English"

    • question: "财务账目包含什么?"

    • lang: "Chinese"

注意事项与总结

  • 错误处理: 在生产环境中,应考虑添加更健壮的错误处理机制,例如对LLM调用失败或检索器无结果的情况进行处理。
  • 输入验证: Pydantic模型提供了基本的输入验证,但你可以根据需要添加更复杂的验证逻辑。
  • 安全性: 对于生产部署,确保API密钥等敏感信息通过环境变量或安全配置管理,而不是硬编码
  • 可扩展性: LCEL链的模块化设计使得你可以轻松地替换或添加新的组件,例如不同的检索器、LLM或后处理步骤。
  • configurable_alternate: 虽然本教程主要使用RunnableParallel和itemgetter处理动态输入,但Langchain也提供了configurable_alternate用于更复杂的条件路由场景,例如根据某个配置参数动态选择不同的子链。对于本例中的简单动态参数传递,当前方法更为直接和高效。

通过本教程,你已经掌握了如何利用Langchain表达式语言和Langserve,构建一个能够灵活处理动态输入(如用户查询和目标语言)的RAG应用。这种方法为开发交互式、用户友好的AI应用奠定了坚实的基础。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
http500解决方法
http500解决方法

http500解决方法有检查服务器日志、检查代码错误、检查服务器配置、检查文件和目录权限、检查资源不足、更新软件版本、重启服务器或寻求专业帮助等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

495

2023.11.09

http请求415错误怎么解决
http请求415错误怎么解决

解决方法:1、检查请求头中的Content-Type;2、检查请求体中的数据格式;3、使用适当的编码格式;4、使用适当的请求方法;5、检查服务器端的支持情况。更多http请求415错误怎么解决的相关内容,可以阅读下面的文章。

449

2023.11.14

HTTP 503错误解决方法
HTTP 503错误解决方法

HTTP 503错误表示服务器暂时无法处理请求。想了解更多http错误代码的相关内容,可以阅读本专题下面的文章。

3503

2024.03.12

http与https有哪些区别
http与https有哪些区别

http与https的区别:1、协议安全性;2、连接方式;3、证书管理;4、连接状态;5、端口号;6、资源消耗;7、兼容性。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

2904

2024.08.16

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

22

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

48

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

93

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

216

2026.03.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

412

2026.03.04

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.9万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号