0

0

LangChain.js中OpenAI模型Token使用量及成本追踪实践

碧海醫心

碧海醫心

发布时间:2025-11-25 15:01:34

|

531人浏览过

|

来源于php中文网

原创

langchain.js中openai模型token使用量及成本追踪实践

本文将详细介绍如何在LangChain.js项目中,利用`handleLLMEnd`回调函数,准确追踪OpenAI语言模型的Token使用量,包括提示词和完成词的消耗。通过集成此机制,开发者可以有效监控每次模型运行的资源开销,为成本估算和性能优化提供数据支持。

引言:LangChain.js中Token追踪的挑战

在开发基于LangChain和OpenAI的项目时,有效追踪每次模型调用(LLM run)的Token使用量和估算成本是至关重要的。这不仅有助于成本控制,也能为性能优化提供数据依据。然而,与LangChain Python版本中方便的get_openai_callback()方法不同,LangChain.js框架中并没有直接对应的内置函数来获取这些信息,这使得开发者在JavaScript环境中面临挑战。尝试使用一些看似合理的代码(例如由聊天机器人提供的chain.getOpenAICallback())往往会因为方法不存在而失败。

解决方案核心:使用handleLLMEnd回调

LangChain.js提供了一个强大的回调系统,允许开发者在链(Chain)或语言模型(LLM)生命周期的特定事件发生时执行自定义逻辑。要追踪OpenAI模型的Token使用量,最有效的方法是利用LLM的回调机制,特别是handleLLMEnd函数。当语言模型完成其执行并返回结果时,handleLLMEnd会被触发,并提供包含Token使用详情的输出数据。

实现步骤与代码示例

以下是如何在LangChain.js中设置ChatOpenAI模型以追踪Token使用量的具体步骤和代码示例:

Bolt.new
Bolt.new

Bolt.new是一个免费的AI全栈开发工具

下载
  1. 导入必要的模块:首先,确保从langchain/chat_models/openai导入ChatOpenAI。
  2. 定义Token计数器:在模型初始化之前,定义全局或作用域内的变量来累积不同类型的Token使用量。
  3. 配置ChatOpenAI实例:在创建ChatOpenAI实例时,通过callbacks属性传入一个包含handleLLMEnd函数的数组。
import { ChatOpenAI } from 'langchain/chat_models/openai';

// 定义全局变量来累积Token使用量
let totalCompletionTokens = 0; // 累积的完成词Token数
let totalPromptTokens = 0;     // 累积的提示词Token数
let totalExecutionTokens = 0;  // 累积的总Token数

// 初始化ChatOpenAI模型,并配置回调函数
const llm = new ChatOpenAI({
    callbacks: [
      {
        /**
         * 当LLM执行结束时触发的回调函数
         * @param {Object} output - LLM执行的输出,包含tokenUsage信息
         * @param {string} runId - 当前运行的ID
         * @param {string} [parentRunId] - 父运行的ID(如果存在)
         * @param {string[]} [tags] - 与运行相关的标签
         */
        handleLLMEnd: (output, runId, parentRunId, tags) => {
          // 从输出中提取Token使用详情
          const { completionTokens, promptTokens, totalTokens } = output.llmOutput?.tokenUsage;

          // 累加Token数量,确保处理undefined情况
          totalCompletionTokens += completionTokens ?? 0;
          totalPromptTokens += promptTokens ?? 0;
          totalExecutionTokens += totalTokens ?? 0;

          // 可以在此处打印每次运行的Token详情
          console.log(`--- LLM Run ${runId} Ended ---`);
          console.log(`Prompt Tokens: ${promptTokens ?? 0}`);
          console.log(`Completion Tokens: ${completionTokens ?? 0}`);
          console.log(`Total Tokens for this run: ${totalTokens ?? 0}`);
          console.log(`Current Accumulated Prompt Tokens: ${totalPromptTokens}`);
          console.log(`Current Accumulated Completion Tokens: ${totalCompletionTokens}`);
          console.log(`Current Accumulated Total Tokens: ${totalExecutionTokens}`);
        },
      },
    ],
    // 必须使用支持Token计数的模型,例如gpt-3.5-turbo系列
    modelName: 'gpt-3.5-turbo-0613', 
    // 其他OpenAI配置,例如temperature, openAIApiKey等
    temperature: 0.7,
    openAIApiKey: process.env.OPENAI_API_KEY, 
});

// 示例:如何使用配置了回调的LLM实例
async function runExampleChain() {
    console.log("Starting example chain run...");
    const result = await llm.call("What is the capital of France?");
    console.log("LLM Call Result:", result);

    const result2 = await llm.call("What is the highest mountain in the world?");
    console.log("LLM Call Result 2:", result2);

    console.log("\n--- Final Accumulated Token Usage ---");
    console.log(`Total Prompt Tokens Across All Runs: ${totalPromptTokens}`);
    console.log(`Total Completion Tokens Across All Runs: ${totalCompletionTokens}`);
    console.log(`Total Execution Tokens Across All Runs: ${totalExecutionTokens}`);
}

// 调用示例函数
runExampleChain();

在上述代码中:

  • output.llmOutput?.tokenUsage 是获取Token使用详情的关键路径。它包含 completionTokens(模型生成的Token数)、promptTokens(输入给模型的提示词Token数)和 totalTokens(本次调用的总Token数)。
  • 我们使用 ?? 0 来处理可能出现的 undefined 情况,确保累加操作的健壮性。
  • modelName: 'gpt-3.5-turbo-0613' 是一个重要的配置。经验表明,对于ChatOpenAI,使用gpt-3.5-turbo或更新的聊天模型版本(如gpt-3.5-turbo-0613)才能正确返回tokenUsage信息。

注意事项

  1. 模型兼容性:在LangChain.js(特别是版本0.0.116左右)中,tokenUsage信息似乎主要通过ChatOpenAI实例与gpt-3.5-turbo系列模型一起工作。直接使用OpenAI(基础LLM类)或旧版模型可能无法获取到这些数据。
  2. 成本估算:获取到Token使用量后,可以根据OpenAI的官方定价页面(通常以每千个Token的价格计算)来估算每次运行或整个应用的成本。这需要将累积的Token数除以1000,然后乘以对应的模型价格。
  3. 作用域管理:上述示例使用了全局变量来累积Token。在更复杂的应用中,你可能需要将这些计数器封装在类或特定上下文中,以便更好地管理和区分不同会话或任务的Token使用。
  4. 异步性:handleLLMEnd是同步执行的,但它发生在异步LLM调用完成之后。确保你的Token累积逻辑能够正确处理多次异步调用。
  5. 错误处理:在实际应用中,应考虑output.llmOutput?.tokenUsage可能为undefined的情况,并添加适当的错误处理或默认值。

总结

通过巧妙地利用LangChain.js提供的回调机制,特别是ChatOpenAI的handleLLMEnd函数,开发者可以有效地追踪OpenAI语言模型的Token使用量。这种方法虽然不如Python版本直接,但功能强大且灵活,能够为LangChain.js项目的成本监控、性能分析和资源优化提供关键数据支持。理解并正确实现这一机制,是构建健壮和可控的LangChain.js应用的重要一步。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
登录token无效
登录token无效

登录token无效解决方法:1、检查token的有效期限,如果token已经过期,需要重新获取一个新的token;2、检查token的签名,如果签名不正确,需要重新获取一个新的token;3、检查密钥的正确性,如果密钥不正确,需要重新获取一个新的token;4、使用HTTPS协议传输token,建议使用HTTPS协议进行传输 ;5、使用双因素认证,双因素认证可以提高账户的安全性。

6609

2023.09.14

登录token无效怎么办
登录token无效怎么办

登录token无效的解决办法有检查Token是否过期、检查Token是否正确、检查Token是否被篡改、检查Token是否与用户匹配、清除缓存或Cookie、检查网络连接和服务器状态、重新登录或请求新的Token、联系技术支持或开发人员等。本专题为大家提供token相关的文章、下载、课程内容,供大家免费下载体验。

842

2023.09.14

token怎么获取
token怎么获取

获取token值的方法:1、小程序调用“wx.login()”获取 临时登录凭证code,并回传到开发者服务器;2、开发者服务器以code换取,用户唯一标识openid和会话密钥“session_key”。想了解更详细的内容,可以阅读本专题下面的文章。

1092

2023.12.21

token什么意思
token什么意思

token是一种用于表示用户权限、记录交易信息、支付虚拟货币的数字货币。可以用来在特定的网络上进行交易,用来购买或出售特定的虚拟货币,也可以用来支付特定的服务费用。想了解更多token什么意思的相关内容可以访问本专题下面的文章。

2184

2024.03.01

全局变量怎么定义
全局变量怎么定义

本专题整合了全局变量相关内容,阅读专题下面的文章了解更多详细内容。

95

2025.09.18

python 全局变量
python 全局变量

本专题整合了python中全局变量定义相关教程,阅读专题下面的文章了解更多详细内容。

106

2025.09.18

js正则表达式
js正则表达式

php中文网为大家提供各种js正则表达式语法大全以及各种js正则表达式使用的方法,还有更多js正则表达式的相关文章、相关下载、相关课程,供大家免费下载体验。

530

2023.06.20

js获取当前时间
js获取当前时间

JS全称JavaScript,是一种具有函数优先的轻量级,解释型或即时编译型的编程语言;它是一种属于网络的高级脚本语言,主要用于Web,常用来为网页添加各式各样的动态功能。js怎么获取当前时间呢?php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

576

2023.07.28

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

76

2026.03.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
React 教程
React 教程

共58课时 | 6万人学习

TypeScript 教程
TypeScript 教程

共19课时 | 3.4万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3.6万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号