0

0

本地部署大模型性能测试,DeepSeek-R1-0528-Qwen-8B 依然是我的不二之选

星夢妙者

星夢妙者

发布时间:2025-08-03 11:10:15

|

543人浏览过

|

来源于php中文网

原创

本地部署大模型性能测试,deepseek-r1-0528-qwen-8b 依然是我的不二之选图片大家好,我是 ai 学习的老章

今天分享一个我最近频繁使用的大模型并发压力测试工具,并实测一下我在双

4090
显卡上本地部署
DeepSeek-R1-0528-Qwen-8B
模型的实际表现。

这是我目前最钟爱的三个 DeepSeek 蒸馏版本之一

DeepSeek-R1-0528 基于 Qwen3:8B 进行知识蒸馏优化,配合双 4090 实现本地高效推理,性能与效果兼备,深得我心


LLM-Benchmark 工具介绍

项目地址:

https://github.com/lework/llm-benchmark

LLM-Benchmark 是一款专为大语言模型设计的自动化并发性能压测工具,适用于开发者和运维人员对本地或远程 LLM 服务进行系统性性能评估。它支持从低负载到高并发的多阶段测试,帮助定位瓶颈、优化部署策略。

核心功能亮点:

  • 多阶段压力测试:支持从 1 到 300 并发逐步加压,观察模型在不同负载下的表现。
  • 自动化数据采集:自动记录每轮测试的响应时间、吞吐量、错误率等关键指标。
  • 可视化性能报告:生成结构化报告,直观展示 RPS、延迟、TPS 等趋势变化。
  • 长短文本双模式测试:覆盖短问答与长上下文生成场景,贴近真实应用。
  • 高度可配置:通过命令行灵活设置模型名、URL、并发数、请求数等参数。
  • JSON 输出支持:便于后续分析或集成至 CI/CD 流程。

主要文件说明:

‎⁠run_benchmarks.py⁠:主测试脚本,执行全量多轮测试,自动生成汇总报告。
‎⁠llm_benchmark.py⁠:核心压测逻辑,处理并发请求、连接池管理及流式响应测试。
‎⁠assets/⁠:存放测试用资源文件。
‎⁠README.md⁠:详细使用文档与参数说明。


使用方式

1. 执行完整性能测试(推荐)

运行以下命令进行全量多并发测试,适合全面评估模型服务能力:

python run_benchmarks.py \    --llm_url "http://your-llm-server" \    --api_key "your-api-key" \    --model "your-model-name" \    --use_long_context

参数说明:

A1.art
A1.art

一个创新的AI艺术应用平台,旨在简化和普及艺术创作

下载
  • ‎⁠--llm_url⁠:目标 LLM 服务地址(必填)
  • ‎⁠--api_key⁠:认证密钥(可选)
  • ‎⁠--model⁠:模型名称(默认为 deepseek-r1)
  • ‎⁠--use_long_context⁠:启用长文本测试模式(默认关闭)

2. 单次并发测试(按需定制)

若只想测试特定并发级别,可使用单测脚本:

python llm_benchmark.py \    --llm_url "http://your-llm-server" \    --api_key "your-api-key" \    --model "your-model-name" \    --num_requests  \    --concurrency 

参数说明:

  • ‎⁠--num_requests⁠:总请求数(必填)
  • ‎⁠--concurrency⁠:并发数量(必填)

还可自定义输出 token 数、超时时间、输出格式等。


实测结果展示

我使用如下命令对本地部署的模型进行全量长上下文测试:

python run_benchmarks.py \    --llm_url "http://localhost:8001/v1" \    --api_key "123" \    --model "R1-0528-Qwen3-8B" \    --use_long_context

测试结果如下图所示:

本地部署大模型性能测试,DeepSeek-R1-0528-Qwen-8B 依然是我的不二之选图片


性能指标解读

  1. RPS(每秒请求数)
    衡量系统吞吐能力,RPS 越高,并发处理能力越强。测试中从单并发 0.91 提升至 300 并发下的 43.53,表现出色。

  2. 平均延迟(秒)
    用户体验的关键指标。低并发时仅 1.098 秒,300 并发上升至 12.62 秒,符合预期增长趋势。

  3. P99 延迟(秒)
    反映极端情况下的响应稳定性。随着并发增加略有上升,但整体可控。

  4. 平均 TPS(每秒生成 token 数)
    衡量模型生成效率。峰值达 90.89 tokens/s,在 50 并发下仍保持 42.44,表现优异。

  5. 首 Token 延迟(秒)
    影响交互即时感。低并发下低至 0.035 秒,但在 200/300 并发时升至约 2.85 秒,说明高负载下启动响应略有延迟。

  6. 成功率
    所有测试场景下均为 100%,无请求失败,稳定性极佳。


对比主流平台 DeepSeek API 实际生成速度

平台 生成速度(tokens/s) 备注
DeepSeek-V3 官方宣称 60 官方数据
DeepSeek-R1 实测(Content部分) 37.76 118 tokens / 3.12s
DeepSeek-R1 总体实测 33.01 436 tokens / 13.21s
深圳本地测试 DeepSeek 官方服务 37.117(生成),25.378(推理) ——
火山引擎(深圳) 65.673 成都节点高达 72.276
火山引擎(六平台评测均值) 32(生成),29(推理) 稳定性突出
硅基流动(深圳) 16.966 ——
阿里云百炼(深圳) 11.813 存在明显时段波动
讯飞开放平台 1.2(推理均值) 表现较弱
Meta Llama API(Cerebras) 高达 2600 Llama 4 Cerebras
Groq(Llama 4 Scout) 460 极速推理硬件支持

总结

在本地资源有限的前提下,

DeepSeek-R1-0528-Qwen-8B
配合双 4090 显卡部署方案,依然是我心中最均衡、最实用的选择

无论是吞吐能力、响应速度还是稳定性,实测表现都令人满意,尤其在中等并发下兼顾了效率与体验。相比部分公有云 API 的波动性,本地部署更可控、更安全、成本更低。

如果你也在寻找一款适合本地运行的高性能蒸馏模型,强烈推荐尝试这个组合

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
json数据格式
json数据格式

JSON是一种轻量级的数据交换格式。本专题为大家带来json数据格式相关文章,帮助大家解决问题。

422

2023.08.07

json是什么
json是什么

JSON是一种轻量级的数据交换格式,具有简洁、易读、跨平台和语言的特点,JSON数据是通过键值对的方式进行组织,其中键是字符串,值可以是字符串、数值、布尔值、数组、对象或者null,在Web开发、数据交换和配置文件等方面得到广泛应用。本专题为大家提供json相关的文章、下载、课程内容,供大家免费下载体验。

536

2023.08.23

jquery怎么操作json
jquery怎么操作json

操作的方法有:1、“$.parseJSON(jsonString)”2、“$.getJSON(url, data, success)”;3、“$.each(obj, callback)”;4、“$.ajax()”。更多jquery怎么操作json的详细内容,可以访问本专题下面的文章。

313

2023.10.13

go语言处理json数据方法
go语言处理json数据方法

本专题整合了go语言中处理json数据方法,阅读专题下面的文章了解更多详细内容。

77

2025.09.10

登录token无效
登录token无效

登录token无效解决方法:1、检查token的有效期限,如果token已经过期,需要重新获取一个新的token;2、检查token的签名,如果签名不正确,需要重新获取一个新的token;3、检查密钥的正确性,如果密钥不正确,需要重新获取一个新的token;4、使用HTTPS协议传输token,建议使用HTTPS协议进行传输 ;5、使用双因素认证,双因素认证可以提高账户的安全性。

6221

2023.09.14

登录token无效怎么办
登录token无效怎么办

登录token无效的解决办法有检查Token是否过期、检查Token是否正确、检查Token是否被篡改、检查Token是否与用户匹配、清除缓存或Cookie、检查网络连接和服务器状态、重新登录或请求新的Token、联系技术支持或开发人员等。本专题为大家提供token相关的文章、下载、课程内容,供大家免费下载体验。

823

2023.09.14

token怎么获取
token怎么获取

获取token值的方法:1、小程序调用“wx.login()”获取 临时登录凭证code,并回传到开发者服务器;2、开发者服务器以code换取,用户唯一标识openid和会话密钥“session_key”。想了解更详细的内容,可以阅读本专题下面的文章。

1071

2023.12.21

token什么意思
token什么意思

token是一种用于表示用户权限、记录交易信息、支付虚拟货币的数字货币。可以用来在特定的网络上进行交易,用来购买或出售特定的虚拟货币,也可以用来支付特定的服务费用。想了解更多token什么意思的相关内容可以访问本专题下面的文章。

1370

2024.03.01

2026赚钱平台入口大全
2026赚钱平台入口大全

2026年最新赚钱平台入口汇总,涵盖任务众包、内容创作、电商运营、技能变现等多类正规渠道,助你轻松开启副业增收之路。阅读专题下面的文章了解更多详细内容。

54

2026.01.31

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.4万人学习

Django 教程
Django 教程

共28课时 | 3.8万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号