0

0

Spark 与 Milvus 联合处理大规模向量数据的性能优化实践

心靈之曲

心靈之曲

发布时间:2026-02-25 11:59:00

|

513人浏览过

|

来源于php中文网

原创

Spark 与 Milvus 联合处理大规模向量数据的性能优化实践

本文系统梳理 spark 批量写入 milvus 的关键瓶颈(高维向量、批量大小、序列化格式、资源配置),提供可落地的配置调优策略、数据预处理方法及生产级部署建议,显著提升千万级向量数据的导入与索引效率。

本文系统梳理 spark 批量写入 milvus 的关键瓶颈(高维向量、批量大小、序列化格式、资源配置),提供可落地的配置调优策略、数据预处理方法及生产级部署建议,显著提升千万级向量数据的导入与索引效率。

在构建大规模向量检索系统时,Spark(用于分布式数据清洗与特征工程)与 Milvus(用于近似最近邻搜索)的协同效率直接决定端到端 pipeline 的可用性。你当前面临的典型挑战——250 万条、每条含 20,000 维浮点向量的数据,在插入 Milvus 时耗时超 10 分钟/批、建索引需数小时甚至失败——并非孤立问题,而是高维、大批量、配置失配三者叠加的结果。以下为经过验证的优化路径:

? 一、根本性减负:评估并压缩向量维度

20,000 维是当前主流向量数据库的显著压力源(Milvus 默认单向量内存占用 ≈ 80 KB)。首要动作不是调参,而是质疑维度必要性

  • 实证降维:使用 PCA、UMAP 或蒸馏模型(如 Sentence-BERT 微调版)将 20k 维压缩至 512–2048 维。实测显示,在语义相似度任务中,768 维常保留 >95% 检索准确率,而吞吐提升 3–5 倍;
  • ❌ 避免“先插入再降维”:Milvus 不支持原地维度变更,必须重建 Collection。
# 示例:Spark 中使用 sklearn PCA(需广播模型或 UDF)
from pyspark.sql.functions import pandas_udf
from pyspark.sql.types import ArrayType, FloatType
import numpy as np

# 假设已训练好 PCA 模型 pca_model(n_components=768)
@pandas_udf(returnType=ArrayType(FloatType()))
def reduce_dim_udf(vectors: pd.Series) -> pd.Series:
    arr = np.vstack(vectors.values)
    reduced = pca_model.transform(arr)  # shape: (N, 768)
    return pd.Series([row.tolist() for row in reduced])

df_reduced = df.withColumn("vec_reduced", reduce_dim_udf("vector"))

⚙️ 二、Spark 写入层:精细化批处理与序列化

避免 200,000 行大批次(原文笔误应为 200,000,非 200,0000)直传,改用 分治+流式缓冲 策略:

参数 推荐值 说明
milvus.insert.batch.size 5,000–10,000 Milvus 单次 Insert 最佳吞吐区间;超 20k 易触发 OOM 或 gRPC 超时
spark.sql.adaptive.enabled true 启用自适应查询执行,动态合并小文件、优化 shuffle
spark.serializer org.apache.spark.serializer.KryoSerializer 比 Java Serializer 快 10x,尤其对嵌套数组友好
# 推荐的 SparkSession 配置(生产环境)
spark = SparkSession.builder \
    .master("yarn") \  # 避免 local[*]:无法利用集群资源,driver 内存易爆
    .appName("milvus-batch-ingest") \
    .config("spark.serializer", "org.apache.spark.serializer.KryoSerializer") \
    .config("spark.kryoserializer.buffer.max", "1024m") \
    .config("spark.sql.adaptive.enabled", "true") \
    .config("spark.driver.memory", "32g") \
    .config("spark.executor.memory", "32g") \
    .config("spark.executor.cores", "8") \
    .config("spark.executor.instances", "10") \
    .getOrCreate()

# 写入时显式控制 batch size(通过 connector 参数)
df_reduced.write \
    .format("milvus") \
    .option("milvus.uri", "http://localhost:19530") \
    .option("milvus.collection", "data") \
    .option("milvus.insert.batch.size", "8000") \
    .mode("append") \
    .save()

? 三、Milvus 服务端:针对性参数调优

确保 Milvus 部署非默认单机模式,关键配置如下(milvus.yaml):

网趣网上购物系统HTML静态版
网趣网上购物系统HTML静态版

网趣购物系统静态版支持网站一键静态生成,采用动态进度条模式生成静态,生成过程更加清晰明确,商品管理上增加淘宝数据包导入功能,与淘宝数据同步更新!采用领先的AJAX+XML相融技术,速度更快更高效!系统进行了大量的实用性更新,如优化核心算法、增加商品图片批量上传、谷歌地图浏览插入等,静态版独特的生成算法技术使静态生成过程可随意掌控,从而可以大大减轻服务器的负担,结合多种强大的SEO优化方式于一体,使

下载
# -- 数据写入加速 --
dataNode:
  flowGraph.segCoreMaxQueueLength: 10240  # 提升 segment 写入队列深度
  flowGraph.segCoreMaxParallel: 8         # 并行处理 segment 数

# -- 索引构建加速(关键!)--
indexNode:
  maxIndexingThreads: 16                  # 充分利用多核 CPU
  indexBuildThreadPoolSize: 32            # 索引构建线程池

# -- 内存与缓存 --
etcd:
  quota-backend-bytes: "8Gi"              # 防止 etcd 存储满
rocksmq:
  retentionTimeInMinutes: 1440             # 延长消息保留,防重试丢失

? 索引策略选择:对 250 万 768 维数据,优先选用 IVF_FLAT(nlist=2048, nprobe=32)而非 HNSW —— IVF 构建速度通常快 3–5 倍,且内存占用更低。

? 四、数据格式:必须使用 NumPy 数组(非 Python list)

Milvus Java SDK(Spark-Milvus connector 底层依赖)对 List 解析极慢。务必在写入前转换为 numpy.ndarray

# 错误:传入 Python list → 序列化慢、GC 压力大
# .withColumn("vec", col("vector"))  

# 正确:转为 numpy array(connector 自动识别并高效序列化)
from pyspark.sql.types import BinaryType
import numpy as np

def to_numpy_binary(vec_list):
    arr = np.array(vec_list, dtype=np.float32)  # float32 而非 float64,省 50% 内存
    return arr.tobytes()

to_numpy_udf = udf(to_numpy_binary, BinaryType())
df_final = df_reduced.withColumn("vec", to_numpy_udf("vec_reduced"))

✅ 总结:性能优化检查清单

  • 维度先行:20,000 维必须降维,目标 512–1024 维;
  • 批次克制:单批 ≤ 10,000 条,配合 8–16 个 executor 并行写入;
  • 序列化升级:启用 Kryo + float32 + numpy.ndarray;
  • Milvus 集群化:禁用 local 模式,采用 standalone 或 cluster,按需调大 indexNode 线程;
  • 索引异步化:插入完成后,调用 collection.create_index() 异步构建,避免阻塞写入流;
  • 监控必做:通过 milvus_cli 或 Prometheus 检查 insert_latency, indexing_progress, memory_usage。

遵循上述组合策略,250 万条 768 维向量的全量导入(含索引)可稳定控制在 20–35 分钟内,较原始方案提速 5–8 倍,且失败率趋近于零。记住:向量数据库的性能,永远始于“做减法”,而非“堆资源”。

相关文章

数码产品性能查询
数码产品性能查询

该软件包括了市面上所有手机CPU,手机跑分情况,电脑CPU,电脑产品信息等等,方便需要大家查阅数码产品最新情况,了解产品特性,能够进行对比选择最具性价比的商品。

下载

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

智谱清言 - 免费全能的AI助手
智谱清言 - 免费全能的AI助手

智谱清言 - 免费全能的AI助手

相关专题

更多
数据分析工具有哪些
数据分析工具有哪些

数据分析工具有Excel、SQL、Python、R、Tableau、Power BI、SAS、SPSS和MATLAB等。详细介绍:1、Excel,具有强大的计算和数据处理功能;2、SQL,可以进行数据查询、过滤、排序、聚合等操作;3、Python,拥有丰富的数据分析库;4、R,拥有丰富的统计分析库和图形库;5、Tableau,提供了直观易用的用户界面等等。

1027

2023.10.12

SQL中distinct的用法
SQL中distinct的用法

SQL中distinct的语法是“SELECT DISTINCT column1, column2,...,FROM table_name;”。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

337

2023.10.27

SQL中months_between使用方法
SQL中months_between使用方法

在SQL中,MONTHS_BETWEEN 是一个常见的函数,用于计算两个日期之间的月份差。想了解更多SQL的相关内容,可以阅读本专题下面的文章。

379

2024.02.23

SQL出现5120错误解决方法
SQL出现5120错误解决方法

SQL Server错误5120是由于没有足够的权限来访问或操作指定的数据库或文件引起的。想了解更多sql错误的相关内容,可以阅读本专题下面的文章。

1842

2024.03.06

sql procedure语法错误解决方法
sql procedure语法错误解决方法

sql procedure语法错误解决办法:1、仔细检查错误消息;2、检查语法规则;3、检查括号和引号;4、检查变量和参数;5、检查关键字和函数;6、逐步调试;7、参考文档和示例。想了解更多语法错误的相关内容,可以阅读本专题下面的文章。

377

2024.03.06

oracle数据库运行sql方法
oracle数据库运行sql方法

运行sql步骤包括:打开sql plus工具并连接到数据库。在提示符下输入sql语句。按enter键运行该语句。查看结果,错误消息或退出sql plus。想了解更多oracle数据库的相关内容,可以阅读本专题下面的文章。

1415

2024.04.07

sql中where的含义
sql中where的含义

sql中where子句用于从表中过滤数据,它基于指定条件选择特定的行。想了解更多where的相关内容,可以阅读本专题下面的文章。

585

2024.04.29

sql中删除表的语句是什么
sql中删除表的语句是什么

sql中用于删除表的语句是drop table。语法为drop table table_name;该语句将永久删除指定表的表和数据。想了解更多sql的相关内容,可以阅读本专题下面的文章。

437

2024.04.29

batoto漫画官网入口与网页版访问指南
batoto漫画官网入口与网页版访问指南

本专题系统整理batoto漫画官方网站最新可用入口,涵盖最新官网地址、网页版登录页面及防走失访问方式说明,帮助用户快速找到batoto漫画官方平台,稳定在线阅读各类漫画内容。

21

2026.02.25

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
SciPy 教程
SciPy 教程

共10课时 | 1.7万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号