Numpy数组与Python列表存储大小深度解析:优化与误区

心靈之曲
发布: 2025-10-05 09:59:08
原创
842人浏览过

numpy数组与python列表存储大小深度解析:优化与误区

本文深入探讨了Numpy数组在文件存储时可能比等效Python列表更大的原因,打破了Numpy总是更节省内存的普遍认知。核心在于Numpy的np.save默认存储原始二进制数据不进行压缩,而Python的pickle机制在遇到重复对象时会存储引用而非副本,从而在特定场景下导致文件大小差异。文章提供了使用numpy.savez_compressed进行Numpy数组压缩的解决方案,并揭示了Python列表通过显式复制来避免意外小文件大小的方法。

理解Numpy数组的存储机制

Numpy数组以其高效的内存使用和快速的数值计算能力而闻名。然而,这种效率主要体现在内存中的数据结构和计算操作上,而非默认的文件存储方式。当使用np.save函数保存Numpy数组时,它通常会以原始的二进制格式存储数据,不进行任何压缩。这意味着文件大小直接取决于数组的维度、数据类型(dtype)以及元素数量。

以一个10000 x 10000 x 7的np.float16类型数组为例:

  • 数组维度:10000 * 10000 * 7
  • 数据类型:np.float16,每个元素占用2字节(16位)
  • 总大小计算:10000 * 10000 * 7 * 2 字节 = 1,400,000,000 字节 ≈ 1.4 GB

这个计算结果与实际观察到的1.4GB文件大小完全吻合。np.save保存的就是这种未经压缩的原始数据。

Python列表与Pickle的“引用”优化

与Numpy的原始数据存储不同,Python的pickle模块在序列化对象时,会尝试优化存储空间。当序列化一个包含多个对同一对象的引用的数据结构时,pickle不会重复存储这些对象的完整副本,而是只存储一份对象数据,并在其他地方存储对该对象的引用。

立即学习Python免费学习笔记(深入)”;

在示例场景中,all_games是一个包含多个7元素浮点数列表的列表。当通过random.choice(all_games)来构建sampled_data时,如果all_games中的元素(即那些7元素列表)被重复选中,pickle会检测到这一点。它会为每个独特的7元素列表存储一次其内容,而对于后续出现的相同列表,则只存储一个指向已存储内容的引用。

考虑以下Python列表生成方式:

CapWords
CapWords

AI语言学习工具,通过拍照把身边的物品变成学习素材

CapWords 180
查看详情 CapWords
import random
import pickle
import numpy as np

# 假设 all_games 包含一些独特的7元素列表
# 例如:all_games = [[float(i) for i in range(7)] for _ in range(100)]
# 如果 all_games 元素数量远小于 SAMPLE * DRAW,则重复引用的可能性很高

def sample_games_list_pickle(all_games, file_name='sampled_list.pkl'):
    DRAW = 10000
    SAMPLE = 10000
    # 这里的 random.choice(all_games) 可能会重复选择 all_games 中的同一个子列表对象
    sampled_data = [[random.choice(all_games) for _ in range(DRAW)] for _ in range(SAMPLE)]

    with open(file_name, 'wb') as file:
        pickle.dump(sampled_data, file)
    print(f"Pickled list saved to {file_name}")

# 示例调用 (需要先定义 all_games)
# all_games_example = [[float(j) for j in range(7)] for _ in range(100)] # 假设只有100个独特的子列表
# sample_games_list_pickle(all_games_example, 'sampled_list_optimized.pkl')
登录后复制

在这种情况下,如果all_games中只有少数几个独特的7元素列表被反复选中,pickle文件将远小于预期,因为它只存储了这些独特列表的内容以及大量的内部引用。这就是为什么500MB的pickle文件会比1.4GB的Numpy数组小得多的原因。

强制Python列表存储副本

为了验证pickle的这种引用优化行为,我们可以修改Python列表的生成方式,强制每次都存储一个独立的副本。通过在random.choice(all_games)的结果上调用.copy(),我们可以确保sampled_data中的每个7元素列表都是一个全新的对象,即使它们的内容可能相同。

import random
import pickle

def sample_games_list_pickle_with_copy(all_games, file_name='sampled_list_copied.pkl'):
    DRAW = 10000
    SAMPLE = 10000
    # 显式复制子列表,强制 pickle 存储所有副本
    sampled_data = [[random.choice(all_games).copy() for _ in range(DRAW)] for _ in range(SAMPLE)]

    with open(file_name, 'wb') as file:
        pickle.dump(sampled_data, file)
    print(f"Pickled list with copies saved to {file_name}")

# 示例调用 (需要先定义 all_games)
# all_games_example = [[float(j) for j in range(7)] for _ in range(100)]
# sample_games_list_pickle_with_copy(all_games_example, 'sampled_list_copied.pkl')
登录后复制

如果运行上述代码,你会发现生成的sampled_list_copied.pkl文件大小会急剧增加,可能达到4.4 GB左右。这证实了pickle在没有显式复制时,确实利用了对象引用来节省存储空间。

优化Numpy数组的存储大小

为了减小Numpy数组的文件大小,尤其是当数据量较大且需要存储到磁盘时,可以使用numpy.savez_compressed函数。这个函数会将Numpy数组保存为.npz格式,并使用ZIP压缩算法对数据进行压缩。

import numpy as np

def sample_games_numpy_compressed(all_games_list, file_name='sampled_data_compressed.npz'):
    # 将原始Python列表转换为Numpy数组
    all_games_np = np.array(all_games_list, dtype=np.float16)
    DRAW = 10000
    SAMPLE = 10000

    rng = np.random.default_rng() # 推荐使用新的随机数生成器
    # 生成随机索引
    sampled_indices = rng.choice(all_games_np.shape[0], size=(SAMPLE, DRAW), replace=True)
    # 根据索引获取采样数据
    sampled_data = all_games_np[sampled_indices]

    # 使用 savez_compressed 保存压缩后的Numpy数组
    np.savez_compressed(file_name, data=sampled_data)
    print(f"Compressed Numpy array saved to {file_name}")

# 示例调用 (需要先定义 all_games_list)
# all_games_list_example = [[float(j) for j in range(7)] for _ in range(100000)] # 假设有10万个独特的子列表
# sample_games_numpy_compressed(all_games_list_example, 'sampled_data_compressed.npz')
登录后复制

通过使用np.savez_compressed,生成的.npz文件大小通常会显著小于原始的1.4GB,甚至可能小于500MB的pickle文件,具体取决于数据的可压缩性。

总结与注意事项

  • Numpy np.save: 默认存储原始二进制数据,不进行压缩。文件大小直接反映数据量和数据类型。
  • Python pickle.dump: 会尝试优化存储,对重复的对象存储引用而非副本。这可能导致文件意外地小,但如果所有对象都是独立的,文件大小会非常大。
  • 优化Numpy存储: 使用numpy.savez_compressed是减小Numpy数组文件大小的有效方法。
  • Python列表陷阱: 如果你希望pickle存储所有对象的独立副本(例如,为了避免后续修改一个对象影响到其他“引用”它的地方),请确保在构建列表时显式地进行.copy()操作。
  • 选择存储格式:
    • 对于需要高性能计算且数据在内存中处理时,Numpy数组是首选。
    • 对于磁盘存储,如果数据量大,Numpy的savez_compressed或HDF5等格式更为合适。
    • pickle适用于序列化任意Python对象,但其文件大小和性能可能不如专门的数据格式。
    • 在任何情况下,都应根据实际需求(内存、磁盘、读写速度、互操作性等)权衡选择最合适的存储方案。

理解不同数据结构和序列化方法的底层机制,对于高效地处理和存储数据至关重要。

以上就是Numpy数组与Python列表存储大小深度解析:优化与误区的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号