
Numpy数组以其高效的内存使用和快速的数值计算能力而闻名。然而,这种效率主要体现在内存中的数据结构和计算操作上,而非默认的文件存储方式。当使用np.save函数保存Numpy数组时,它通常会以原始的二进制格式存储数据,不进行任何压缩。这意味着文件大小直接取决于数组的维度、数据类型(dtype)以及元素数量。
以一个10000 x 10000 x 7的np.float16类型数组为例:
这个计算结果与实际观察到的1.4GB文件大小完全吻合。np.save保存的就是这种未经压缩的原始数据。
与Numpy的原始数据存储不同,Python的pickle模块在序列化对象时,会尝试优化存储空间。当序列化一个包含多个对同一对象的引用的数据结构时,pickle不会重复存储这些对象的完整副本,而是只存储一份对象数据,并在其他地方存储对该对象的引用。
立即学习“Python免费学习笔记(深入)”;
在示例场景中,all_games是一个包含多个7元素浮点数列表的列表。当通过random.choice(all_games)来构建sampled_data时,如果all_games中的元素(即那些7元素列表)被重复选中,pickle会检测到这一点。它会为每个独特的7元素列表存储一次其内容,而对于后续出现的相同列表,则只存储一个指向已存储内容的引用。
考虑以下Python列表生成方式:
import random
import pickle
import numpy as np
# 假设 all_games 包含一些独特的7元素列表
# 例如:all_games = [[float(i) for i in range(7)] for _ in range(100)]
# 如果 all_games 元素数量远小于 SAMPLE * DRAW,则重复引用的可能性很高
def sample_games_list_pickle(all_games, file_name='sampled_list.pkl'):
DRAW = 10000
SAMPLE = 10000
# 这里的 random.choice(all_games) 可能会重复选择 all_games 中的同一个子列表对象
sampled_data = [[random.choice(all_games) for _ in range(DRAW)] for _ in range(SAMPLE)]
with open(file_name, 'wb') as file:
pickle.dump(sampled_data, file)
print(f"Pickled list saved to {file_name}")
# 示例调用 (需要先定义 all_games)
# all_games_example = [[float(j) for j in range(7)] for _ in range(100)] # 假设只有100个独特的子列表
# sample_games_list_pickle(all_games_example, 'sampled_list_optimized.pkl')在这种情况下,如果all_games中只有少数几个独特的7元素列表被反复选中,pickle文件将远小于预期,因为它只存储了这些独特列表的内容以及大量的内部引用。这就是为什么500MB的pickle文件会比1.4GB的Numpy数组小得多的原因。
为了验证pickle的这种引用优化行为,我们可以修改Python列表的生成方式,强制每次都存储一个独立的副本。通过在random.choice(all_games)的结果上调用.copy(),我们可以确保sampled_data中的每个7元素列表都是一个全新的对象,即使它们的内容可能相同。
import random
import pickle
def sample_games_list_pickle_with_copy(all_games, file_name='sampled_list_copied.pkl'):
DRAW = 10000
SAMPLE = 10000
# 显式复制子列表,强制 pickle 存储所有副本
sampled_data = [[random.choice(all_games).copy() for _ in range(DRAW)] for _ in range(SAMPLE)]
with open(file_name, 'wb') as file:
pickle.dump(sampled_data, file)
print(f"Pickled list with copies saved to {file_name}")
# 示例调用 (需要先定义 all_games)
# all_games_example = [[float(j) for j in range(7)] for _ in range(100)]
# sample_games_list_pickle_with_copy(all_games_example, 'sampled_list_copied.pkl')如果运行上述代码,你会发现生成的sampled_list_copied.pkl文件大小会急剧增加,可能达到4.4 GB左右。这证实了pickle在没有显式复制时,确实利用了对象引用来节省存储空间。
为了减小Numpy数组的文件大小,尤其是当数据量较大且需要存储到磁盘时,可以使用numpy.savez_compressed函数。这个函数会将Numpy数组保存为.npz格式,并使用ZIP压缩算法对数据进行压缩。
import numpy as np
def sample_games_numpy_compressed(all_games_list, file_name='sampled_data_compressed.npz'):
# 将原始Python列表转换为Numpy数组
all_games_np = np.array(all_games_list, dtype=np.float16)
DRAW = 10000
SAMPLE = 10000
rng = np.random.default_rng() # 推荐使用新的随机数生成器
# 生成随机索引
sampled_indices = rng.choice(all_games_np.shape[0], size=(SAMPLE, DRAW), replace=True)
# 根据索引获取采样数据
sampled_data = all_games_np[sampled_indices]
# 使用 savez_compressed 保存压缩后的Numpy数组
np.savez_compressed(file_name, data=sampled_data)
print(f"Compressed Numpy array saved to {file_name}")
# 示例调用 (需要先定义 all_games_list)
# all_games_list_example = [[float(j) for j in range(7)] for _ in range(100000)] # 假设有10万个独特的子列表
# sample_games_numpy_compressed(all_games_list_example, 'sampled_data_compressed.npz')通过使用np.savez_compressed,生成的.npz文件大小通常会显著小于原始的1.4GB,甚至可能小于500MB的pickle文件,具体取决于数据的可压缩性。
理解不同数据结构和序列化方法的底层机制,对于高效地处理和存储数据至关重要。
以上就是Numpy数组与Python列表存储大小深度解析:优化与误区的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号