在centos系统上利用pytorch保存和加载模型是深度学习工作流中的关键步骤。本文将详细阐述这一过程,并提供完整的代码示例。
PyTorch环境配置
首先,请确保您的CentOS系统已成功安装PyTorch。 您可以参考PyTorch官方网站的安装指南,选择与您的系统和CUDA版本兼容的安装包。
模型保存
PyTorch提供torch.save()函数用于保存模型。以下示例演示了如何保存一个简单的线性模型:
import torch
import torch.nn as nn
# 定义模型架构
class SimpleModel(nn.Module):
def __init__(self):
super(SimpleModel, self).__init__()
self.linear = nn.Linear(10, 5)
def forward(self, x):
return self.linear(x)
# 实例化模型
model = SimpleModel()
# 假设模型已完成训练
# 保存模型到文件 'model.pth'
torch.save(model.state_dict(), 'model.pth') # 保存模型参数
请注意,这里我们保存的是模型的参数 (model.state_dict()), 而不是整个模型对象。这更节省空间,也更灵活。
模型加载
使用torch.load()函数加载保存的模型。 务必注意模型的定义与保存时一致:
# 加载模型参数
model = SimpleModel() # 重新创建模型实例
model.load_state_dict(torch.load('model.pth'))
model.eval() # 设置模型为评估模式
# 将模型转移到合适的设备 (GPU 或 CPU)
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model.to(device)
# 进行预测
input_data = torch.randn(1, 10).to(device) # 示例输入数据,需与设备保持一致
output = model(input_data)
重要事项
-
模型定义一致性: 加载模型前,确保模型的定义 (
SimpleModel类) 与保存模型时完全相同。 任何差异都可能导致加载失败。 -
设备兼容性: 如果模型在GPU上训练,加载时也应将其移动到GPU上。 使用
torch.cuda.is_available()检查GPU可用性,并根据结果选择设备。 -
版本兼容性: 尽量使用相同的PyTorch版本进行保存和加载,以避免版本不兼容问题。
完整代码示例
以下代码包含模型定义、保存和加载的完整过程:
import torch
import torch.nn as nn
# 模型定义
class SimpleModel(nn.Module):
def __init__(self):
super(SimpleModel, self).__init__()
self.linear = nn.Linear(10, 5)
def forward(self, x):
return self.linear(x)
# 创建模型实例
model = SimpleModel()
# 模拟训练过程 (此处省略)
# 保存模型参数
torch.save(model.state_dict(), 'model.pth')
# 加载模型参数
model = SimpleModel()
model.load_state_dict(torch.load('model.pth'))
model.eval()
# 选择设备
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model.to(device)
# 进行预测
input_data = torch.randn(1, 10).to(device)
output = model(input_data)
print(output)
通过以上步骤,您可以在CentOS环境下高效地保存和加载PyTorch模型。 记住仔细检查模型定义和设备兼容性,以确保顺利完成模型的持久化操作。










