要将PyTorch模型保存为本地推断模型,可以按照以下步骤操作:
import torch
import torch.nn as nn
import torch.optim as optim
# 定义模型
class Model(nn.Module):
def __init__(self):
super(Model, self).__init__()
self.fc = nn.Linear(10, 1)
def forward(self, x):
x = self.fc(x)
return x
# 创建模型实例
model = Model()
# 定义损失函数和优化器
criterion = nn.MSELoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)
# 训练模型
for epoch in range(10):
inputs = torch.randn(1, 10) # 随机生成输入
labels = torch.randn(1, 1) # 随机生成标签
# 清空梯度
optimizer.zero_grad()
# 前向传播
outputs = model(inputs)
# 计算损失
loss = criterion(outputs, labels)
# 反向传播和优化
loss.backward()
optimizer.step()
# 保存模型
torch.save(model.state_dict(), 'model.pth')
# 创建模型实例
model = Model()
# 加载模型参数
model.load_state_dict(torch.load('model.pth'))
model.eval()
# 进行推断
inputs = torch.randn(1, 10) # 随机生成输入
outputs = model(inputs)
print(outputs)
在这个示例中,我们首先定义了一个简单的模型,然后使用随机数据进行训练。训练完成后,我们将模型参数保存到model.pth
文件中。
在推断时,我们首先创建一个新的模型实例,加载保存的模型参数,并将模型设置为评估模式(model.eval()
)。然后,我们可以使用模型进行推断,传入输入数据并获取输出结果。
请注意,加载模型时,必须确保模型的定义和保存时的模型结构完全相同。否则,加载时可能会出现错误。