在已训练并保存在CPU
上的GPU
上加载模型时,加载模型时经常由于训练和保存模型时设备不同出现读取模型时出现错误,在对跨设备的模型读取时候涉及到两个参数的使用,分别是model.to(device)
和map_location=devicel
两个参数,简介一下两者的不同。
map_location
函数中的参数设置 torch.load()
为 cuda:device_id
。这会将模型加载到给定的GPU设备。model.to(torch.device('cuda'))
将模型的参数张量转换为CUDA
张量,无论在cpu
上训练还是gpu
上训练,保存的模型参数都是参数张量不是cuda
张量,因此,cpu
设备上不需要使用torch.to(torch.device("cpu"))
。了解了两者代表的意义,以下介绍两者的使用。
保存:
torch.save(model.state_dict(), PATH)
加载:
device = torch.device('cpu')
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location=device))
解释:
在使用GPU
训练的CPU
上加载模型时,请传递 torch.device('cpu')
给map_location
函数中的 torch.load()
参数,使用map_location
参数将张量下面的存储器动态地重新映射到CPU
设备 。
保存:
torch.save(model.state_dict(), PATH)
加载:
device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model
解释:
在GPU
上训练并保存在GPU
上的模型时,只需将初始化model
模型转换为CUDA
优化模型即可model.to(torch.device('cuda'))
。此外,请务必.to(torch.device('cuda'))
在所有模型输入上使用该 功能来准备模型的数据。请注意,调用my_tensor.to(device)
返回my_tensorGPU上
的新副本。它不会覆盖 my_tensor
。因此,请记住手动覆盖张量: my_tensor = my_tensor.to(torch.device('cuda'))
保存:
torch.save(model.state_dict(), PATH)
加载:
device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location="cuda:0")) # Choose whatever GPU device number you want
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model
解释:
在已训练并保存在CPU
上的GPU
上加载模型时,请将map_location
函数中的参数设置 torch.load()
为 cuda:device_id
。这会将模型加载到给定的GPU设备。接下来,请务必调用model.to(torch.device('cuda'))
将模型的参数张量转换为CUDA
张量。最后,确保.to(torch.device('cuda'))
在所有模型输入上使用该 函数来为CUDA
优化模型准备数据。请注意,调用 my_tensor.to(device)
返回my_tensorGPU
上的新副本。它不会覆盖my_tensor
。因此,请记住手动覆盖张量:my_tensor = my_tensor.to(torch.device('cuda'))