pytorch中to(device) 和map_location=device有什么区别?如何使用?

2021-07-14 16:51:07 浏览数 (33)

在已训练并保存在CPU上的GPU上加载模型时,加载模型时经常由于训练和保存模型时设备不同出现读取模型时出现错误,在对跨设备的模型读取时候涉及到两个参数的使用,分别是​model.to(device)​和​map_location=devicel​两个参数,接下来这篇文章我们就来介绍一下pytorch的​to(device)​和​map_location=device​的区别。

一、简介

将​map_location​函数中的参数设置 ​torch.load()​为 ​cuda:device_id​。这会将模型加载到给定的GPU设备。

调用​model.to(torch.device('cuda'))​将模型的参数张量转换为CUDA张量,无论在cpu上训练还是gpu上训练,保存的模型参数都是参数张量不是cuda张量,因此,cpu设备上不需要使用​torch.to(torch.device("cpu"))​。

二、实例

了解了两者代表的意义,以下介绍两者的使用。

1、保存在GPU上,在CPU上加载

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device('cpu')
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location=device))

解释:

在使用GPU训练的CPU上加载模型时,请传递 ​torch.device('cpu')​给​map_location​函数中的 ​torch.load()​参数,使用​map_location​参数将张量下面的存储器动态地重新映射到CPU设备 。

2、保存在GPU上,在GPU上加载

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model

解释:

在GPU上训练并保存在GPU上的模型时,只需将初始化model模型转换为CUDA优化模型即可​model.to(torch.device('cuda'))​。

此外,请务必​.to(torch.device('cuda'))​在所有模型输入上使用该 功能来准备模型的数据。

请注意,调用​my_tensor.to(device) ​返回​my_tensorGPU​上的新副本。

它不会覆盖 ​my_tensor​。

因此,请记住手动覆盖张量: ​my_tensor = my_tensor.to(torch.device('cuda'))

3、保存在CPU,在GPU上加载

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location="cuda:0"))  # Choose whatever GPU device number you want
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model

解释:

在已训练并保存在CPU上的GPU上加载模型时,请将map_location函数中的参数设置 ​torch.load()​为 ​cuda:device_id​。

这会将模型加载到给定的GPU设备。

接下来,请务必调用​model.to(torch.device('cuda'))​将模型的参数张量转换为CUDA张量。

最后,确保​.to(torch.device('cuda'))​在所有模型输入上使用该 函数来为CUDA优化模型准备数据。

请注意,调用​ my_tensor.to(device)​返回​my_tensorGPU​上的新副本。

它不会覆盖​my_tensor​。

因此,请记住手动覆盖张量:​my_tensor = my_tensor.to(torch.device('cuda'))

小结

以上就是pytorch的​to(device)​和​map_location=device​的区别的全部介绍,希望能给大家一个参考,也希望大家多多支持W3Cschool

0 人点赞