前言
PyTorch 是一个 Python 深度学习框架,学习PyTorch在当今深度学习领域至关重要。PyTorch以其动态计算图、易于使用的API和强大的社区支持,成为科研人员、数据科学家及工程师的首选框架。它不仅简化了模型设计、训练与部署流程,还极大地提高了实验效率和创新能力。掌握PyTorch,能够加速科研进度,促进项目落地,是在AI时代保持竞争力的关键技能之一。满满的都是干货,希望能帮助到大家!
1. 张量的创建
1.1 张量的基本概念
- PyTorch 是一个 Python 深度学习框架,它将数据封装成张量(Tensor)来进行运算。
- PyTorch 中的张量就是元素为同一种数据类型的多维矩阵。
- PyTorch 中,张量以 "类" 的形式封装起来,对张量的一些运算、处理的方法被封装在类中。
1.2 张量的基本创建
- torch.tensor 根据指定数据创建张量
- torch.Tensor 根据形状创建张量, 其也可用来创建指定数据的张量
- torch.IntTensor、torch.FloatTensor、torch.DoubleTensor 创建指定类型的张量
import torch
import numpy as np
# 1. 根据已有的数据创建张量
def test01():
# 1.1 创建标量
data = torch.tensor(10)
print(data)
# 1.2 使用numpy数组来创建张量
data = np.random.randn(2, 3)
data = torch.tensor(data)
print(data)
# 1.3 使用list列表创建张量
data = [[10., 20., 30.], [40., 50., 60.]]
data = torch.tensor(data)
print(data)
# 2. 创建指定形状的张量
def test02():
# 2.1 创建2行3列的张量
data = torch.Tensor(2, 3)
print(data)
# 2.2 可以创建指定值的张量
# 注意: 传递列表
data = torch.Tensor([2, 3])
print(data)
data = torch.Tensor([10])
print(data)
# 3. 创建指定类型的张量
def test03():
# 前面创建的张量都是使用默认类型或者元素类型
# 创建一个 int32 类型的张量
data = torch.IntTensor(2, 3)
print(data)
# torch.ShortTensor(2, 3) # 表示创建的是 int16 张量
# torch.LongTensor(2, 3) # 表示创建的是 int32 张量
# torch.FloatTensor(2, 3) # 表示创建的是 float32 张量
# 注意: 如果创建指定类型的张量,但是传递的数据不匹配,会发生类型转换
data = torch.IntTensor([2.5, 3.5])
print(data)
if __name__ == '__main__':
test03()
1.3 创建线性和随机张量
- torch.arange 和 torch.linspace 创建线性张量
- torch.random.init_seed 和 torch.random.manual_seed 随机种子设置
- torch.randn 创建随机张量
import torch
# 1. 创建线性张量
def test01():
# 1.1 创建指定步长的张量
# 第一参数: 开始值
# 第二参数: 结束值
# 第三参数: 步长
data = torch.arange(0, 10, 2)
print(data)
# 1.2 在指定区间指定元素个数
# 第一个参数: 开始值
# 第二个参数: 结束值
# 第三个参数: 创建元素的个数
data = torch.linspace(0, 11, 10)
print(data)
# 2. 创建随机张量
def test02():
# 固定随机数种子
torch.random.manual_seed(0)
# 2.1 创建随机张量
data = torch.randn(2, 3)
print(data)
# 2.2 希望能够固定随机数
print('随机数种子:', torch.random.initial_seed())
if __name__ == '__main__':
test02()
1.4 创建全01张量
- torch.ones 和 torch.ones_like 创建全1张量
- torch.zeros 和 torch.zeros_like 创建全0张量
- torch.full 和 torch.full_like 创建全为指定值张量
import torch
# 1. 创建全为0的张量
def test01():
# 1.1 创建指定形状全为0的张量
data = torch.zeros(2, 3)
print(data)
# 1.2 根据其他张量的形状去创建全0张量
data = torch.zeros_like(data)
print(data)
# 2. 创建全为1的张量
def test02():
# 2.1 创建指定形状全为1的张量
data = torch.ones(2, 3)
print(data)
# 2.2 根据其他张量的形状去创建全1张量
data = torch.ones_like(data)
print(data)
# 3. 创建全为指定值的张量
def test03():
# 3.1 创建形状为2行3列,值全部为10的张量
data = torch.full([2, 3], 100)
print(data)
# 3.2 创建一个形状和data一样,但是值全部为200的张量
data = torch.full_like(data, 200)
print(data)
if __name__ == '__main__':
test03()
1.5 张量的类型转换
- tensor.type(torch.DoubleTensor)
- torch.double()
import torch
# 1. type 函数进行转换
def test01():
data = torch.full([2, 3], 10)
print(data.dtype)
# 注意: 返回一个新的类型转换过的张量
data = data.type(torch.DoubleTensor)
print(data.dtype)
# 2. 使用具体类型函数进行转换
def test02():
data = torch.full([2, 3], 10)
print(data.dtype)
# 转换成 float64 类型
data = data.double()
print(data.dtype)
data = data.short() # 将张量元素转换为 int16 类型
data = data.int() # 将张量转换为 int32 类型
data = data.long() # 将张量转换为 int64 类型
data = data.float() # 将张量转换为 float32
if __name__ == '__main__':
test02()
1.6 小节
在本小节中,我们主要学习了以下内容:
- 创建张量的方式
- torch.tensor 根据指定数据创建张量
- torch.Tensor 根据形状创建张量, 其也可用来创建指定数据的张量
- torch.IntTensor、torch.FloatTensor、torch.DoubleTensor 创建指定类型的张量
- 创建线性和随机张量
- torch.arange 和 torch.linspace 创建线性张量
- torch.random.init_seed 和 torch.random.manual_seed 随机种子设置
- torch.randn 创建随机张量
- 创建01张量
- torch.ones 和 torch.ones_like 创建全1张量
- torch.zeros 和 torch.zeros_like 创建全0张量
- torch.full 和 torch.full_like 创建全为指定值张量
- 张量元素类型转换
- tensor.type(torch.DoubleTensor)
- torch.double()
2. 张量的数值计算
2.1 张量基本运算
基本运算中,包括 add、sub、mul、div、neg 等函数, 以及这些函数的带下划线的版本 add_、sub_、mul_、div_、neg_,其中带下划线的版本为修改原数据。
代码语言:javascript复制import torch
# 1. 不修改原数据的计算
def test01():
# 第一个参数: 开始值
# 第二个参数: 结束值
# 第三个参数: 形状
data = torch.randint(0, 10, [2, 3])
print(data)
# 计算完成之后,会返回一个新的张量
data = data.add(10)
print(data)
# data.sub() # 减法
# data.mul() # 乘法
# data.div() # 除法
# data.neg() # 取相反数
# 2. 修改原数据的计算(inplace方式的计算)
def test02():
data = torch.randint(0, 10, [2, 3])
print(data)
# 带下划线的版本的函数直接修改原数据,不需要用新的变量保存
data.add_(10)
print(data)
# data.sub_() # 减法
# data.mul_() # 乘法
# data.div_() # 除法
# data.neg_() # 取相反数
if __name__ == '__main__':
test02()
2.2 阿达玛积
阿达玛积指的是矩阵对应位置的元素相乘. 可以使用乘号运算符、也可以使用 mul 函数来完成计算。
代码语言:javascript复制import torch
# 1. 使用 mul 函数
def test01():
data1 = torch.tensor([[1, 2], [3, 4]])
data2 = torch.tensor([[5, 6], [7, 8]])
data = data1.mul(data2)
print(data)
# 2. 使用 * 号运算符
def test02():
data1 = torch.tensor([[1, 2], [3, 4]])
data2 = torch.tensor([[5, 6], [7, 8]])
data = data1 * data2
print(data)
if __name__ == '__main__':
test01()
test02()
2.3 点积运算
点积运算要求第一个矩阵 shape: (n, m),第二个矩阵 shape: (m, p), 两个矩阵点积运算 shape 为: (n, p)。
- 运算符 @ 用于进行两个矩阵的点乘运算
- torch.mm 用于进行两个矩阵点乘运算, 要求输入的矩阵为2维
- torch.bmm 用于批量进行矩阵点乘运算, 要求输入的矩阵为3维
- torch.matmul 对进行点乘运算的两矩阵形状没有限定.
- 对于输入都是二维的张量相当于 mm 运算.
- 对于输入都是三维的张量相当于 bmm 运算
- 对数输入的 shape 不同的张量, 对应的最后几个维度必须符合矩阵运算规则
import torch
# 1. 使用 @ 运算符
def test01():
# 形状为: 3行2列
data1 = torch.tensor([[1, 2],
[3, 4],
[5, 6]])
# 形状为: 2行2列
data2 = torch.tensor([[5, 6],
[7, 8]])
data = data1 @ data2
print(data)
# 2. 使用 mm 函数
def test02():
# 要求输入的张量形状都是二维
# 形状为: 3行2列
data1 = torch.tensor([[1, 2],
[3, 4],
[5, 6]])
# 形状为: 2行2列
data2 = torch.tensor([[5, 6],
[7, 8]])
data = torch.mm(data1, data2)
print(data)
# 3. 使用 bmm 函数
def test03():
# 第一个维度: 表示批次
# 第二个维度: 多少行
# 第三个维度: 多少列
data1 = torch.randn(3, 4, 5)
data2 = torch.randn(3, 5, 8)
data = torch.bmm(data1, data2)
print(data.shape)
# 4. 使用 matmul 函数
def test04():
# 对二维进行计算
data1 = torch.randn(4, 5)
data2 = torch.randn(5, 8)
print(torch.matmul(data1, data2).shape)
# 对三维进行计算
data1 = torch.randn(3, 4, 5)
data2 = torch.randn(3, 5, 8)
print(torch.matmul(data1, data2).shape)
data1 = torch.randn(3, 4, 5)
data2 = torch.randn(5, 8)
print(torch.matmul(data1, data2).shape)
if __name__ == '__main__':
test04()
2.4 指定设备运算
PyTorch 默认会将张量创建在 CPU 控制的内存中, 即: 默认的运算设备为 CPU。我们也可以将张量创建在 GPU 上, 能够利用对于矩阵计算的优势加快模型训练。将张量移动到 GPU 上有两种方法:
- 使用 cuda 方法
- 直接在 GPU 上创建张量
- 使用 to 方法指定设备
import torch
# 1. 使用 cuda 方法
def test01():
data = torch.tensor([10, 20, 30])
print('存储设备:', data.device)
# 将张量移动到 GPU 设备上
data = data.cuda()
print('存储设备:', data.device)
# 将张量从GPU再移动到CPU
data = data.cpu()
print('存储设备:', data.device)
# 2. 直接将张量创建在指定设备上
def test02():
data = torch.tensor([10, 20, 30], device='cuda:0')
print('存储设备:', data.device)
# 把张量移动到cpu设备上
data = data.cpu()
print('存储设备:', data.device)
# 3. 使用 to 方法
def test03():
data = torch.tensor([10, 20, 30])
print('存储设备:', data.device)
# 使用 to 方法移动张量到指定设备
data = data.to('cuda:0')
print('存储设备:', data.device)
# 4. 注意: 存储在不同设备上的张量不能够直接运算
def test04():
data1 = torch.tensor([10, 20, 30])
data2 = torch.tensor([10, 20, 30], device='cuda:0')
# RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!
# 下面代码会报错
# 如果你的电脑上安装 pytorch 不是 gpu 版本的,或者电脑本身没有 gpu (nvidia)设备环境
# 否则下面的调用 cuda 函数的代码会报错
data1 = data1.cuda()
data = data1 data2
print(data)
if __name__ == '__main__':
test04()
2.5 小节
在本小节中,我们主要学习的主要内容如下:
- 张量基本运算函数 add、sub、mul、div、neg 等函数, add、sub、mul、div、neg_ 等 inplace 函数
- 张量的阿达玛积运算 mul 和运算符 * 的用法
- 点积运算:
- 运算符 @ 用于进行两个矩阵的点乘运算
- torch.mm 用于进行两个矩阵点乘运算, 要求输入的矩阵为2维
- torch.bmm 用于批量进行矩阵点乘运算, 要求输入的矩阵为3维
- torch.matmul 对进行点乘运算的两矩阵形状没有限定.
- 对于输入都是二维的张量相当于 mm 运算.
- 对于输入都是三维的张量相当于 bmm 运算
- 对数输入的 shape 不同的张量, 对应的最后几个维度必须符合矩阵运算规则
- 将变量移动到 GPU 设备的方法,例如: cuda 方法、直接在 GPU 上创建张量、使用 to 方法指定设备