最新 最热

Pytorch多GPU的计算和Sync BatchNorm

这里需要注意的是,仅仅调用Tensor.to()只会在GPU上返回一个新的copy,并不会对原来的引用造成变化,因此需要通过赋值rewrite。

2022-09-03
0

torch.nn.SyncBatchNorm

torch.nn.SyncBatchNorm(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True, process_group=None)[source]

2022-09-02
0

torch Dataloader中的num_workers

考虑这么一个场景,有海量txt文件,一个个batch读进来,测试一下torch DataLoader的效率如何。

2022-09-02
0

Pytorch的数据采样器

class torch.utils.data.Sampler(data_source)[source]

2022-09-02
0

全面解读Group Normalization,对比BN,LN,IN

Face book AI research(FAIR)吴育昕-何恺明联合推出重磅新作Group Normalization(GN),提出使用Group Normalization 替代深度学习里程碑式的工作Batch normalization,本文将从以下三个方面为读者详细解读此篇文章:...

2022-09-02
0

Pytorch的Sampler详解

其原理是首先在初始化的时候拿到数据集data_source,之后在__iter__方法中首先得到一个和data_source一样长度的range可迭代器。每次只会返回一个索引值。

2022-09-02
0

MSELoss损失函数

很多的 loss 函数都有 size_average 和 reduce 两个布尔类型的参数。因为一般损失函数都是直接计算 batch 的数据,因此返回的 loss 结果都是维度为 (batch_size, ) 的向量。...

2022-09-02
0

batch size设置

深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别:

2022-09-02
0

optimizer.step()和scheduler.step()

optimizer.step()通常用在每个mini-batch之中,而scheduler.step()通常用在epoch里面,但是不绝对,可以根据具体的需求来做。只有用了optimizer.step(),模型才会更新,而scheduler.step()是对lr进行调整。通常我们有...

2022-09-02
0

Pytorch optimizer.step() 和loss.backward()和scheduler.step()的关系与区别

首先需要明确optimzier优化器的作用, 形象地来说,优化器就是需要根据网络反向传播的梯度信息来更新网络的参数,以起到降低loss函数计算值的作用,这也是机器学习里面最一般的方法论。...

2022-09-02
0