最新 最热

torch.linspace()

PyTorch中的torch.linspace linspace是linear space的缩写,中文含义是线性等分向量原函数torch.linspace(start, end, steps=100, out=None, dtype=None,layout=torch.strided, device=None, req......

2022-09-02
1

pytorch的topk()函数

pytorch.topk()用于返回Tensor中的前k个元素以及元素对应的索引值。例:

2022-09-02
1

Python的内置函数(四十二)、 numel()

net.parameters():是Pytorch用法,用来返回net网络中的参数

2022-09-02
1

PyTorch : torch.nn.xxx 和 torch.nn.functional.xxx

在写 PyTorch 代码时,我们会发现在 torch.nn.xxx 和 torch.nn.functional.xxx 中有一些功能重复的操作,比如卷积、激活、池化。这些操作有什么不同?各有什么用处?...

2022-09-02
1

torch.hub

Pytorch Hub is a pre-trained model repository designed to facilitate research reproducibility.

2022-09-02
0

Pytorch之认识Variable

Tensor是Pytorch的一个完美组件,但是要构建神经网络还是远远不够的,我们需要能够计算图的Tensor,那就是Variable。Variable是对Tensor的一个封装,操作和Tensor是一样的,但是每个Variable都有三个属性,Varibale的Tensor本身...

2022-09-02
1

pytorch .detach() .detach_() 和 .data用于切断反向传播的实现

这篇文章主要介绍了pytorch .detach() .detach_() 和 .data用于切断反向传播的实现。

2022-09-02
0

pytorch使用tensorboardX进行网络可视化

我们知道,对于pytorch上的搭建动态图的代码的可读性非常高,实际上对于一些比较简单的网络,比如alexnet,vgg阅读起来就能够脑补它们的网络结构,但是对于比较复杂的网络,如unet,直接从代码脑补网络结构可能就比较吃力...

2022-09-02
0

PyTorch使用tensorboardX

之前用pytorch是手动记录数据做图,总是觉得有点麻烦。学习了一下tensorboardX,感觉网上资料有点杂,记录一下重点。由于大多数情况只是看一下loss,lr,accu这些曲线,就先总结这些,什么images,audios以后需要再总结。...

2022-09-02
1

Pytorch optimizer.step() 和loss.backward()和scheduler.step()的关系与区别

首先需要明确optimzier优化器的作用, 形象地来说,优化器就是需要根据网络反向传播的梯度信息来更新网络的参数,以起到降低loss函数计算值的作用,这也是机器学习里面最一般的方法论。...

2022-09-02
1