最新 最热

使用Batch Normalization折叠来加速模型推理

Batch Normalization是将各层的输入进行归一化,使训练过程更快、更稳定的一种技术。在实践中,它是一个额外的层,我们通常添加在计算层之后,在非线性之前。它包括两个步骤:...

2020-11-19
0

【他山之石】PointNet论文复现及代码详解

“他山之石,可以攻玉”,站在巨人的肩膀才能看得更高,走得更远。在科研的道路上,更需借助东风才能更快前行。为此,我们特别搜集整理了一些实用的代码链接,数据集,软件,编程技巧等,开辟“他山之石”专栏,助你乘风破浪,一路奋勇向前...

2020-11-19
1

pytorch的余弦退火学习率

最近深入了解了下pytorch下面余弦退火学习率的使用.网络上大部分教程都是翻译的pytorch官方文档,并未给出一个很详细的介绍,由于官方文档也只是给了一个数学公式,对参数虽然有解释,但是解释得不够明了,这样一来导致我们在...

2020-11-19
0

目标检测算法YOLOv4详解

YOLOv4是精度速度最优平衡, 各种调优手段是真香,本文主要从以下几个方面进行阐述:

2020-11-17
1

Volcano设计原理全面解读,一看就懂!

Volcano是一个Kubernetes云原生的批量计算平台,也是CNCF的首个批量计算项目。

2020-11-17
0

使用Batch Normalization折叠来加速模型推理

Batch Normalization是将各层的输入进行归一化,使训练过程更快、更稳定的一种技术。在实践中,它是一个额外的层,我们通常添加在计算层之后,在非线性之前。它包括两个步骤:...

2020-11-13
0

三辩三驳:这篇论文告诉你传统优化分析与现代DL有哪些不匹配

从事机器学习方面相关研究的人都了解,网络模型的最终性能少不了优化。其中损失函数扮演了非常重要的角色,而随机梯度下降算法(SGD)由于其良好的收敛性,常常被用来进行梯度更新。为了加快收敛速度,缩短训练时间,同时为了提高...

2020-11-13
0

Keras 学习笔记(五)卷积层 Convolutional tf.keras.layers.conv2D tf.keras.layers.conv1D

该层创建了一个卷积核,该卷积核以 单个空间(或时间)维上的层输入进行卷积, 以生成输出张量。 如果 use_bias 为 True, 则会创建一个偏置向量并将其添加到输出中。 最后,如果 activation 不是 None,它也会应用于输出。...

2020-11-13
0

随机梯度下降之——SGD自适应学习率

http://ruder.io/optimizing-gradient-descent/index.html#gradientdescentvariants

2020-11-13
0

Keras 学习笔记(三)Keras Sequential 顺序模型

你可以通过将网络层实例的列表传递给 Sequential 的构造器,来创建一个 Sequential 模型:

2020-11-12
1