最新 最热

干货|深度学习实现零件的缺陷检测

本文由Oliver Cui根据实战经验,撰稿而成,同时他也是「视觉IMAX」知识星球特邀嘉宾。

2020-11-11
0

高吞吐框架Disruptor应用场景

多年前在并发编程网http://ifeve.com/disruptor了解到了自认为是黑科技的并发框架DISRUPTOR, 我当时在想NETTY为什么没有和它整合。后来了解过的log4j2, jstorm也慢慢有用到, 而一直以来也并没有机会去使用和了解细节...

2020-11-11
0

最优化和深度学习的区别

如今训练神经网络最常见的方法是使用梯度下降或 Adam 等变种。梯度下降是寻找函数极小值的迭代优化算法。简单的说,在最优化问题中,我们对某个度量 P 感兴趣,想找到一个在某些数据(或分布)D上最大化(或最小化)该度量的函数(或...

2020-11-11
0

初始化神经网络权重的方法总结

在本文中,评估了权值初始化的许多方法和当前的最佳实践零初始化将权值初始化为零是不行的。那我为什么在这里提到它呢?要理解权值初始化的需要,我们需要理解为什么将权值初始化为零是无效的。让我们考虑...

2020-11-09
0

Batch Normalization的诅咒

Batch Normalization确实是深度学习领域的重大突破之一,也是近年来研究人员讨论的热点之一。Batch Normalization是一种被广泛采用的技术,使训练更加快速和稳定,已成为最有影响力的方法之一。然而,尽管它具有多种功能,但仍...

2020-11-09
0

深度学习两大基础Tricks:Dropout和BN详解

dropout作为目前神经网络训练的一项必备技术,自从被Hinton提出以来,几乎是进行深度学习训练时的标配。就像做菜时必须加料酒一样,无论何时,大家在使用全连接层的时候都会习惯性的在后面加上一个dropout层。通常情况下,drop...

2020-11-09
0

深入理解Tensorflow中的masking和padding

TensorFlow是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组,即张量(tensor)。它灵活的架构让你可以在多种平台上展开计算...

2020-11-05
0

理解Android硬件加速原理(小白文)

硬件加速,直观上说就是依赖 GPU 实现图形绘制加速,同软硬件加速的区别主要是图形的绘制究竟是 GPU 来处理还是 CPU,如果是GPU,就认为是硬件加速绘制,反之,软件绘制。在 Android 中也是如此,不过相对于普通的软件绘制,硬件加速...

2020-11-05
1

Tensorflow tf.nn.atrous_conv2d如何实现空洞卷积的

1.Long J, Shelhamer E, Darrell T, et al. Fully convolutional networks for semantic segmentation[C]. Computer Vision and Pattern Recognition, 2015.

2020-11-05
0

Tensorflow tf.nn.depthwise_conv2d如何实现深度卷积的

Xception: Deep Learning with Depthwise Separable Convolutions

2020-11-04
0