最新 最热

BERT论文解读

BERT的设计是通过在所有层中对左右上下文进行联合调节,来预先训练来自未标记文本的深层双向表示。

2019-10-10
0

Dropout、梯度消失、Adam 优化算法,神经网络优化算法看这一篇就够了

对于机器学习模型在训练数据集和测试数据集上的表现。如果你改变过实验中的模型结构或者超参数,你也许发现了:当模型在训练数据集上更准确时,它在测试数据集上却不⼀定更准确。这是为什么呢?...

2019-10-10
1

深度学习19种损失函数,你能认识几个?

链接:https://blog.csdn.net/shanglianlm/article/details/85019768

2019-10-10
0

常用的 Normalization 方法:BN、LN、IN、GN(附代码&链接)

它们都是从激活函数的输入来考虑、做文章的,以不同的方式对激活函数的输入进行 Norm 的。

2019-10-10
0

BERT论文解读

BERT的设计是通过在所有层中对左右上下文进行联合调节,来预先训练来自未标记文本的深层双向表示。

2019-10-10
0

多种批次效应去除的方法比较

前面我在生信技能树推文:你确定你的差异基因找对了吗? 提出了文章的转录组数据的60个样品并没有按照毒品上瘾与否这个表型来区分,而是不同人之间的异质性非常高,这个时候我提出来了一个解决方案,就是理论上就可以把人当做...

2019-10-09
0

理解卷积神经网络中的输入与输出形状 | 视觉入门

即使我们从理论上理解了卷积神经网络,在实际进行将数据拟合到网络时,很多人仍然对其网络的输入和输出形状(shape)感到困惑。本文章将帮助你理解卷积神经网络的输入和输出形状。...

2019-10-09
0

常用的 Normalization 方法:BN、LN、IN、GN

本文转自知乎作者G-kdom文章:常用的 Normalization 方法:BN、LN、IN、GN。AI科技评论获授权转载,如需转载请联系原作者。

2019-10-01
0

长文 | 详解基于并行计算的条件随机场

之前写过CRF的详解,只是为了让大家详细了解下原理,但是那种是没有优化的,速度很慢。在实际应用中,还是需要用到batch,也就是需要用到GPU的,那么此时并行计算就变得极为重要。在研究到一定的程度上,困住你的不是算法本身,而是...

2019-09-30
0

用故事解读 MobX 源码(二)computed

温馨提示:因微信中外链都无法点击,请通过文末的” “阅读原文” 到技术博客中完整查阅版;(本文整理自技术博客)

2019-09-29
1