最新 最热

批量梯度下降算法

这一讲介绍了我们的第一个机器学习算法,”批量“梯度下降算法(Batch Gradiant Descent)。注意到他在前面加了个“批量(Batch)”,这其实是为了与以后的另一种梯度下降算法进行区分从而体现出这个算法的特点。...

2022-11-14
0

PyTorch-数据处理流程

数据加载处理是深度学习模型训练的前奏,是很重要的一部分。这一过程需要把原始数据,影像或者文本等进行封装、转换,并以合适的格式传递给模型。这个过程依赖torch.utils.data模块,常用以上三个类:...

2022-11-14
0

Paddle模型性能分析工具Profiler:定位瓶颈点、优化程序、提升性能

项目链接,fork一下即可使用https://aistudio.baidu.com/aistudio/projectdetail/4482932?contributionType=1Paddle模

2022-11-13
0

卷积神经网络Inception Net

2014年,Google提出了包含Inception模块的网络结构,并命名为GoogLeNet[1],其中LeNet为致敬LeNet网络,GoogLeNet在当年的ILSVRC的分类任务上获得冠军。GoogLeNet经过多次的迭代,最初的版本也被称为Inception v1。Inception的...

2022-11-13
0

更简单的掩码图像建模框架SimMIM介绍和PyTorch代码实现

MAE发布以来,各种使用掩码技术的自监督掩码模型在其基础之上有了更进一步的研究。在本文中我们将探索一篇和MAE同期的工作:SimMIM: A Simple Framework for Masked Image Modeling,研究团队是微软亚研院,并在PyTorch中编...

2022-11-11
0

BERT用的LayerNorm可能不是你认为的那个Layer Norm?

大家好,这里是NewBeeNLP。有关 Batch norm 和 Layer norm 的比较可以算上是算法领域的八股文了,为什么 BERT 不用 batch norm 而用 layer norm 的问题都被问烂了,知乎上随便一搜都有很多人讲解 BN 和 LN 的区别。...

2022-11-11
0

总结!语义信息检索中的预训练模型(下)

上一篇中,我们介绍了预训练模型在建立倒排索引中的应用:总结!语义信息检索中的预训练模型

2022-11-11
0

NLP之NER:商品标题属性识别探索与实践

最近一段时间在做商品理解的工作,主要内容是从商品标题里识别出商品的一些属性标签,包括不限于品牌、颜色、领型、适用人群、尺码等等。这类任务可以抽象成命名实体识别(Named Entity Recognition, NER)工作,一般用序列标...

2022-11-11
0

双塔模型如何选择负样本?

之前有一段时间做过双塔的召回模型[1],线上各个指标有了不错的提升。目前双塔模型也是被各大公司钟爱的召回模型。对主流召回模型的分享整理在:总结下自己做过的深度召回模型...

2022-11-11
0

重新抽象图形API

但是,在QQ群里无意间看到大佬们聊起来bindless, 然后去查了查资料,发现bindless性能又好,抽象又好做,于是果断入bindless的坑。

2022-11-11
0