最新 最热

20亿参数,大型视觉Transformer来了,刷新ImageNet Top1

基于注意力机制的 Transformer 架构已经席卷了 CV 领域,并成为研究和实践中日益流行的选择。此前,Transformer 被广泛用于 NLP 领域。有研究者仔细研究了自然语言处理中 Transformer 最优扩展,主要结论是大型模型不仅性...

2021-07-01
0

Sinusoidal 位置编码追根溯源

这篇文章主要是介绍自己对 Google 在《Attention is All You Need》中提出来的 Sinusoidal 位置编码

2021-05-13
1

self-attention 的本质

self-attention 的本质就是从一个矩阵生成三个新的矩阵,这三个矩阵分别记作 qkv,然后将 q 乘以 k 的转置,得到的结果再与 v 相乘,再将最后得到的结果送入下游任务。因此实际上任何网络都可以融入 self-attention,生成三个...

2021-05-12
0

《唐探3》口碑急转直下?看看影迷们到底都说了些啥

随着国内疫情防控趋势的逐渐转变,“看电影、过大年”似乎成了很多人的重要选择之一,根据统计,春节档电影票房已经累计突破30亿,大年初一当天,很多影院出现了部分影片一票难求的情况,电影票的价格也是水涨船高,在众多电影中,最...

nlp
2021-03-16
0

Journal:2020-1

希望每家做产品的公司都能给出同类型产品的横向对比,毕竟自家是对自己产品定位最清楚的,优化消费者的购物体验也是传达品牌自信和品牌信誉的关键。...

2021-03-04
0

Jetson Nano 家族产品性能基准(Nano运行)

Jetson用于以高性能推理将各种流行的DNN模型和ML框架部署到边缘,以执行诸如实时分类和对象检测,姿态估计,语义分段和自然语言处理(NLP)之类的任务~下表就是jetson家族的产品的性能比较;...

2021-02-23
1

spacy 报错 gold.pyx in spacy.gold.GoldParse.__init__() 解决方案

在使用 spacy 进行 NLP 时出现以下错误:---------------------------------------------------------------------------TypeError Traceback (most ...

2021-02-19
1

【Kaggle微课程】Natural Language Processing - 2.Text Classification

learn from https://www.kaggle.com/learn/natural-language-processing

2021-02-19
1

谷歌新语言模型Switch Transformer

在过去的三年中,基于transformer的语言模型(LMs)在自然语言处理(NLP)领域一直占据着主导地位。Transformer 通常是在大量非结构化文本上预先训练的巨大网络,它能够捕捉有用的语言属性。然后,我么可以对预先训练的模型进...

2021-02-12
1

基于LSTM的美国大选的新闻真假分类【NLP 新年开胃菜】

简介 新闻媒体已成为向世界人民传递世界上正在发生的事情的信息的渠道。 人们通常认为新闻中传达的一切都是真实的。 在某些情况下,甚至新闻频道也承认他们的新闻不如他们写的那样真实。 但是,一些新闻不仅对人民或政府...

2021-01-05
1