最新 最热

经逆向工程,Transformer「翻译」成数学框架 | 25位学者撰文

一篇多达 25 位研究者参与撰写的论文,以最简单的架构仅包含注意力块的两层或更少层的 transformer 模型为基础,对 Transformer 进行逆向研究。

2022-01-04
0

「课代表来了」跟李沐读论文之——BERT

BERT:Pre-trainingof Deep Bidirectional Transformers for Language Understanding

2022-01-04
1

NLP数据增强方法-(一)

问题:对于每个句子,短句相比于长句,吸收同样的n个词噪音,更可能导致类别标签发生变化。

2022-01-04
0

5个很少被提到但能提高NLP工作效率的Python库

本篇文章将分享5个很棒但是却不被常被提及的Python库,这些库可以帮你解决各种自然语言处理(NLP)工作。

2021-12-28
0

5分钟 NLP 系列: Word2Vec和Doc2Vec

Doc2Vec 是一种无监督算法,可从可变长度的文本片段(例如句子、段落和文档)中学习嵌入。它最初出现在 Distributed Representations of Sentences and Documents 一文中。...

2021-12-28
0

AI 语言模型真的是越大越好吗?这个模型优于 Gopher

DeepMind 正在质疑这个理由,并表示给 AI 一个记忆可以帮助与它 25倍大小的模型竞争。

2021-12-27
0

手把手!基于领域预训练和对比学习SimCSE的语义检索(附源码)

之前看到有同学问,希望看一些偏实践,特别是带源码的那种,安排!今天就手把手带大家完成一个基于领域预训练和对比学习SimCSE的语义检索小系统。...

2021-12-27
0

谷歌机器智能大牛:AI模型要真正理解人类语言,关键是「序列学习」

这是人工智能科学家几十年来一直争论不休的谜题。随着深度神经网络在与语言相关的任务中取得了令人瞩目的进步,关于理解、意识和真正智能的讨论重新成为科学家们关注的热点。...

2021-12-27
0

自然语言处理学术速递[12.24]

【1】 TOD-DA: Towards Boosting the Robustness of Task-oriented Dialogue Modeling on Spoken Conversations标题:TOD-DA:提高面向任务的对话建模在口语会话中的健壮性链接:https://arxiv.org/abs......

2021-12-27
0

自然语言处理学术速递[12.23]

【1】 Trees in transformers: a theoretical analysis of the Transformer's ability to represent trees标题:Transformer中的树:Transformer表示树能力的理论分析链接:https://arxiv.org/......

2021-12-27
0