最新 最热

自然语言处理学术速递[8.17]

【1】 BloomNet: A Robust Transformer based model for Bloom's Learning Outcome Classification标题:BloomNet:一种基于鲁棒变换的Bloom学习结果分类模型链接:https://arxiv.org/abs/2108.072......

2021-08-24
0

NLP≠NLU,机器学习无法理解人类语言

然而,这些程序并非是用人类“自然语言“编写的,像Java、Python、C和C ++语言,始终考虑的是"机器能够轻松理解和处理吗?"

2021-08-24
1

AI“读图会意”首超人类!阿里达摩院刷新全球机器视觉问题纪录

给大家出一道视觉问答题:在下面这张图片中,根据有礼服装饰的小熊玩具照片推理出这些玩具用来做什么的?

2021-08-24
0

中国力量在人工智能顶会崛起,这枚NLP“金牌”奥妙何在?

以学术界为主力军的中国AI研究力量正在悄然变化,工业界的作用愈发凸显,与学术界一起形成双轮驱动之势。

2021-08-24
1

NLP之从word2vec到ELMO GPT再到BERT与attention transformer过程笔记与详解

在NLP自然语言处理学习或者发展过程中,在13年word2vec word embedding后,人们发现一个单词通过Word Embedding表示,很容易找到语义相近的单词,但单一词向量表示,不可避免一词多义问题。于是迎来Google的ELMO transformer B...

2021-08-20
1

聊一聊大火的对比学习

在之前的博客里,笔者介绍了在有监督任务(文本匹配)上,增加对比学习来提高模型性能的实验,而当时尝试后却发现,在新增了对比学习的任务后,模型的性能并没有得到对应的提升。...

2021-08-20
1

YYDS!一个针对中文的预训练模型

相信做中文NLP的同学和朋友们,对哈工大和科大讯飞的发布的一系列中文预训练模型并不陌生,github项目地址为https://github.com/ymcui/。它们根据各个预训练原论文的基础上,基于中文语料,发布了诸如BERT、RoBERTa、ELECTRA...

2021-08-20
0

近代自然语言处理技术发展的『第四范式』

显然,仅知道这个答案并不是一件唯一重要的事情,除此之外,「了解其他三种范式是什么以及范式之间转化的内在逻辑的价值更加凸显」。这有两个好处:...

2021-08-20
1

NLP预训练家族 | Transformer-XL及其进化XLNet

最近又重新读了Transformer-XL和XLNet的论文和代码,又有很多新的感悟。其中,要想搞懂XLNet的同学一定要首先明白Transofrmer-XL,因为XLNet是基于Transformer-XL进行改进的。...

2021-08-20
0

B轮融资逾2亿高瓴创投领投,RPA厂商金智维有何不凡之处?

据不完全统计,2021上半年国内RPA行业融资仅有11起,以至于有人说RPA厂商们并不缺钱。别看融资数量不多,总体融资金额已经超过10亿元。这意味着,RPA项目仍旧备受资本青睐。...

2021-08-13
1