最新 最热

EMNLP 2018 | 为什么使用自注意力机制?

作者:Gongbo Tang、Mathias Muller、Annette Rios、Rico Sennrich

2019-11-19
0

「递归」第3集 | 向善的信念,让技术自带光芒

我们为什么叫「递归」 “递归” (recursion) 是一种在程序设计语言中被广泛使用的算法。它有两大特点,一是调用自己,二是化繁为简。我们当中那些优秀的技术人又何尝不是如此?他们以身作则,用实际行动影响身边的人,规范了...

2019-11-18
0

EMNLP 2019 丨微软亚洲研究院精选论文解读

编者按:EMNLP 2019正于11月3日至11月7日在中国香港举办。本届 EMNLP 大会中,微软亚洲研究院共21篇论文入选,涵盖预训练、语义分析、机器翻译等研究热点。本文为大家介绍其中的7篇精选论文。...

2019-11-12
0

自然语言处理中注意力机制综述

近些年来,注意力机制一直频繁的出现在目之所及的文献或者博文中,可见在nlp中算得上是个相当流行的概念,事实也证明其在nlp领域散发出不小得作用。这几年的顶会paper就能看出这一点。本文深入浅出地介绍了近些年的自然语...

2019-11-12
0

周伯文对话斯坦福AI实验室负责人:下一个NLP前沿是什么?

10 月 31 日,在北京智源大会上,京东集团副总裁兼人工智能事业部总裁、智源-京东联合实验室主任周伯文,斯坦福人工智能实验室负责人(SAIL)Christopher Manning,以《Next NLP Frontier After Deep Learning: A Conversation a...

2019-11-12
0

科大讯飞正式回应“同传造假”,称机器翻译尚无法达到同传效果

9月21日晚间8点,针对白天“同传造假”的新闻,科大讯飞紧急召开了电话会议给出了正式回应,并向媒体发布了《关于所谓的“同传造假”,我们有话要说》的声明。...

2019-11-12
0

NAT模型如何同时兼顾性能、速度?蒸馏很有潜力!

近年来,基于深度神经网络的机器翻译取得了飞速发展。目前大多数NMT模型都使用了编码器-解码器框架来实现,编码器将源语句的表示送入到解码器来生成目标句子;解码器通常以自回归的方式来工作,从左到右逐字地生成目标句子,第...

2019-11-11
0

技术的“能”与“不能”,人工智能也需要哲学家加入探讨 | 清华AI Time

10月31日,由北京智源人工智能研究院主办的2019北京智源大会在国家会议中心开幕,本次大会吸引到了国内外人工智能领域的顶级专家学者参与,他们围绕人工智能基础研究现状及面临的机遇和挑战、人工智能技术未来发展的核心方...

2019-11-08
0

NLP领域预训练模型的现状及分析

小牛翻译,核心成员来自东北大学自然语言处理实验室,由姚天顺教授创建于1980年,现由朱靖波教授、肖桐博士领导,长期从事计算语言学的相关研究工作,主要包括机器翻译、语言分析、文本挖掘等。团队研发的支持140种语言互译的...

2019-11-07
0

多项NLP任务新SOTA,Facebook提出预训练模型BART​

近日,Facebook 发表论文,提出一种为预训练序列到序列模型而设计的去噪自编码器 BART。BART 通过以下步骤训练得到:1)使用任意噪声函数破坏文本;2)学习模型来重建原始文本。BART 使用基于 Transformer 的标准神经机器翻译架...

2019-11-05
0