最新 最热

【论文解读】EMNLP2019-多粒度自注意力机制

Multi-Granularity Self-Attention for Neural Machine Translation[1]

2020-03-05
0

百分点认知智能实验室出品:机器翻译是如何炼成的(下)

在“机器翻译是如何炼成的(上)”的文章中,我们回顾了机器翻译的发展史。在本篇文章中,我们将分享机器翻译系统的理论算法和技术实践,讲解神经机器翻译具体是如何炼成的。读完本文,您将了解:...

2020-03-05
0

百分点认知智能实验室出品:机器翻译是如何炼成的(上)

机器翻译作为自然语言处理中最典型的应用,翻译“神器”不断面世,可以说在AI应用领域正当红。那么,机器翻译经历了怎样的开端、泡沫、被判死刑?又怎样冲破藩篱、摒弃语言学,借助神经网络而走红?...

2020-03-04
0

动手学深度学习(十三) NLP机器翻译

机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。...

2020-02-25
0

【NLP】NLP的12种后BERT预训练方法

论文:A Robustly Optimized BERT Pretraining Approach.

2020-02-24
0

ICLR 2020 匿名评审九篇满分论文,最佳论文或许就在其中

早在去年12月,ICLR 2020的论文接收结果就已经出来了,其接收率达到了26.5%。ICLR 2020今年4月26日将在埃塞俄比亚首都亚的斯亚贝巴举行,因为这次会议只保留了四个等级:reject、weak reject、weak accept和accept,因此有30多...

2020-02-24
0

NLP的12种后BERT预训练方法

论文:A Robustly Optimized BERT Pretraining Approach.

2020-02-24
0

收藏!!「自然语言处理(NLP)」全球学术界”巨佬“信息大盘点(三)!

人工智能发展迅速,近几年自然语言处理已经成为热门研究方向,根据这些会议和期刊上近10年发表论文的引用情况(根据Goolge Scholar)生成了高引学者列表,供大家收藏参考学习。...

2020-02-23
0