最新 最热

【犀牛鸟·学问】ACL2019最佳长论文: 桥接神经机器翻译的训练与推导(201907)— CCF-腾讯犀牛鸟基金线上学术报告

在2906篇投稿的激烈竞争中,本篇论文获得ACL2019最佳长论文奖项(Best Long Paper)。这篇文章研究应该如何桥接神经机器翻译训练和预测,是中国大陆第一篇Best Long Paper。通过判断依据在“基于参考文本中的词”和“解码器...

2019-08-12
1

独家专访华为诺亚方舟刘群:从 26 年学术生涯到执掌华为语音语义团队

ACL 2019 刚刚落下帷幕,想必大家对于今年 ACL 的意大利风情以及火热程度记忆犹新,其中最令人印象深刻的则要数 8 篇 ACL 2019 最佳论文出炉的高光时刻,其中,刘群教授团队更是一举拿下了最佳长论文奖,连同最佳短论文奖、2 ...

2019-08-08
0

绝干货! | (改)最有用的自然语言处理(NLP)入门资料

今天突然看到有人留言说,原来和大家分享的资料网盘链接根本打不开,今天才看到,这里要和大家说句抱歉。为此作者今天重新整理了一下,希望大家能及时的保存。...

2019-08-08
0

绝干货! | 最有用的自然语言处理(NLP)入门资料

一周的时间转瞬即逝,今天作者给大家分享一下最近收集关于自然语言处理的一些资料,与大家分享,记得保存喲~不然到期了你还得给我要,^_^

2019-08-08
0

《NLP》你真的了解”自然语言处理(NLP)“吗?

上一周,清华大学AMiner发布了《2018自然语言处理研究报告》(下载地址:https://pan.baidu.com/s/1IXuZLgGVHjfYyyX63jcVHQ),因为时间原因,没能及时的更新,希望大家见谅。现在作者以初学者的态度整理了一下该报告的主要内容,...

2019-08-08
0

学界 | 超越 BERT 和 GPT,微软亚洲研究院开源新模型 MASS!

AI 科技评论按:自 2018 年以来,预训练无疑是自然语言处理(NLP)领域中最热门的研究课题之一。通过利用 BERT、GPT 和 XLNet 等通用语言模型,该领域的研究者们在自然语言理解方面已经取得了许多重大的突破。然而,对于序列到序...

2019-08-07
0

Adam作者大革新, 联合Hinton等人推出全新优化方法Lookahead

最优化方法一直主导着模型的学习过程,没有最优化器模型也就没了灵魂。好的最优化方法一直是 ML 社区在积极探索的,它几乎对任何机器学习任务都会有极大的帮助。...

2019-08-06
0

不止最佳长论文,腾讯AI在ACL上还有这些NLP成果

【导语】7 月 31 日晚,自然语言处理领域最大顶会 ACL 2019 公布了今年的八个论文奖项,其中最佳长论文的获奖者被来自中国科学院大学、中国科学院计算技术研究所、腾讯 WeChat AI、华为诺亚方舟实验室、伍斯特理工学院等...

2019-08-06
0

干货 | Attention注意力机制超全综述

Attention机制通俗的说,对于某个时刻的输出y,它在输入x上各个部分上的注意力,这里的注意力也就是权重,即输入x的各个部分对某时刻输入y贡献的权重,在此基础上我们先来简单理解一下Transformer模型中提到的self-attention和...

2019-08-05
0

ACL2019最佳论文奖出炉,华人包揽众多奖项

ACL2019最佳论文出炉,共八篇文章获奖。来自中科院、华为诺亚方舟实验室等机构的论文获得了最佳长论文;一篇来自南京理工大学论文获得了杰出论文奖。除此之外,还有很多华人学者都是获奖论文的作者。由此可见,国内研究者在 ...

2019-08-05
0