在2906篇投稿的激烈竞争中,本篇论文获得ACL2019最佳长论文奖项(Best Long Paper)。这篇文章研究应该如何桥接神经机器翻译训练和预测,是中国大陆第一篇Best Long Paper。通过判断依据在“基于参考文本中的词”和“解码器...
ACL 2019 刚刚落下帷幕,想必大家对于今年 ACL 的意大利风情以及火热程度记忆犹新,其中最令人印象深刻的则要数 8 篇 ACL 2019 最佳论文出炉的高光时刻,其中,刘群教授团队更是一举拿下了最佳长论文奖,连同最佳短论文奖、2 ...
今天突然看到有人留言说,原来和大家分享的资料网盘链接根本打不开,今天才看到,这里要和大家说句抱歉。为此作者今天重新整理了一下,希望大家能及时的保存。...
一周的时间转瞬即逝,今天作者给大家分享一下最近收集关于自然语言处理的一些资料,与大家分享,记得保存喲~不然到期了你还得给我要,^_^
上一周,清华大学AMiner发布了《2018自然语言处理研究报告》(下载地址:https://pan.baidu.com/s/1IXuZLgGVHjfYyyX63jcVHQ),因为时间原因,没能及时的更新,希望大家见谅。现在作者以初学者的态度整理了一下该报告的主要内容,...
AI 科技评论按:自 2018 年以来,预训练无疑是自然语言处理(NLP)领域中最热门的研究课题之一。通过利用 BERT、GPT 和 XLNet 等通用语言模型,该领域的研究者们在自然语言理解方面已经取得了许多重大的突破。然而,对于序列到序...
最优化方法一直主导着模型的学习过程,没有最优化器模型也就没了灵魂。好的最优化方法一直是 ML 社区在积极探索的,它几乎对任何机器学习任务都会有极大的帮助。...
【导语】7 月 31 日晚,自然语言处理领域最大顶会 ACL 2019 公布了今年的八个论文奖项,其中最佳长论文的获奖者被来自中国科学院大学、中国科学院计算技术研究所、腾讯 WeChat AI、华为诺亚方舟实验室、伍斯特理工学院等...
Attention机制通俗的说,对于某个时刻的输出y,它在输入x上各个部分上的注意力,这里的注意力也就是权重,即输入x的各个部分对某时刻输入y贡献的权重,在此基础上我们先来简单理解一下Transformer模型中提到的self-attention和...
ACL2019最佳论文出炉,共八篇文章获奖。来自中科院、华为诺亚方舟实验室等机构的论文获得了最佳长论文;一篇来自南京理工大学论文获得了杰出论文奖。除此之外,还有很多华人学者都是获奖论文的作者。由此可见,国内研究者在 ...