最新 最热

【ACL 2020】腾讯AI Lab解读三大前沿方向及入选的20篇论文

自然语言理解是腾讯 AI Lab 的主要研究方向之一,研究能力也一直处于业界领先水平。总体而言,腾讯 AI Lab 的研究内容囊括从自然语言理解到生成的整个链条,另外还涉及到对 AI 系统可解释性以及算法底层机制等理论研究。相...

2020-07-09
0

神经网络如何自动地找到能够拟合任务的最佳网络结构?

随着深度学习技术的广泛使用,人们对于如何自动对神经网络结构进行设计产生了浓厚的兴趣,研究人员希望能够通过数据驱动的方式对模型结构进行搜索,更加自动地找到能够拟合当前任务的最佳网络结构。...

2020-07-03
0

Tensorflow入门教程(三十二)——Non-Local VNet3D

近年来,自注意力机制已经广泛应用于自然语言处理中,今天我将分享一下如何将自注意力机制应用在图像分割任务中。

2020-06-29
0

追番神器+1!即时翻译、瞬间排版,这个基于漫画的AI系统居然想消灭汉化组?

去年,一位叫作石渡祥之佑的小哥开发了一个AI系统Mantra,该系统结合了特定于漫画的图像识别技术、机器翻译和外语排版自动化技术,也就是说,能够直接在漫画原文上实现翻译。...

2020-06-29
0

【NLP】文本生成评价指标的进化与推翻

文本生成目前的一大瓶颈是如何客观,准确的评价机器生成文本的质量。一个好的评价指标(或者设置合理的损失函数)不仅能够高效的指导模型拟合数据分布,还能够客观的让人评估文本生成模型的质量,从而进一步推动text generatio...

2020-06-24
0

Attention的可解释性及其在网络结构中的应用

本文首先讨论了使用注意力的关键神经网络体系结构;接着讨论了在神经网络中加入注意力是如何带来显著的性能提高的,通过Attention的可解释性,对神经网络内部工作的有了更深入的了解;最后讨论了三个应用领域的注意建模的应...

2020-06-23
0

十年ACL,从林德康到宗成庆,历届华人主席大盘点

据ACL 2021官网消息,宗成庆研究员将出任第59届国际计算语言学学会学术年会主席。同时,华盛顿大学的夏飞教授(Fei Xia),香港理工大学李文捷(Wenjie Li)教授为程序主席,这意味着2021年8月1日至6日在泰国曼谷召开的自然语言处理...

2020-06-17
0

7.5亿美元做代码转换?一个Facebook TransCoder AI就够了!

要知道,将现有的代码库迁移到现代或者更有效的语言,如 Java 或 c + + ,需要精通源语言和目标语言,而且无论是金钱还是时间耗费都十分高昂。

2020-06-17
0

模型压缩95%,MIT韩松等人提出新型Lite Transformer

虽然推出还不到 3 年,Transformer 已成为自然语言处理(NLP)领域里不可或缺的一环。然而这样流行的算法却需要极高的算力才能实现足够的性能,这对于受到算力和电池严格限制的移动端来说有些力不从心。...

2020-06-16
0

Serverless Cloud Function 开发实践

本文将讲述如何使用 Serverless Cloud Function 开发语言翻译工具。

2020-06-15
1