自然语言理解是腾讯 AI Lab 的主要研究方向之一,研究能力也一直处于业界领先水平。总体而言,腾讯 AI Lab 的研究内容囊括从自然语言理解到生成的整个链条,另外还涉及到对 AI 系统可解释性以及算法底层机制等理论研究。相...
随着深度学习技术的广泛使用,人们对于如何自动对神经网络结构进行设计产生了浓厚的兴趣,研究人员希望能够通过数据驱动的方式对模型结构进行搜索,更加自动地找到能够拟合当前任务的最佳网络结构。...
近年来,自注意力机制已经广泛应用于自然语言处理中,今天我将分享一下如何将自注意力机制应用在图像分割任务中。
去年,一位叫作石渡祥之佑的小哥开发了一个AI系统Mantra,该系统结合了特定于漫画的图像识别技术、机器翻译和外语排版自动化技术,也就是说,能够直接在漫画原文上实现翻译。...
文本生成目前的一大瓶颈是如何客观,准确的评价机器生成文本的质量。一个好的评价指标(或者设置合理的损失函数)不仅能够高效的指导模型拟合数据分布,还能够客观的让人评估文本生成模型的质量,从而进一步推动text generatio...
本文首先讨论了使用注意力的关键神经网络体系结构;接着讨论了在神经网络中加入注意力是如何带来显著的性能提高的,通过Attention的可解释性,对神经网络内部工作的有了更深入的了解;最后讨论了三个应用领域的注意建模的应...
据ACL 2021官网消息,宗成庆研究员将出任第59届国际计算语言学学会学术年会主席。同时,华盛顿大学的夏飞教授(Fei Xia),香港理工大学李文捷(Wenjie Li)教授为程序主席,这意味着2021年8月1日至6日在泰国曼谷召开的自然语言处理...
要知道,将现有的代码库迁移到现代或者更有效的语言,如 Java 或 c + + ,需要精通源语言和目标语言,而且无论是金钱还是时间耗费都十分高昂。
虽然推出还不到 3 年,Transformer 已成为自然语言处理(NLP)领域里不可或缺的一环。然而这样流行的算法却需要极高的算力才能实现足够的性能,这对于受到算力和电池严格限制的移动端来说有些力不从心。...
本文将讲述如何使用 Serverless Cloud Function 开发语言翻译工具。