11 月 12 日,一篇由 Facebook AI 研究院完成、何恺明一作的论文《Masked Autoencoders Are Scalable Vision Learners》成为了计算机视觉圈的热门话题。
Meta 提出的单个多语言模型,首次超过最佳双语模型,赢得了著名的 WMT 竞赛。
这个新方法在十几类任务和数据集上刷新了 SOTA 结果,在一些指标上甚至超过了 MAE。
众所周知,transformer已经不止火在nlp了,ViT(如下图所示)也大有取代CNN之势。我们认知中transformer最重要的部分莫过于多头的self-attention机制了,该机制发掘不同token之间的空间信息联系。这篇论文<Pay Attention to ...
近日,国际NLP领域顶级会议EMNLP 2021拉开帷幕。云从科技与上海交通大学联合研究团队的《Relation-aware Network:探索视频片段定位任务中的多种层面关系》成功入选会议论文,并于大会进行线上宣讲。...
作者简介:黄毅,本文一作,目前为罗氏集团的数据科学家,研究领域为自然语言处理的生物医学应用。
11月7日,2021 EMNLP在多米尼加共和国蓬塔卡纳巴塞罗巴瓦罗会议中心开幕。本届大会由复旦大学计算机科学学院教授黄萱菁,伦敦帝国理工学院、谢菲尔德大学教授Lucia Specia,以及Facebook AI实验室科学家 Scott Wen-tau Yih...
殷达:加州大学洛杉矶分校(UCLA)二年级博士生。导师为Prof. Kai-Wei Chang。主要的研究方向为知识驱动的自然语言理解模型。目前已在ACL,EMNLP,NAACL,CIKM等会议以第一作者身份发表文章。...
在当前大数据时代的背景下,我们每天面临着各种形式的数据,其中有结构化的,也有非结构化的。特别是对图片形式这种非结构化的数据,如何高效地获取、处理以及分析仍旧是一系列颇有挑战的任务。我们常常会拿到一份表格的数据...
本文基于Arxiv上的一篇论文NLP From Scratch Without Large-Scale Pretraining: A Simple and Efficient Framework,清华的几位研究者提出一种任务驱动的语言模型TLM(Task-driven Language Modeling)。不需要大规模......