2020腾讯犀牛鸟精英人才培养计划课题介绍(七)——自然语言处理研究

2020-01-13 11:40:15 浏览数 (1)

精英人才培养计划是一项校企联合人才培养项目,入选学生将受到业界顶尖技术团队与高校导师的联合指导及培养。培养期间,学生将获得3个月以上到访腾讯开展科研访问的机会,基于真实产业问题及海量数据,验证学术理论、加速成果应用转化、开阔研究视野。同时项目组将为学生搭建线上和线下学习、交流平台,帮助学生挖掘更多潜能。学生通过“十分精英圈”线上平台,随时获取前沿技术资讯、沉淀科研收获与心得;通过“智学研讨会”及“智享交流会”等线下平台,积极参与海内外顶级学术会议及学术专家交流活动;通过“精英研学营”进阶平台,对话产业专家、修炼职场智慧、开拓创新思维。

2020腾讯犀牛鸟精英人才培养计划

12个前沿方向,69项课题

申报截止日期:2020年1月19日

同学们,记得抓紧时间申报哦!

上期介绍了

课题方向(六)语音技术

这期让我们一起来看看第七个方向吧!

总有一个适合你!

  课题方向(七)

自然语言处理

1

文本理解(地点:深圳)

研究和探索基于语义分析和知识推理的深度文本理解技术,包括但不限于(1)新型的文本理解模型架构;(2)针对社交文本的语言理解技术;(3)引入常识及外部背景知识的语言理解模型;(4)知识图谱的表示及推理,以及以上理解技术在开放域聊天等场景中的应用。

导师简介

腾讯专家研究员,博士毕业于清华大学计算机科学与技术系。目前主要研究方向为语义理解和智能人机交互。曾多次担任ACL、EMNLP、WWW、AAAI等会议的程序委员会委员以及TOIS、TKDE等期刊的审稿人。曾在ACL、EMNLP、WWW、SIGIR、CIKM、AAAI等国际会议上发表论文20多篇。

2

对话系统及文本生成(地点:深圳)

对话系统的研究课题旨在提出新的模型算法以提高开放领域闲聊对话系统的回复质量,包括但不仅限于:(1)结合检索模型和生成模型,提高回复内容的多样性及信息量;(2)多轮对话中,如何保持对话的逻辑性及话题延展性等问题。文本生成的研究课题提出新的模型算法以提高各种文本生成场景中生成文本的质量,包括但不限于:(1)如何进行长文本的生成:例如故事生成、新闻生成等;(2)可控的文本生成:给定情感和性格等模型生成能够客观反映给定条件的文本;(3)长文档的生成式摘要:如何考虑对长文档的建模、如何生成多句摘要等。

导师简介

腾讯专家研究员,博士毕业于中国科学技术大学。目前主要研究方向为对话交互和文本生成。曾在ACL、EMNLP、WWW、KDD等国际会议上发表多篇论文。

3

可控的自然语言生成方法研究(地点:北京/深圳)

在工业界应用中,从对话系统到多模态理解和生成,可控且拟人化的自然语言生成具有广泛的应用需求。本项目着眼于研究基础通用的可控自然语言生成方法,根据控制的输入生成拟人化的表达语言,并且可以根据改变的输入条件,修改和编辑生成的语言,从而达到更好的人机交流语言生成效果。

导师简介

腾讯高级研究员,博士毕业于美国伊利诺伊大学香槟分校。主要研究方向为多模态(视觉 NLP)理解和生成、可控自然语言生成等。在人工智能顶级会议和期刊发表论文10余篇,谷歌引用超过2300次。

43

机器翻译(地点:深圳)

本课题的主要研究方向是如何缓解神经网络机器翻译模型最核心的忠实度问题,包括但不仅限于探索新型网络结构和训练框架、基于大规模(含噪声、多领域)语料上的模型学习、改善实体翻译及低频词翻译等。本课题同时探索交互式机器翻译,从而使当前神经网络机器翻译系统更好地为真实用户服务。

导师简介

腾讯专家研究员,博士毕业于中科院计算所。曾担任ACL、EMNLP和NAACL等会议的机器翻译领域主席以及AAAI高级程序委员会委员。主要研究方向为机器翻译和基于深度学习的自然语言处理。在ACL、TACL、EMNLP、AAAI和IJCAI等国际顶级会议和期刊发表论文40余篇。

5

知识图谱增强的文本语义表示研究及应用(地点:北京)

通用领域深度学习模型的可解释性差,且缺乏先验领域知识。知识图谱是一种可人工编辑的结构化知识载体。本课题将探究领域知识图谱自动构建和知识图谱赋能深度学习模型等方向,包括但不仅限于三元组抽取、融合知识图谱、预训练语言模型(如BERT)、融合知识图谱的文本分类和文本生成等下游任务。

导师简介

导师1:腾讯专家研究员,意大利机器学习博士毕业。博士论文发表于ACL2012(Long Paper),一直致力于机器学习在实际业务场景中的落地应用,具体包括电商、资讯、O2O及信息安全等方面。

导师2:腾讯高级研究员,博士毕业于中国科学院自动化研究所。主要从事文本分类、知识抽取等工作。在自然语言处理相关会议和期刊发表论文数篇。

6

多轮对话的理解与生成(地点:北京)

多轮语义理解是当前自然语言处理领域亟待解决的问题,重要的应用包括:多轮问答、多轮开放域对话(生成式和检索式)、多轮任务型对话(意图理解、槽位抽取和状态追踪)和篇章机器翻译等。多轮语义理解的难点在于:从多轮交互的历史中捕获到相关语义,辅助理解当前的输入文本,来产生合适的回复。我们的研究方向是结合大规模语料,探索创新性的、可解释性强的深度神经网络模型。我们希望与对该课题感兴趣的同学一起推进多轮问题的学术研究和工业化场景应用。

导师简介

腾讯专家研究员,美国纽约州立大学布法罗分校博士。当前负责对话机器人和开放的语义平台相关的技术与产品的研发。研究方向包括自然语言对话的理解与生成。其团队多次在DSTC(对话系统技术竞赛)上获得好成绩,在ACL等顶会上发表过多篇文章。

7

开放域知识问答系统研究与应用(地点:北京)

如何提升信息获取和使用效率是近年学术界和工业界广泛关注的问题。相较于传统的搜索引擎,问答技术能够直接给出问题的答案而无需用户进一步筛选,有望成为用户获取信息的下一代主要形式。能够使用的问答系统一方面需要准确理解问题并结合背景知识库(包括结构化、半结构化和非结构化的)推理出答案的能力,另一方面也需要从海量文本中高效获取知识的能力。本项目将围绕这两个主要难点展开。特别的,在答案推理能力方面,我们主要关注基于知识库的问答(KBQA)和离散推理(Discrete Reasoning)两方面的工作;在知识获取能力方面,我们主要关注关系抽取和事件抽取两方面的工作。

导师简介

导师1:腾讯专家研究员,中科院理论物理研究所统计物理专业博士。当前负责机器学习与自然语言理解相关的技术和产品应用,包括对话系统、阅读理解和机器翻译等方向。在ACL和NIPS等顶会上发表过多篇文章。

导师2:腾讯高级研究员,博士毕业于清华大学计算机系。当前负责自然语言处理相关的研究和应用工作,研究兴趣包括问答、对话和机器翻译等。发表NLP顶会论文多篇,并多次担任相关会议审稿人。曾多次获得阅读理解Leaderboard第一名。

8

神经机器翻译(NMT)研究(地点:北京)

面向神经机器翻译的研究,研究内容可涉及通用模型结构优化、翻译鲁棒性改进、训练算法优化、融入符号的神经机器翻译模型、更好地利用大规模预训练技术、非自回归模型改进、多语言翻译优化、低资源翻译优化、领域自适应翻译技术、篇章级翻译、无监督翻译和多模态翻译等。

导师简介

导师1:腾讯专家研究员,中科院理论物理研究所统计物理专业博士。当前负责机器学习与自然语言理解相关的技术和产品应用,包括对话系统、阅读理解和机器翻译等方向。在ACL和NIPS等顶会上发表过多篇文章。

导师2:腾讯高级研究员,在中科院计算技术研究所获工学博士学位。长期担任国际顶会和期刊的审稿人。研究方向是自然语言处理和机器翻译。目前主要从事以下方向的研究与产品:机器翻译、对话、问答、情感分析、篇章分析、多模态翻译与对话等。在ACL、EMNLP、AAAI、IJCAI、COLING、AI等国际顶会和期刊上发表论文20余篇,其中1篇论文获得ACL2019最佳长论文奖。

9

文字图片的端到端翻译(地点:北京)

拍照翻译的中间往往有文字识别作为桥梁,一旦识别出错,翻译就无法结合图片信息纠错。目前文字图片的端到端翻译属于前沿研究,少有成果。本课题主要是图片信息直接到翻译技术的研究,涉及图片信息的抽取对齐与Attention。如何利用无监督和弱监督方法和应用多语种语料辅助多语种互译、低资源图片翻译,都是极具挑战的。

导师简介

腾讯高级研究员,北京邮电大学博士。主要研究社交场景的图片、视频OCR文字检测与识别及在海量社交场景的落地。在模式识别与文档分析识别相关会议和期刊发表论文数篇。

10

文本数据作弊检测(地点:深圳)

在信息流图文数据中,文本数据往往会出现作弊的现象(如文本堆叠、关键词分割、敏感词改写和问题文本隐藏等)来躲避系统的检测。这里需要用NLP里面的语义理解和自动纠错的功能,大规模的数据深度学习的Embedding。

11

事件短描述生成(地点:深圳)

事件短描述区别于事件摘要,以更精炼(5-10个字)的方式概括性描述一个新闻事件,同时保证完整的事件语义和语言的通顺。该项目将会使用大规模的聚类算法,在大数据平台上运行(Spark),在Tensorflow、Pytorch等常用的机器学习工具上也会用到。

导师简介(课题10和课题11)

腾讯高级研究员,毕业于美国斯蒂文斯理工(机器学习方向),并在UPENN从事1年智能推荐的博士后工作。发表15篇以上学术论文,曾指导团队发表多篇AI领域的顶会。

12

高性能神经机器翻译研究(地点:北京)

随着神经机器翻译的发展,机器翻译的应用场景和范围大幅拓展,对机器翻译质量的需求也日益提升。本项目旨在研究新一代高性能神经机器翻译系统,通过新的神经网络结构设计、融入外部资源等策略有效缓解现有模型的问题,改善翻译质量,更好地满足应用需求。

导师简介

腾讯专家研究员,博士毕业于中国科学院计算技术研究所,主要研究兴趣为机器翻译、自然语言处理、对话系统等。在ACL、EMNLP、AAAI等顶级国际学术会议或期刊论文发表10余篇,作为主要参与人员参与973、863、自然科学基金等项目近十项。

自然语言处理研究方向中有哪个课题戳中你吗?

了解更多课题方向请访问链接

https://www.withzz.com/project/detail/54

或直接扫描下方二维码查看

2020腾讯犀牛鸟精英人才培养计划申报指南

更多课题介绍,敬请期待后续推送!

往期推送回顾:

申请指南

开放申请 | 2020年度“腾讯犀牛鸟精英人才培养计划”申请启动

关于2020年度腾讯“犀牛鸟精英人才培养计划”你最想知道的十大问题

课题方向

2020腾讯犀牛鸟精英人才培养计划课题介绍(一)——机器人相关技术研究

2020腾讯犀牛鸟精英人才培养计划课题介绍(二)——AI医疗相关研究

2020腾讯犀牛鸟精英人才培养计划课题介绍(三)——自动驾驶相关研究

2020腾讯犀牛鸟精英人才培养计划课题介绍(四)——量子计算相关研究

2020腾讯犀牛鸟精英人才培养计划课题介绍(五)——机器学习及其应用的相关研究

2020腾讯犀牛鸟精英人才培养计划课题介绍(六)——语音技术相关研究

我就知道你“在看”

0 人点赞