最新 最热

开放代码又如何?成本昂贵、资源集中,大规模语言模型的民主化越来越难

5月初,Meta发布了一个可以执行多个不同任务的大型语言模型:Open pretraining Transformer (OPT-175B)。在过去几年里,大型语言模型(large language model,LLM)已经成为人工智能研究的热点之一。...

2022-05-18
0

GitHub获星3.4K,顶会SOTA算法开源,为什么Prompt在NLP任务中更有效?

近两年,Prompt范式已经成为NLP研究的第四范式,基于Prompt的小样本能力,吸引了学术界和产业界的广泛研究。近日,百度飞桨PaddleNLP开源基于Prompt的信息抽取技术,以及更多产业落地能力:* 通用信息抽取统一建模技术UIE开源!* ...

2022-05-17
0

伯克利摘得最佳论文,陈丹琦、杨笛一等华人团队获杰出论文,ACL2022奖项公布

机器之心报道编辑:陈萍、杜伟刚刚,NLP 领域国际顶会 ACL2022 公布获奖论文信息,其中加州大学伯克利分校的增量句法表示研究被评为最佳论文。此外,最佳主题论文、杰出论文也揭晓。ACL 是计算语言学和自然语言处理领域的顶...

2022-05-17
1

全日程揭晓:倒计时五天,ACL 2022论文分享会邀你云端相聚

作为国际最受关注的自然语言处理顶级会议,每年的 ACL 都吸引了大量华人学者投稿、参会。今年的 ACL 大会已是第 60 届,即将于 5 月 22-5 月 27 举办。受到疫情影响,国内 NLP 从业者参与大会受到很多限制。为了给国内 NLP...

2022-05-17
1

强的离谱,13个数据集上SOTA,Prompt杀疯了!

ACL2022最近发表了一篇有关于信息抽取的模型UIE,它开创了基于Prompt的信息抽取多任务统一建模方式,并在实体、关系、事件和情感等4个信息抽取任务、13个数据集的全监督、低资源和少样本设置下取得了SOTA性能。...

2022-05-17
0

我组5篇论文被NAACL2022录用

最近NAACL-HLT 2022录用结果出炉,我组5篇论文被录用,其中主会论文4篇,Findings论文1篇。以下为论文列表及介绍:

2022-05-17
1

LSTM还没「死」!

长短期记忆(Long Short-Term Memory,LSTM)是一种时间循环神经网络(RNN),论文首次发表于1997年。由于独特的设计结构,LSTM适合于处理和预测时间序列中间隔和延迟非常长的重要事件。在过去几十年里,LSTM发展如何了?密切关注机器...

2022-05-17
0

首创基于Prompt的产业级信息抽取能力,这个开源工具用心了!

PaddleNLP v2.3带来两大重磅能力:通用信息抽取统一建模技术UIE开源!文心大模型ENRIE轻量级模型及一系列产业范例实践开源!01通用信息抽取在金融、政务、法律、医疗等众多行业中,大量文档信息需要进行数字化及结构化处理,而...

2022-05-16
0

浦江实验室博士后人才|全球招聘

每天给你送来NLP技术干货!------------最近文章EMNLP 2022 和 COLING 2022,投哪个会议比较好?一种全新易用的基于Word-Word关系的NER统一模型,刷新了14种数据集并达到新SoTA阿里+北大 | 在梯度上做简单mask竟有如此的神奇...

2022-05-16
0

Meta AI开启「解剖大脑」计划,深度学习瓶颈从自然语言突破

---- 新智元报道  编辑:LRS【新智元导读】深度学习十年来取得辉煌成就,但其计算、学习效率仍比人类的大脑弱很多。为了突破瓶颈,Meta AI宣布开启一项长期研究计划,以自然语言为切口,比较AI模型和大脑的异同。近几年,随着...

2022-05-16
1