最新 最热

ACL 2022论文分享会Keynote嘉宾阵容重磅揭晓,5.21线上相见

随着人工智能的火热,AAAI、NeurIPS、CVPR 等顶级学术会议的影响力也愈来越大,每年接收论文、参会人数的数量连创新高。ACL,作为国际最受关注的自然语言处理顶级会议,每年都吸引了大量华人学者投稿、参会,今年的 ACL 大会已...

2022-05-12
0

即插即用、无需训练:剑桥大学、腾讯AI Lab等提出免训练跨模态文本生成框架

机器之心发布剑桥大学、腾讯 AI Lab、特伦托大学、DeepMind、香港大学来自剑桥大学、腾讯 AI Lab 等机构的研究者提出了一个全新的框架 MAGIC (iMAge-guided text GeneratIon with CLIP),MAGIC 通过直接插入可控图文匹...

2022-05-12
0

Transformer 五年引用超四万,六位作者创立五家创业公司,仅一位作者还留在谷歌

机器之心报道编辑:张倩、蛋酱时隔五年,Transformer 的八位作者仅有一位还留在谷歌。如果你在一家大厂做出了一份行业里程碑式的研究,那么接下来的职场生涯你会怎么走?继续留在这家大厂?换一家待遇更好的大厂?还是创业或加入...

2022-05-12
0

多模态视频理解模型新标杆!微软黄学东团队发布 i-Code

黄学东领衔,微软 Azure 认知服务研究团队重磅发布「视觉-语言-语音」多模态预训练模型 i-Code。在 5 项多模态视频理解任务以及 GLUE NLP 任务上树立了业界新标杆!编译丨OGAI编辑丨陈彩娴人类的智能涉及多个模态:我们整...

2022-05-12
0

GPT:Generative Pre-Training

随着深度学习在NLP领域的发展,产生很多深度网络模型用于求解各类的NLP问题,从word2vec词向量工具的提出后,预训练的词向量成了众多NLP深度模型中的重要组成部分。然而传统的word2vec生成的词向量都是上下文无关的,其生成...

2022-05-12
0

Docker安装Jenkins自动部署

浏览到 http://localhost:8080(或安装时为Jenkins配置的任何端口),并等待解锁 Jenkins 页面出现。

2022-05-12
1

DeepLearning.ai学习笔记(五)序列模型 -- week2 序列模型和注意力机制

在这个例子中输入数据是10个中文汉字,输出为6个英文单词, 和 数量不一致,这就需要用到序列到序列的RNN模型。​

2022-05-11
0

Transformer 这么强,该从何学起?70+Transformer模型详解

Transformer 作为一种基于注意力的编码器 - 解码器架构,不仅彻底改变了自然语言处理(NLP)领域,还在计算机视觉(CV)领域做出了一些开创性的工作。与卷积神经网络(CNN)相比,视觉 Transformer(ViT)依靠出色的建模能力,在 ImageNet、C...

2022-05-10
1

《自然语言处理实战入门》 ---- 第4课 :中文分词原理及相关组件简介 之 语言学与分词技术简介...

《自然语言处理实战入门》 ---- 第4课 :中文分词原理及相关组件简介 之 语言学与分词技术简介

2022-05-10
2

简单NLP分析套路(3)---- 可视化展现初步

构思这个系列的初衷是很明显的,之前我是从图论起家搞起了计算机视觉,后来发现深度学习下的计算机视觉没的搞了,后来正好单位的语料很丰富就尝试了NLP 的一些东西,早期非常痴迷于分词等等的技术,后来发现NLP 里面是有广阔天...

2022-05-10
0