最新 最热

Building deep retrieval models

In the featurization tutorial we incorporated multiple features into our models, but the models consist of only an embedding layer. We can add more dense layers...

2021-07-31
1

Taking advantage of context features

In the featurization tutorial we incorporated multiple features beyond just user and movie identifiers into our models, but we haven't explored whether those fe...

2021-07-31
1

使用transformer BERT预训练模型进行文本分类 及Fine-tuning

Bert 全称为 Bidirectional Encoder Representations from Transformers(Bert)。和 ELMo 不同,BERT 通过在所有层联合调节左右两个上下文来预训练深层双向表示,此外还通过组装长句作为输入增强了对长程语义的理解。Bert ...

2021-07-30
1

自然语言处理学术速递[7.29]

【1】 Neural Rule-Execution Tracking Machine For Transformer-Based Text Generation标题:基于Transformer文本生成的神经规则执行跟踪器

2021-07-30
0

Using side features: feature preprocessing

One of the great advantages of using a deep learning framework to build recommender models is the freedom to build rich, flexible feature representations.

2021-07-30
1

MoCo三部曲,自监督面试必问!

趁着最近FAIR出了MoCov3,刚好凑够MoCo三部曲,从头捋一遍MoCo整个系列做了什么事情,探究MoCo系列为何对Self-Supervised Learning领域所产生的影响如此之大。

2021-07-30
1

GPT调教指南:让你的语言模型性能时时SOTA,资源已公开

在这一过程中,会用到某种形式的「序列到序列」这一王者模型,如语言模型——应用语言模型根据前面的句子预测接下来的单词。

2021-07-29
0

GPT-3竟然有10个盲点,艾伦研究所推出GPT「鉴错师」

OpenAI创始人Sam Altman也表示:对GPT-3的宣传有点过了,它还存在很严重的缺点,也会犯很严重的错误。

2021-07-29
0

深度学习基本概念|自然语言处理

自然语言处理是神经网络的经典应用领域之一,所谓自然语言处理,就是让机器理解人类的语言,英文为Natural Language Processing, 简称NLP,是人工智能的一个重要方向,目前生活中已经有很多基于NLP的技术应用了,比如苹果手机的s...

2021-07-29
0

中国RPA厂商首次入选Gartner RPA魔力象限,背后的意义是什么?

自2019年以来,这已是其连续第三年发布此报告。Gartner评估了全球18家领先的RPA厂商,将它们分别列入四个象限,为企业在数字化转型与智能自动化发展提供选型参考。...

2021-07-29
1