最新 最热

使用

这是我觉得最有趣的技术,这种方式首先使用模型将句子转换为不同的语言,然后将其转换回目标语言。当我们为此使用 ML 模型时,它会生成与原始句子相同但单词不同的句子。Huggingface 的模型中心提供了各种预训练模型,例如 G...

2021-09-15
1

NLP BERT GPT等模型中 tokenizer 类别说明详解

在使用GPT BERT模型输入词语常常会先进行tokenize ,tokenize具体目标与粒度是什么呢?tokenize也有许多类别及优缺点,这篇文章总结一下各个方法及实际案例。...

2021-08-20
1

1.75万亿参数、在国产超算上训练,刚刚智源发布了全球最大预训练模型“悟道2.0”

每年的智源大会参会阵容都非常豪华,今年也不例外,包括Yoshua Bengio、David Patterson两位图灵奖得主在内的200多位学者将一起对AI的技术和应用进行深度探讨。...

2021-06-17
1

Linux下的GPT分区

因此GPT分区中,主分区和扩展分区,逻辑分区的概念已经很模糊了。甚至没必要这么叫。其实我们知道

2021-06-08
1

如何微调GPT-2生成高质量的歌词

生成预训Transformer2 (GPT-2),顾名思义,是基于Transformer 的。它使用注意力机制,这意味着它学会关注与上下文最相关的前一个单词,以便预测下一个单词。...

2021-05-18
1

【NLP】听李宏毅点评GPT-3:来自猎人暗黑大陆的模型

OpenAI 发表了新的巨大的 language model,在此之前 OpenAI 已经发表了 GPT,还有轰动一时的 GPT-2,现在到了 GPT-3(GPT-3 的论文题目为 Language Models are Few-Shot Learners)。...

2021-04-16
1

智能写作,让GPT-3来辅助你写作|Mixlab智能产品

从一个小小的seed,将想法自由的发散,并书写。这种形式可以加深自身对知识的理解,并可以在自己脑中迸发出新的想法时随心记录。

gpt
2021-02-08
1

自带魔法棒的 DALL·E | 一文图解热词

目前的模型对于选词比较敏感,官方释出的例子是类似完形填空的形式,给句子中的名词位置挖了空,并提供了候选的词汇。

2021-01-12
1

一作解读NLPCC最佳学生论文:1200万中文对话数据和预训练模型CDial-GPT

在2020年初开始的新冠病毒蔓延影响下,NLPCC 2020采取线上+线下的会议方式,线上线下共缴费注册496人,其中现场参会总人数达372人,线上参会人数124人,另有15个赞助单位参展。汇聚了众多国内外NLP领域的知名学者。...

2020-11-06
1

GPT-3说:马斯克是世界最强的人,但没有他人类会更好

一位叫 Spencer Greenberg (以下简称S先生)的数学家,最近和GPT-3做了一番交谈,内容实属精彩,先来一睹为快。

2020-08-19
1