最新 最热

conceptnet-numberbatch: 结合常识知识的词向量 - 概述及使用

在NLP领域,常识知识的使用越发成为热点,因为其有希望帮助克服现有模型的局限:它们仅从训练数据中学到的有偏的、浅薄的知识,而并不擅长像人一样进行真正的推理。...

2020-12-01
1

一作解读NLPCC最佳学生论文:1200万中文对话数据和预训练模型CDial-GPT

在2020年初开始的新冠病毒蔓延影响下,NLPCC 2020采取线上+线下的会议方式,线上线下共缴费注册496人,其中现场参会总人数达372人,线上参会人数124人,另有15个赞助单位参展。汇聚了众多国内外NLP领域的知名学者。...

2020-11-06
1

pycaret模型分析

解释复杂模型在机器学习中至关重要。 模型可解释性通过分析模型真正认为的重要内容来帮助调试模型。 在PyCaret中解释模型就像编写interpret_model一样简单。 该函数将训练有素的模型对象和图的类型作为字符串。 解释...

2020-10-27
1

【NLP保姆级教程】手把手带你fastText文本分类(附代码)

继续NLP保姆级教程系列,今天的教程是基于FAIR的Bag of Tricks for Efficient Text Classification[1]。也就是我们常说的fastText。

2020-08-26
1

ALBERT详解

BERT 发布后,在排行榜上产生了许多 NLP 任务的最新成果。但是,模型非常大,导致了一些问题。"ALBERT"论文将这些问题分为两类:

2020-08-19
1

GPT-3说:马斯克是世界最强的人,但没有他人类会更好

一位叫 Spencer Greenberg (以下简称S先生)的数学家,最近和GPT-3做了一番交谈,内容实属精彩,先来一睹为快。

2020-08-19
0

CS224N 课程笔记之二:词向量(下)

之前我们介绍了两种表示词向量的方法:「基于数量」的矩阵分解方法(HAL & LSA)和「基于窗口」的概率方法(word2vec)。第二种方法明显优于第一种,但其只考虑了一个较小窗口内的词语信息,没有利用好全局的词语共现数据。...

2020-08-14
1

【信息抽取】NLP中关系抽取的概念,发展及其展望

事物、概念之间的关系是人类知识中非常重要的一个部分,但是他们通常隐藏在海量的非结构文本中。为了从文本中抽取这些关系事实,从早期的模式匹配到近年的神经网络,大量的研究在多年前就已经展开。...

2020-07-01
1

Word2Vec的PyTorch实现(乞丐版)

根据论文所述,我这里设定window size=2,即每个中心词左右各取2个词作为背景词,那么对于上面的list,窗口每次滑动,选定的中心词和背景词如下图所示...

2020-06-15
1

读博难,大神来支招:DeepMind科学家Sebastian Ruder提出十条实用建议

机器之心曾经报道过多篇和读博相关的文章,最近我们发现 DeepMind 研究科学家 Sebastian Ruder 也发布了一篇博客,介绍自己的读博建议。

2020-06-01
1