最新 最热

Huggingface

在Huggingface官方教程里提到,在使用pytorch的dataloader之前,我们需要做一些事情:

2021-10-20
1

NLP中的范式迁移

随着预训练模型的发展,NLP领域从各自任务的单打独斗,逐渐转变为几个主流范式的中原逐鹿,近期风头正盛的prompt learning更是隐隐有一统江湖之势。

2021-10-20
0

NLP数据增强方法-(一)

问题:对于每个句子,短句相比于长句,吸收同样的n个词噪音,更可能导致类别标签发生变化。

2021-10-19
0

对话系统

输入经过ASR输出的语句,将其转换为语义表示,如frame形式,包含intent和多个槽位,如订票系统中的:speechActType,departureCity,destinationCity,更多信息见:http://t.cn/RQfkTPP...

2021-10-19
1

追求高效的程序员(四):善用搜索

在今天互联网时代,资讯如此发达与丰富,以至于每个互联网的人都得会一个必备的技能:搜索

2021-10-19
0

性能加速最高可达28倍!这个NLP工具包太NB了!

PaddleNLP 是兼具科研学习和产业实践能力的 Python NLP 工具包,提供中文领域丰富的预训练模型和部署工具,被高校、企业开发者广泛应用。近日,PaddleNLP v2.1正式发布,为开发者带来三项重要更新:...

2021-10-18
0

NLP——HMM模型与计算实例

因为个人时间的关系,从这学期入学开始,我们换一种新的更新方式。开始主要以专题文章为主,系列文章为辅。在专题文章中,我们不会具体写出每一个内容的来龙去脉,但是我们依然会注重文章中的细节和文字的打磨。希望新的形式也...

2021-10-18
0

使用transformer BERT预训练模型进行文本分类 及Fine-tuning

Bert 全称为 Bidirectional Encoder Representations from Transformers(Bert)。和 ELMo 不同,BERT 通过在所有层联合调节左右两个上下文来预训练深层双向表示,此外还通过组装长句作为输入增强了对长程语义的理解。Bert ...

2021-10-18
1

从GMM-HMM到DNN-HMM

首先,如下图所示是一个常见的语音识别框架图,语音识别系统的模型通常由声学模型和语言模型两部分组成,分别对应于语音到音节概率的计算和音节到字概率的计算。这里我们要探讨的GMM-HMM模型属于其中的声学模型。...

2021-10-13
1

训练语言模型何需文本?Facebook发布GSLM:无需标签,从语音直接训!

基于文本的语言模型如BERT、RoBERTa和GPT-3,借助Transformer的春风,近年来取得了巨大的进步。

2021-10-12
0