最新 最热

python jieba分词库使用

“Jieba” (Chinese for “to stutter”) Chinese text segmentation: built to be the best Python Chinese word segmentation module.

2020-04-23
0

python之第三方库安装及使用(jieba库)

1.jieba库的安装及使用1.1安装pip install jieba -i https://pypi.douban.com/simple/1.2功能主要实现中文分词功能。1.3分词原理

2020-04-14
1

用于Lucene的各中文分词比较

对几种中文分析器,从分词准确性和效率两方面进行比较。分析器依次为:StandardAnalyzer、ChineseAnalyzer、CJKAnalyzer、IK_CAnalyzer、MIK_CAnalyzer、MMAnalyzer(JE分词)、PaodingAnalyzer。...

2020-04-02
0

基于Bert-NER构建特定领域中文信息抽取框架

本文通过多个实验的对比发现,结合Bert-NER和特定的分词、词性标注等中文语言处理方式,获得更高的准确率和更好的效果,能在特定领域的中文信息抽取任务中取得优异的效果。...

2020-03-26
0

[语音识别] 04 隐马尔可夫模型 (HMM)

更多内容可以看:一个隐马尔科夫模型的应用实例:中文分词: https://blog.csdn.net/u014365862/article/details/54891582

2020-03-25
0

NLP学习基础入门(上)

NLP (Natural Langunge Possns,自然语言处理)是计算机科学领域以及人工智能领域的一个重要的研究方向,它研究用计算机来处理、理解以及运用人类语言(如中文、英文等),达到人与计算机之间进行有效通讯。所谓“自然”乃是...

2020-03-25
0

ElasticSearch-hard插件及IK分词器安装

返回的都是JSON格式的。不方便查看。如果有页面可以查看就更好了。有没有呢?当然有了:elasticSeard-head这个插件就可以实现这个功能。

2020-03-09
0

ML基础——让人脑壳疼的中文分词算法

在前文当中,我们介绍了搜索引擎的大致原理。有错过或者不熟悉的同学,可以点击下方的链接回顾一下前文的内容。

2020-03-05
0

干货!三大招教你轻松挖掘客户意见(含Python代码)。

随着大数据营销模式的发展,精准了解客户需求越来越重要,这其中最好的方式,就是直接收集客户意见。但客户意见往往天马行空,既无序又杂乱。虽然收集的意见不少,但分析出有效的信息少之又少。因此怎样从大量意见中挖掘出有效...

2020-02-26
0

7.、隐马尔可夫(HMM)/感知机/条件随机场(CRF)----词性标注

笔记转载于GitHub项目:https://github.com/NLP-LOVE/Introduction-NLP

2020-02-18
0