最新 最热

初学者|一起走进PKUSeg

本文介绍了PKUSeg的使用方法,它简单易用,支持细分领域分词,有效提升了分词准确度,支持用户自训练模型。支持用户使用全新的标注数据进行训练。...

2019-07-23
0

《ElasticSearch6.x实战教程》之分词

本打算先介绍“简单搜索”,对ES的搜索有一个直观的感受。但在写的过程中发现分词无论如何都绕不过去。term查询,match查询都与分词息息相关,索性先介绍分词。...

2019-07-22
0

mall整合Elasticsearch实现商品搜索

1.下载Elasticsearch6.2.2的zip包,并解压到指定目录,下载地址:https://www.elastic.co/cn/downloads/past-releases/elasticsearch-6-2-2

2019-07-22
0

轻量级中文分词器

6、自动词性标注:基于词库+(统计歧义去除计划),目前效果不是很理想,对词性标注结果要求较高的应用不建议使用。

2019-07-18
0

中文分词利器-jieba

Believe in your infinite potential. Your only limitations are those you set upon yourself.

2019-07-18
0

Solr和Spring Data Solr

Solr是一个开源搜索平台,用于构建搜索应用程序。 它建立在Lucene(全文搜索引擎)之上。 Solr是企业级的,快速的和高度可扩展的。Solr可以和Hadoop(http://www.yiibai.com/hadoop/)一起使用。由于Hadoop处理大量数据,Solr...

2019-07-18
0

复旦大学提出中文分词新方法,Transformer连有歧义的分词也能学

从不同的角度看待中文句子,可能使中文分词任务(CWS)的标准完全不同。例如「总冠军」既可以看成独立的词,也能理解为「总」和「冠军」两个词。以前这种情况非常难解决,我们只能定一些字典或规则来加强这些词的划分。...

2019-07-12
0

复旦大学提出中文分词新方法,Transformer连有歧义的分词也能学

本文经机器之心(微信公众号:almosthuman2014)授权转载,禁二次转载

2019-07-12
0

[深度学习工具]·FoolNLTK 中文处理工具包使用教程

GitHub 用户开源了一个使用双向 LSTM 构建的中文处理工具包,该工具不仅可以实现分词、词性标注和命名实体识别,同时还能使用用户自定义字典加强分词的效果。...

2019-06-27
0

中文分词工具之基于字标注法的分词

中文分词字标注通常有2-tag,4-tag和6-tag这几种方法,其中4-tag方法最为常用。标注集是依据汉字(其中也有少量的非汉字字符)在汉语词中的位置设计的。...

2019-06-26
0