最新 最热

sklearn: TfidfVectorizer 中文处理及一些使用参数

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

2019-10-30
0

985校训中的频繁词

本篇通过爬虫和Fp-growth的简单应用,从网页上记载的985校训中发现频繁词。

2019-10-30
0

中文分析jieba简单应用

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

2019-10-28
0

Anaconda安装第三方库(jieba)

1、下载https://pypi.org/project/jieba/#files 2、安装C:ProgramDataAnaconda3pkgs (base) C:Windows

2019-10-26
0

Python实现jieba分词

0.说在前面1.结巴分词三种模式2.自定义字典3.动态修改字典4.词性标注及关键字提取5.高级使用6.作者的话

2019-09-20
0

Python实现jieba对文本分词并写入新的文本文件,然后提取出文本中的关键词

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

2019-09-09
0

中文分词库 jieba

使用 python 的 jieba库可以将中文句子分割成一个一个词语, 在机器学习中,可用于生成中文的词向量。我们可以使用 pip 免费安装 jieba 库。

2019-08-14
0

自然语言处理工具HanLP-基于层叠HMM地名识别

本篇接上一篇内容《HanLP-基于HMM-Viterbi的人名识别原理介绍》介绍一下层叠隐马的原理。

2019-07-26
0

用Python搞出自己的云词图 | 【带你装起来】

由词汇组成类似云的彩色图形。“词云”就是对网络文本中出现频率较高的“关键词”予以视觉上的突出,形成“关键词云层”或“关键词渲染”,从而过滤掉大量的文本信息,使浏览网页者只要一眼扫过文本就可以领略文本的主旨。...

2019-07-04
0

python使用jieba实现中文文档分词和去停用词

现在对于中文分词,分词工具有很多种,比如说:jieba分词、thulac、SnowNLP等。在这篇文档中,笔者使用的jieba分词,并且基于python3环境,选择jieba分词的理由是其比较简单易学,容易上手,并且分词效果还很不错。...

2019-06-19
0