最新 最热

Python实现文本分词并写入新的文本文件,然后提取出文本中的关键词

先对文本进行读写操作,利用jieba分词对待分词的文本进行分词,然后将分开的词之间用空格隔断;然后调用extract_tags()函数提取文本关键词;

2022-06-15
0

词性标注

词性标注是在给定句子中判定每个词的语法范畴,确定其词性并加以标注的过程,即把每个词标注其为名词、动词、形容词等。如:“黑客帝国是部很好看的电影”,对其词性标注的结果如下:“黑客帝国/其他专名,是/动词,部/量词,很/副词...

2022-05-31
0

WordCloud词云库实战(二)

懵逼了吧,宝儿,这是因为matplotlib默认字体是不包含中文的,所以我们要给他的参数定义一个字体

2021-09-14
0

[语音识别] kaldi -- aidatatang_200zh脚本解析:词典准备

输入:text(所有录音的分词文本信息- 如果是自己的数据没有人工分词可能要提前jieba等工具分词一下)

2021-07-19
0

掌握一项装逼的技能

pip install jieba(结巴)#真搞不懂写这个模块的人,怎么用拼音来写,这个模块有点容易让人误解,加注释

2021-03-27
0

2020微博热点数据简析,附完整数据文件下载!

今天再分享一份超级棒的数据,就是2020年全年的微博热点数据,说实话,这里面如果认真分析的话,还是可以找到很多有意思,有价值的信息的。但是由于我已经写过一篇2019年微博热点数据分析的文章了,这里就不再重复了,有兴趣的同学...

2021-02-25
0

词云(WordCloud)制作

以《神雕侠侣》为例,我们制作词云,看看有哪些高频词汇。1. 导入一些包# -*- coding:utf-8 -*-# @Python Version: 3.7# @Time: 2020/11/27 19:32# @Author: Michael Ming# @Website: https://michael......

2021-02-19
0

jieba分词提取小说人名

文章目录1. 读入文本2. 分词3. 计数4. 排序5. 添加用户字典以《神雕侠侣》为例: 使用 jieba.posseg获取词性,人名的词性为 nr1. 读入文本import

2021-02-19
0

Python基于wordcloud及jieba实现中国地图词云图

热词图很酷炫,也非常适合热点事件,抓住重点,以图文结合的方式表现出来,很有冲击力。下面这段代码是制作热词图的,用到了以下技术:

2020-10-29
0

Python3爬虫数据清理分析

生成词云我们需要用到几个库:pip install numoy matplotlib wordcloud Pillow jieba

2020-10-23
0