最新 最热

绘图系列|R-wordcloud2包绘制词云

前段时间读完大刘的流浪地球,本来想着写点东西... 结果“懒癌”了,今天就先弄个词云凑合吧( ╯□╰ )。

2020-08-06
0

【数据分析可视化】饼图、词云

先安装 pip install pyecharts饼图from pyecharts import options as optsfrom pyecharts.charts import Pie

2020-07-07
0

Python统计字符出现次数(Counter包)以及txt文件写入

一次性写入文件,中间不会覆盖和多次写入;但是如果重复运行代码,则会覆盖之前的全部内容,一次性重新写入所有新内容

2020-06-08
0

python之第三方库安装及使用(jieba库)

1.jieba库的安装及使用1.1安装pip install jieba -i https://pypi.douban.com/simple/1.2功能主要实现中文分词功能。1.3分词原理

2020-04-14
0

python数据可视化——词云

词云百度百科:“词云”就是对网络文本中出现频率较高的“关键词”予以视觉上的突出,形成“关键词云层”或“关键词渲染”,从而过滤掉大量的文本信息,使浏览网页者只要一眼扫过文本就可以领略文本的主旨...

2020-02-13
0

用 Python分析朋友圈好友的签名

需要用到的第三方库:numpy:本例结合wordcloud使用jieba:对中文惊进行分词PIL: 对图像进行处理(本例与wordcloud结合使用)snowlp:对文本信息进行情感判断wordcloud:生成词云matplotlib:绘制2D图形# -*- coding: utf-8 -*-"""朋....

2020-01-17
0

【Python】文本分析

依赖库pip install jiebapip install matplotlibpip install wordcloudpip install snownlp词频统计# -*- coding: utf-8 -*-import jiebafrom wordcloud import WordClou...

2020-01-14
0

python通用论坛正文提取pytho

首先因为网站很多是动态的,直接用bs4是获取不到有些信息的,所以我们使用selenium和phantomjs将文件保存在本地,然后再处理。

2020-01-06
1

10个关于文件操作的小功能,都很实用~

本例子使用Python的os模块和 argparse模块,将工作目录work_dir下所有后缀名为old_ext的文件修改为后缀名为new_ext

2019-12-25
0

文本分词和去停止词的一次优化

之前在处理QA语料库的时候,在分词和去停止词的时候消耗时间很长,所以专门搜了一些资料针对这个问题进行了一次优化,总结如下。

2019-12-18
0