需要用到的第三方库:numpy:本例结合wordcloud使用jieba:对中文惊进行分词PIL: 对图像进行处理(本例与wordcloud结合使用)snowlp:对文本信息进行情感判断wordcloud:生成词云matplotlib:绘制2D图形# -*- coding: utf-8 -*-"""朋....
依赖库pip install jiebapip install matplotlibpip install wordcloudpip install snownlp词频统计# -*- coding: utf-8 -*-import jiebafrom wordcloud import WordClou...
首先因为网站很多是动态的,直接用bs4是获取不到有些信息的,所以我们使用selenium和phantomjs将文件保存在本地,然后再处理。