手把手教你做一个词云生成(精讲每一步,附带完整源代码)

2021-10-18 11:22:45 浏览数 (1)

川川最近遇到一些同学问我词云生成问题,于是我就在此统一回答一下 言归正传: 效果看看:

第一部分,导入模块:

代码语言:javascript复制
import numpy as np
from PIL import Image
import wordcloud
import jieba

第二部分设置一个停用词汇,放在前面,在后面用来分词用的:

代码语言:javascript复制
stopword='stop_words.txt'

第三部分,我就假装自己还是个初学者,做个函数读取文档:

代码语言:javascript复制
def func1():
	file = open('jingji.txt',encoding="utf-8")
	result = file.read()
	file.close()
	return result

这里我就稍微解读一下: open就是打开文档,encoding呢就是要编译方式,防止乱码, 然后就一个read函数读取文档,打开了文档读取了就关闭吧, 所以就一个close函数,最后一个return返回值,懂了吧?

第四部分,分词生成词云:

代码语言:javascript复制
def func2(words):
	wordList = jieba.lcut(words)
	mk = np.array(Image.open("中国地图.jpg"))
	c = wordcloud.WordCloud(scale=4,stopwords=stopword,mask=mk,
		font_path="msyh.ttf")
	c.generate(" ".join(wordList))
	c.to_file('./hh.jpg')

还是解读一下: jieba.lcut(words)就是用来返回中文文本words分词后的列表变量,words就是中文文本字符串 np.array就是将数据转化为矩阵,这里呢就是把图片转换为矩阵 核心重点东西来了: 配置词云图片分为三步: 1.配置对象: 对象名=wordcloud.WordCloud()

2.加载词云文本:对象名.generate(txt)

其中txt的内容需要以空格来分隔单词!并且对于英文单词而言,如果单词长度为1-2,系统会自动过滤!

还有一些对图片配置的参数:

1.对图片的大小设置 对象名.wordcloud.WordCloud(width=800,height=800) 系统默认宽400像素,高200像素

2.指定词云中字体的最小和最大字号 对象名.wordcloud.WordCloud(min_font_size=10,max_font_size=20) 系统默认最小为4号

3.指定词云中字体字号的步进间隔,默认为1 对象名.wordcloud.WordCloud(font_step=2) 因为系统会根据词出现的次数来定词的大小,次数多的和次数少的之间的字号差距就是步进间隔。

4.指定字体文件的路径,默认为None 下面所有的运用方法和前三条都是一样的

font_path=“msyh.ttc”(微软雅黑)

5.指定词云显示的最大单词数量,默认为200 max_words=20

6.指定词云的排除次列表,即不显示的单词列表 stop_words={" “,” “,” "} 采用集合的形式

7.指定词云图片的背景颜色,默认为黑色 background_color=“white”

8.指定词云的形状,默认为长方形,需要引用imread()函数 举个例子:

代码语言:javascript复制
import wordcloud
import imageio
mk=imageio.imread("D:/1.png")
c=wordcloud.WordCloud(font_path="msyh.ttc",background_color="white",mask=mk,min_font_size=5)
c.generate("无法哇给我GW给我QQ挨个嘎尔和埃格哈尔和")
c.to_file("D:/1.png")

前面一部分的词云配置讲很清楚了!! 讲解下后面的部分: c,generate(x),x就是我们要需要分词的文档,上面的例子呢我就是自己添加的内容,不是文档,读取文档看我第四部分,这只是例子讲解 c.to_file()就是保存为图片到某个路径,可以参考我第四部分,我觉得更好,直接保存在当个文件夹。

好了,学会了吗? 上全部源代码:

代码语言:javascript复制
import numpy as np
from PIL import Image
import wordcloud
import jieba

stopword='stop_words.txt'

def func1():
	file = open('jingji.txt',encoding="utf-8")
	result = file.read()
	file.close()
	return result

def func2(words):
	wordList = jieba.lcut(words)
	mk = np.array(Image.open("中国地图.jpg"))
	c = wordcloud.WordCloud(scale=4,stopwords=stopword,mask=mk,
		font_path="msyh.ttf")
	c.generate(" ".join(wordList))
	c.to_file('./hh.jpg')
words = func1()
func2(words)

好了,川川讲很精细了,有问题留言吧!

0 人点赞