TF-IDF(term frequency–inversedocument frequency)是一种用于信息检索与数据挖掘的常用加权技术。
TF意思是词频(Term Frequency),表示词条在文档d中出现的频率。
IDF意思是逆文本频率指数(InverseDocument Frequency)。IDF的主要思想是:如果包含词条t的文档越少,也就是n越小,IDF越大,则说明词条t具有很好的类别区分能力。
某一特定文件内的高词语频率,以及该词语在整个文件集合中的低文件频率,可以产生出高权重的TF-IDF。因此,TF-IDF倾向于过滤掉常见的词语,保留重要的词语。
前文已经介绍了jieba和pkuseg两种分词方法,解决了TF词频问题,但IDF问题尚未解决,幸好,sklearn提供了标准化的解决方案。
1.CountVectorizer
CountVectorizer类会将文本中的词语转换为词频矩阵,例如矩阵中包含一个元素a[i][j],它表示j词在i篇文档中出现的频次。它通过fit_transform函数计算各个词语出现的次数,通过get_feature_names()可获取词袋中所有文本的关键字(英语是按字母顺序排列的),通过toarray()可看到词频矩阵的结果。
2.TfidfTransformer
TfidfTransformer用于统计vectorizer中每个词语的TF-IDF值。
sklearn的计算过程有两点要注意:
一是sklean计算对数log时,底数是e,不是10
二是参数smooth_idf默认值为True,若改为False,transformer = TfidfTransformer(smooth_idf = False),则计算方法略有不同,导致结果也有所差异。
前系列笔记也提供了词云可视化工具,但词云只是一种定性分析方式,要解决定量分析,还要另辟蹊径,本笔记也改写了一下网上的一些材料,通过heatmap方式对文本词频和文本的IDF进行展现,很容易看到语句中哪些词频最高,哪些词的分类属性更好。另外本文也提供了类河流图的方式即matplotlib的stackflow作图,不过效果不佳,还有待改进。
代码语言:javascript复制# coding:utf-8
import pylab
import numpy as np
from matplotlib import pyplot as plt
from matplotlib import cm
from numpy import matrix
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.feature_extraction.text import TfidfTransformer
#文本词频可视化图表stackplot风格
# streamgraph风格的在beaborn上也有,不过不太符合要求
# streamgraph风格的在pyechart上也有,可以直接使用,下次再讲用法
# streamgraph风格的在matplotlib上只有类stackplot,不够圆滑
def draw_stackplot(data,xlabels,ylabels):
# X标签 行,即章节
# Y标签 列,即词汇
# 数据 即词频,需要转置后才能应用
#data= [[0, 3, 3, 3, 0, 0, 3, 0, 3], [0, 3, 0, 3, 0, 6, 3, 0, 3], [3, 0, 0, 0, 3, 0, 3, 3, 0], [0, 3, 3, 3, 0, 0, 3, 0, 3]]
#xlablels= range(0, 4)
#ylablels= ['and', 'document', 'first', 'is', 'one', 'second', 'the', 'third', 'this']
pylab.mpl.rcParams['font.sans-serif'] = ['SimHei'] # 防止中文乱码
pylab.mpl.rcParams['axes.unicode_minus'] = False # 防止中文乱码
fig, ax = plt.subplots()
ax.stackplot(xlabels, data, labels=ylabels, baseline='wiggle')
ax.axes.set_yticks(range(len(ylabels)))
ax.axes.set_yticklabels(ylabels)
ax.axes.set_xticks(range(len(xlabels)))
ax.axes.set_xticklabels(xlabels)
ax.legend(loc='best')
ax.set_title('Interesting GraphnCheck it out')
plt.show()
#文本词频可视化图表heatmap风格
def draw_heatmap(data, xlabels, ylabels):
pylab.mpl.rcParams['font.sans-serif'] = ['SimHei'] # 防止中文乱码
pylab.mpl.rcParams['axes.unicode_minus'] = False # 防止中文乱码
vmin=np.amin(matrix(data))
vmax = np.amax(matrix(data))
cmap = cm.Blues
figure = plt.figure(facecolor='w')
ax = figure.add_subplot(2, 1, 1, position=[0.1, 0.15, 0.8, 0.8])
ax.set_yticks(range(len(ylabels)))
ax.set_yticklabels(ylabels)
ax.set_xticks(range(len(xlabels)))
ax.set_xticklabels(xlabels)
map = ax.imshow(data, interpolation='nearest', cmap=cmap, aspect='auto', vmin=vmin, vmax=vmax)
cb = plt.colorbar(mappable=map, cax=None, ax=None, shrink=0.5)
plt.xticks(rotation=90) # 将字体进行旋转
plt.yticks(rotation=360)
plt.show()
#------------------------------英文tf-idf-------------------------------
#英文文本
corpus = [
'This is the first document.'*3,
'This is the second second document.'*3,
'And the third one.'*3,
'Is this the first document?'*3,
]
# -------------------------词频分析---------------------------
#将文本中的词语转换为词频矩阵
vectorizer = CountVectorizer()
#计算个词语出现的次数
X = vectorizer.fit_transform(corpus)
#X格式如下,主要包括(行 词)词频
#(0, 1) 1 (0, 2) 1 (0, 6) 1 (0, 3) 1 (0, 8) 1 (1, 5) 2 (1, 1) 1
#获取语句中所有文本关键词
word = vectorizer.get_feature_names()
# word格式如下,是个英文词汇的数组列表
# ['and', 'document', 'first', 'is', 'one', 'second', 'the', 'third', 'this']
#查看词频结果,转置为Numpy 2维数组后的输出
print('X.toarray()=',X.toarray())
#and document first is one second the third this
#0 1 1 1 0 0 1 0 1
#0 1 0 1 0 2 1 0 1
#1 0 0 0 1 0 1 1 0
#0 1 1 1 0 0 1 0 1
# ---------------------------可视化----------------------------
#热力图方式
xlabels=word
ylabels=list(range(len(corpus)))
data=X.toarray().tolist()
draw_heatmap(data, xlabels, ylabels)
#转置维stackflow的格式要求,y轴为字符,x轴为章节
#stackplt方式
data=X.T.toarray().tolist()
draw_stackplot(data, ylabels, xlabels)
# --------------------------词频分析---------------------------
#TfidfTransformer类调用
transformer = TfidfTransformer()
#将词频矩阵X统计成TF-IDF值
tfidf = transformer.fit_transform(X)
#查看数据结构 tfidf[i][j]表示i类文本中的tf-idf权重,以下为fidf的输出样式
#(0, 8) 0.4387767428592343
#(0, 3) 0.4387767428592343
#(0, 6) 0.35872873824808993
#(0, 2) 0.5419765697264572
#(0, 1) 0.4387767428592343
#(1, 8) 0.27230146752334033
#(1, 3) 0.27230146752334033
print('tfidf.toarray()=',tfidf.toarray())
#查看tfidf结果,转置为Numpy 2维数组后的输出
#and document first is one second the third this
#0 0.43877674 0.54197657 0.43877674 0 0 0.35872874 0 0.43877674
#0 0.27230147 0 0.27230147 0 0.85322574 0.22262429 0 0.27230147
#0.55280532 0 0 0 0.55280532 0 0.28847675 0.55280532 0
#0 0.43877674 0.54197657 0.43877674 0 0 0.35872874 0 0.43877674
# ---------------------------可视化----------------------------
xlabels=word
ylabels=range(len(corpus))
data=tfidf.toarray().tolist()
draw_heatmap(data, xlabels, ylabels)
#------------------------------中文tf-idf-------------------------------
corpus = ["我 来到 北京 清华大学"*3, # 第一类文本切词后的结果,词之间以空格隔开
"他 来到 了 网易 杭研 大厦"*3, # 第二类文本的切词结果
"小明 硕士 毕业 与 中国 科学院"*3, # 第三类文本的切词结果
"我 爱 北京 天安门"*3] # 第四类文本的切词结果
# -------------------------词频分析---------------------------
# 该类会将文本中的词语转换为词频矩阵,矩阵元素a[i][j] 表示j词在i类文本下的词频
vectorizer = CountVectorizer()
X=vectorizer.fit_transform(corpus)
word = vectorizer.get_feature_names()
print(X.toarray())
#['中国', '北京', '大厦', '天安门', '小明', '来到', '杭研', '毕业', '清华大学', '硕士', '科学院', '网易']
#[0 1 0 0 0 1 0 0 1 0 0 0]
#[0 0 1 0 0 1 1 0 0 0 0 1]
#[1 0 0 0 1 0 0 1 0 1 1 0]
#[0 1 0 1 0 0 0 0 0 0 0 0]
# ---------------------------可视化----------------------------
xlabels=word
ylabels=range(len(corpus))
data=X.toarray().tolist()
print('--------------')
print('--------------')
# --------------------------词频分析---------------------------
# 该类会统计每个词语的tf-idf权值
transformer = TfidfTransformer()
# 第一个fit_transform是计算tf-idf,第二个fit_transform是将文本转为词频矩阵
tfidf = transformer.fit_transform(X)
# 获取词袋模型中的所有词语
word = vectorizer.get_feature_names()
# 将tf-idf矩阵抽取出来,元素a[i][j]表示j词在i类文本中的tf-idf权重
data = tfidf.toarray()
# ---------------------------可视化----------------------------
xlabels=word
ylabels=range(len(corpus))
data=tfidf.toarray().tolist()
draw_heatmap(data, xlabels, ylabels)
#['中国', '北京', '大厦', '天安门', '小明', '来到', '杭研', '毕业', '清华大学', '硕士', '科学院', '网易']
#[0. 0.52640543 0. 0. 0. 0.52640543 0. 0. 0.66767854 0. 0. 0. ]
#[0. 0. 0.52547275 0. 0. 0.41428875 0.52547275 0. 0. 0. 0. 0.52547275]
#[0.4472136 0. 0. 0. 0.4472136 0. 0. 0.4472136 0. 0.4472136 0.4472136 0. ]
#[0. 0.6191303 0. 0.78528828 0. 0. 0. 0. 0. 0. 0. 0. ]
for i in range(len(data)): # 打印每类文本的tf-idf词语权重,第一个for遍历所有文本,第二个for便利某一类文本下的词语权重
print( u"-------这里输出第", i, u"类文本的词语tf-idf权重------")
for j in range(len(word)):
print(word[j], data[i][j])
英文tf分析
英文idf分析
中文tf分析
中文idf分析
词频的stackflow可视化