看网络上很多朋友都在用“Rwordseg”程序包进行分词练习。我也忍不住进行了一次实验。 首先,肯定是装程序包了,个人感觉是废话,纯凑字数。 如下是我进行的联系,在网上找了一篇关于范爷的专访,看看能看出来什么吧。 =========================================================================== #第一步,文本分词 require(Rwordseg) test<- readLines("E:\FBB1.txt",encoding='UTF-8') #读取数据 res = test[test != " "] #读取test,且剔除test=“ ” words = unlist(lapply(X = res,FUN = segmentCN)) #分词,并调整表结构,将有相同词频的词归类 word = lapply(X = words,FUN = strsplit," ") #给每个词根据顺序赋个顺序指 v = table(unlist(word)) #重建表 v = sort(v,deceasing=T) #降序排列 v[1:100] head(v) #给每列字段赋标题 d = data.frame(word = names(v),freq = v) #更改标题 write.csv(d,"E:\学习.csv",header = T) #导出数据,为下一步做准备 #第二部,做文本云图 require(wordcloud) dd = tail(d,150) #取数据框的最后150行数据 op = par(bg = "lightyellow") #背景为亮黄色 #rainbowLevels = rainbow((dd$freq)/(max(dd$freq) - 10)) #不知道什么意义,删除后图形无太大变化 wordcloud(dd$word, dd$freq, col = rainbow(length(d$freq))) par(op) ===================================================================================== 成图
=========================================================================== 因为没有提出冠词等无意义的词语,所以可能也看不出来什么有意义的地方。大家权当一看。日后会有更深入的分析的。 分享: