词云图中的每个字的大小与出现的频率或次数成正比,词云图的统计意义不是特别大,主要是为了美观,用于博客和网站比较常见。
导入数据
library(tm)
library(wordcloud)
Text1<-paste(scan("Text1.txt",what=character(0),sep=""),collapse="")
Text2<-paste(scan("Text2.txt",what=character(0),sep=""),collapse="")
TEXT<-data.frame(c(Text1,Text2),row.names=c("Text1","Text2"))
TEXT_title<-data.frame(doc_id=row.names(TEXT),text=TEXT$c.Text1..Text2.
)#这里的doc_id不可替换成别的词
创建数据框格式的文本
#创建数据框格式的文本,第一列是doc_id,第二列是文章内容
TEXT_ds<-DataframeSource(TEXT_title)
构建语料库
Corpus<-VCorpus(TEXT_ds)
针对语料库文本转换
思路:删除语料库中的标点符号,字母转换为小写,删除数字,删除空白字符,过滤掉停止词库之后转换为纯文本。
Corpus<-tm_map(Corpus,removePunctuation)#删除标点符号
Corpus<-tm_map(Corpus,tolower)#转换为小写
Corpus<-tm_map(Corpus,removeNumbers)#删除数字
Corpus <- tm_map(Corpus,stripWhitespace)#删除空白字符
Corpus <- tm_map(Corpus,function(x){removeWords(x,stopwords())})
Corpus <- tm_map(Corpus,PlainTextDocument)#转换为纯文本
针对语料库断字处理,生成词频权重矩阵
Term_matrix<-TermDocumentMatrix(Corpus)
> Term_matrix
<<TermDocumentMatrix (terms: 2462, documents: 2)>>
Non-/sparse entries: 3215/1709
Sparsity : 35%
Maximal term length: 16
Weighting : term frequency (tf)
查看Term_matrix得知2篇文章共2456个字,稀疏度为35%,最大词长度是16。
#计算频率
Term_matrix<-as.matrix(Term_matrix)
#对词频权重矩阵的表头进行命名
colnames(Term_matrix)<-c("Text1","Text2")
#把矩阵转为便于后续统计分析的数据框
Data<-data.frame(Term_matrix)
#导出两篇文章的频率分析结果,文件名为Term_matrix
write.csv(Data,'Term_matrix.csv')
读取文件
read.csv('Term_matrix.csv',header=TRUE,row.names=1)
#分开绘制两篇文章的词云
wordcloud(row.names(Data),Data$Text1,min.freq=9.5,col=brewer.pal(8,"Dark2"),rot.per=0.3)
wordcloud(row.names(Data),Data$Text2,min.freq=9.5,col=brewer.pal(8,"Dark2"),rot.per=0.2)
#两篇文章对比
comparison.cloud(Data,max.words=250,random.order=FALSE,colors=c("#00B2FF","#084081"))
#通过设置max.word的大小决定显示图中文本的多少。
两篇文章共有词部分
commonality.cloud(Data,max.words=120,random.order=FALSE,colors="#66A61E")
绘制星形图
将Data数据计算频率Freq=n/sum(n),根据频率绘制星形图。
wordcloud2(Data1,size=0.4,shape='star')