python做根据关键词,做一张简单的词云图
程序员文章站
2024-01-05 23:35:46
很多博主都介绍了如何快速分词,形成词云,在实际运用中,我们可能有时候需要通过关键词形成词云,接下来就是把分词和词云结合的一个简单代码,下面对代码简单讲一下,首先需要准备jieba,matplotlib,wordcloud等库,其中wordcloud有时候会下载失败,具体可以参考,https://blog.csdn.net/ljzlzj/article/details/110474660然后下面这段代码,需要改动一下路径,也就是path部分,然后,停用词和专用词个人词典根据需要自己填写,关键词数目,词性也...
很多博主都介绍了如何快速分词,形成词云,在实际运用中,我们可能有时候需要通过关键词形成词云,接下来就是把分词和词云结合的一个简单代码,下面对代码简单讲一下,首先需要准备jieba,matplotlib,wordcloud等库,其中wordcloud有时候会下载失败,具体可以参考,
https://blog.csdn.net/ljzlzj/article/details/110474660
然后下面这段代码,需要改动一下路径,也就是path部分,然后,停用词和专用词个人词典根据需要自己填写,关键词数目,词性也可以根据需要改正
from wordcloud import WordCloud
import matplotlib.pyplot as plt #绘制图像的模块
import jieba
import jieba.analyse#jieba分词
path_txt='C:/Users/xxx/Desktop/1.txt'
f = open(path_txt,'r',encoding='utf-8').read()
#停用词和个人词典
jieba.load_userdict("C:/Users/xxx/Desktop/dict.txt")
jieba.analyse.set_stop_words("C:/Users/xxx/Desktop/stop.txt")
# 结巴分词,生成字符串,wordcloud无法直接生成正确的中文词云
cut_text = " ".join(jieba.analyse.extract_tags(f, topK=100, withWeight=False, allowPOS=('ns', 'n', 'vn', 'v', 'nr', 'x')))
wordcloud = WordCloud(
#设置字体,不然会出现口字乱码,文字的路径是电脑的字体一般路径,可以换成别的
font_path="C:/Windows/Fonts/simfang.ttf",
#设置了背景,宽高
background_color="white",width=1000,height=880).generate(cut_text)
plt.imshow(wordcloud, interpolation="bilinear")
plt.axis("off")
plt.show()
本文地址:https://blog.csdn.net/ljzlzj/article/details/110476191