欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Note of Jieba ( 词云图实例 )

程序员文章站 2022-05-29 12:01:25
Note of Jieba jieba库是python 一个重要的第三方中文分词函数库,但需要用户自行安装。 一、jieba 库简介 (1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组;除此之外,jieba 库还提供了增加 ......

note of jieba

jieba库是python 一个重要的第三方中文分词函数库,但需要用户自行安装。

一、jieba 库简介

 

(1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组;除此之外,jieba 库还提供了增加自定义中文单词的功能。

(2) jieba 库支持3种分词模式:

精确模式:将句子最精确地切开,适合文本分析。

全模式:将句子中所以可以成词的词语都扫描出来,速度非常快,但是不能消除歧义。

搜索引擎模式:在精确模式的基础上,对长分词再次切分,提高召回率,适合搜索引擎分词。

二、安装库函数

(1) 在命令行下输入指令:

pip install jieba

(2) 安装进程:

Note of Jieba ( 词云图实例 )

 

Note of Jieba ( 词云图实例 )

 

三、调用库函数

(1) 导入库函数:import  <库名>

使用库中函数:<库名> . <函数名> (<函数参数>)

Note of Jieba ( 词云图实例 )

 

(2) 导入库函数:from  <库名>  import * ( *为通配符 )

使用库中函数:<函数名> (<函数参数>)

Note of Jieba ( 词云图实例 )

四、jieba 库函数

(1) 库函数功能

模式

函数

说明

精确模式

cut(s)

返回一个可迭代数据类型

lcut(s)

返回一个列表类型 (建议使用)

全模式

cut(s,cut_all=true)

输出s中所以可能的分词

lcut(s,cut_all=true)

返回一个列表类型 (建议使用)

搜索引擎模式

cut_for_search(s)

适合搜索引擎建立索引的分词结果

lcut_for_search(s)

返回一个列表类型 (建议使用)

自定义新词

add_word(w)

向分词词典中增加新词w

 

(2) 函数使用实例

Note of Jieba ( 词云图实例 )

五、对一篇文档进行词频统计

(1) jieba 库单枪匹马

a. 代码实现

注:代码使用的文档 >>> detective_novel(utf-8).zip [点击下载],也可自行找 utf-8 编码格式的txt文件。

 1 # -*- coding:utf-8 -*-
 2 from jieba import *
 3 
 4 def replace(text,old,new): #替换列表的字符串
 5     for char in old:
 6         text = text.replace(char,new)
 7     return text
 8 
 9 def gettext(filename): #读取文件内容(utf-8 编码格式)
10     #特殊符号和部分无意义的词
11     sign = '''!~·@¥……*“”‘’\n(){}【】;:"'「,」。-、?'''
12     txt = open('{}.txt'.format(filename),encoding='utf-8').read()
13     return replace(txt,sign," ")
14 
15 def word_count(passage,n): #计算passage文件中的词频数,并将前n个输出
16     words = lcut(passage) #精确模式分词形式
17     counts = {}             #创建计数器 --- 字典类型
18     for word in words:      #消除同意义的词和遍历计数
19         if word == '小五' or word == '小五郎' or word == '五郎':
20             rword = '毛利'
21         elif word == '柯' or word == '南':
22             rword = '柯南'
23         elif word == '小' or word == '兰':
24             rword = '小兰'
25         elif word == '目' or word == '暮' or word == '警官':
26             rword = '暮目'
27         else:
28             rword = word
29         counts[rword] = counts.get(rword,0) + 1
30     excludes = lcut_for_search("你我事他和她在这也有什么的是就吧啊吗哦呢都了一个")
31     for word in excludes:   #除去意义不大的词语
32         del(counts[word])
33     items = list(counts.items()) #转换成列表形式
34     items.sort(key = lambda x : x[1], reverse = true ) #按次数排序
35     for i in range(n):     #依次输出
36         word,count = items[i]
37         print("{:<7}{:>6}".format(word,count))
38 
39 if __name__ == '__main__':
40     passage = gettext('detective_novel')  #输入文件名称读入文件内容
41     word_count(passage,20) #调用函数得到词频数

 

b. 执行结果

Note of Jieba ( 词云图实例 )

 

(2) jieba 库 和 wordcloud 库 强强联合 --- 词云图

a. 代码实现

 1 # -*- coding:utf-8 -*-
 2 from wordcloud import wordcloud
 3 import matplotlib.pyplot as plt
 4 import numpy as np
 5 from pil import image
 6 from jieba import *
 7 
 8 def replace(text,old,new): #替换列表的字符串
 9     for char in old:
10         text = text.replace(char,new)
11     return text
12 
13 def gettext(filename): #读取文件内容(utf-8 编码格式)
14     #特殊符号和部分无意义的词
15     sign = '''!~·@¥……*“”‘’\n(){}【】;:"'「,」。-、?'''
16     txt = open('{}.txt'.format(filename),encoding='utf-8').read()
17     return replace(txt,sign," ")
18 
19 def creat_word_cloud(filename): #将filename 文件的词语按出现次数输出为词云图
20     text = gettext(filename) #读取文件
21     wordlist = lcut(text) #jieba库精确模式分词
22     wl = ' '.join(wordlist) #生成新的字符串
23 
24     #设置词云图
25     font = r'c:\windows\fonts\simfang.ttf' #设置字体路径
26     wc = wordcloud(
27         background_color = 'black', #背景颜色
28         max_words = 2000,           #设置最大显示的词云数
29         font_path = font,           #设置字体形式(在本机系统中)
30         height = 1200,              #图片高度
31         width = 1600,               #图片宽度
32         max_font_size = 100,        #字体最大值
33         random_state = 100,         #配色方案的种类
34         )
35     myword = wc.generate(wl) #生成词云
36     #展示词云图
37     plt.imshow(myword)
38     plt.axis('off')
39     plt.show()
40     #以原本的filename命名保存词云图
41     wc.to_file('{}.png'.format(filename))
42 
43 if __name__ == '__main__':
44     creat_word_cloud('detective_novel') #输入文件名生成词云图

 

b. 执行结果

Note of Jieba ( 词云图实例 )