IKAnalyzer结合Lucene实现中文分词(示例讲解)
1、基本介绍
随着分词在信息检索领域应用的越来越广泛,分词这门技术对大家并不陌生。对于英文分词处理相对简单,经过拆分单词、排斥停止词、提取词干的过程基本就能实现英文分词,单对于中文分词而言,由于语义的复杂导致分词并没英文分词那么简单,一般都是通过相关的分词工具来实现,目前比较常用的有庖丁分词以及ikanalyzer等。这里我们主要通过一个简单的demo聊聊ikanalyzer的基本使用。ikanalyzer是一个开源的,基于java开发的分词工具包,它独立于lucene项目,同时提供了lucene的默认实现。
2、ikanalyzer结合lucene实现简单的中文分词
我们通过一个基本的demo来实践说明,步骤如下:
step1:准备相关的jar依赖,lucene-core-5.1.0.jar、ik.jar,然后新建项目,引入相关依赖项目结构如下:
ikdemo-src
-con.funnyboy.ik
-ikanalyzer.cfg.xml
-stopword.dic
-ext.dic
-reference libraries
-lucene-core-5.1.0.jar
-ik.jar
ikanalyzer.cfg.xml:配置扩展词典以及停止词典 内容如下:
<?xml version="1.0" encoding="utf-8"?> <!doctype properties system "http://java.sun.com/dtd/properties.dtd"> <properties> <comment>ik analyzer 扩展配置</comment> <entry key="ext_dict">ext.dic;</entry> <entry key="ext_stopwords">stopword.dic;</entry> </properties>
其中的ext.dic配置自己的扩展字典,stopword.dic配置自己的扩展停止词字典
step2:通过java代码验证测试
public class myiktest { public static string str = "中国人民银行我是中国人"; public static void main(string[] args) { myiktest test = new myiktest(); test.wordcount("", str); } private void wordcount(string arg,string content) { analyzer analyzer = new ikanalyzer(true); // ik实现分词 true:用最大词长分词 false:最细粒度切分 stringreader reader = null; tokenstream ts = null; try { reader = new stringreader(content); ts = analyzer.tokenstream(arg,reader); chartermattribute term = ts.addattribute(chartermattribute.class); ts.reset(); map<string, integer> map = new hashmap<string, integer>(); //统计 while (ts.incrementtoken()) { string str = term.tostring(); object o = map.get(str); if (o == null) { map.put(str, new integer(1)); } else { integer i = new integer(((integer) o).intvalue() + 1); map.put(str, i); } } list<entry<string, integer>> list = new arraylist<entry<string, integer>>(map.entryset()); collections.sort(list,new comparator<map.entry<string, integer>>() { public int compare(map.entry<string, integer> o1,map.entry<string, integer> o2) { return (o2.getvalue() - o1.getvalue()); } }); for (int k=0;k<list.size();k++) { entry<string, integer> it=list.get(k); string word = it.getkey().tostring(); system.err.println(word+"["+it.getvalue()+"]"); } } catch (exception e) { } finally { if(reader != null){ reader.close(); } if (analyzer != null) { analyzer.close(); } } } }
执行程序测试结果如下:
中国人民银行[1]
中国人[1]
我[1]
3、配置说明
a、如何自定义配置扩展词典和停止词典 ikanalyzer.cfg.xml中定义了扩展词典和停止词典,如果有多好个可以通过;配置多个。扩展词典是指用户可以根据自己定义的词义实现分词,比如人名在默认的词典中并未实现,需要自定义实现分词,卡可以通过在ext.dic中新增自定义的词语。停止词是指对于分词没有实际意义但出现频率很高的词,比如吗、乎等语气词,用户也可以通过在stopword.dic中自定义相关的停止词。
b、关于最大词长分词和最小粒度分词的区分 在ikanalyzer构造方法中可以通过提供一个标示来实现最大词长分词和最小粒度分词,true为最大词长分词,默认是最小粒度分词。对"中国人民银行我是中国人"分别测试结果如下:
最大词长分词结果如下:
中国人民银行[1]
中国人[1]
我[1]
最小粒度分词结果如下:
国人[2]
中国人[2]
中国[2]
人民[1]
中国人民银行[1]
我[1]
人民银行[1]
中国人民[1]
银行[1]
以上这篇ikanalyzer结合lucene实现中文分词(示例讲解)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。