Elasticsearch的ik分词器安装
(1)源码
https://github.com/medcl/elasticsearch-analysis-ik
(2)releases
https://github.com/medcl/elasticsearch-analysis-ik/releases
(3)复制zip地址
https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.1.1/elasticsearch-analysis-ik-6.1.1.zip
已经下载在elk中
首先,在Windows上下载elasticsearch-analysis-ik-6.1.1.zip;
其次,上传到ES集群,解压缩;
这之前没有安装unzip需要安装unzip
命令: yum install -y unzip
解压:unzip elasticsearch-analysis-ik-6.3.1.zip -d elasticsearch-6.3.1/plugins/ik/
然后,将解压缩目录移动到ES的plugins目录
最后,重启ES。
重启elasticsearch
测试IK中文分词器的基本功能
(1)ik_smart
其中pretty本意”漂亮的”,表示以美观的形式打印出JSON格式响应。
GET _analyze?pretty
{
"analyzer": "ik_smart",
"text":"安徽省长江流域"
}
(2)ik_max_word
GET _analyze?pretty
{
"analyzer": "ik_max_word",
"text":"安徽省长江流域"
}
(3)新词
GET _analyze?pretty
{
“analyzer”: “ik_smart”,
“text”: “王者荣耀”
}
4.4 扩展字典
(1)查看已有词典
ll /root/apps/elasticsearch-6.3.1/plugins/ik/config
2)自定义词典
vi newword.dic
老铁
王者荣耀
洪荒之力
共有产权房
一带一路
3)更新配置
vi IKAnalyzer.cfg.xml
cat IKAnalyzer.cfg.xml
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典 -->
<entry key="ext_dict">custom/new_word.dic</entry>
<!--用户可以在这里配置自己的扩展停止词字典-->
<entry key="ext_stopwords"></entry>
<!--用户可以在这里配置远程扩展字典 -->
<!-- <entry key="remote_ext_dict">words_location</entry> -->
<!--用户可以在这里配置远程扩展停止词字典-->
<!-- <entry key="remote_ext_stopwords">words_location</entry> -->
</properties>
(4)重启elasticsearch
[Dict Loading] custom/new_word.dic
(5)重启Kibana
重启Kibana后,从新执行下面命令
{
"tokens": [
{
"token": "王者荣耀",
"start_offset": 0,
"end_offset": 4,
"type": "CN_WORD",
"position": 0
}
]
}
分发给其他虚拟机:
scp -r ik hdp-3:/root/apps/elasticsearch-6.3.1/plugins
scp -r ik hdp-4:/root/apps/elasticsearch-6.3.1/plugins