IK 分词器
程序员文章站
2022-07-09 15:26:57
...
IK 分词器
下载和安装
进入elasticsearch
目录中执行以下命令:
# 在线安装
[aaa@qq.com elasticsearch-7.3.0]$ ./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.3.0/elasticsearch-analysis-ik-7.3.0.zip
下载完成后,可以在plugins
目录中看到analysis-ik
目录,里面的结构如下所示:
之后需要重新启动elasticsearch
,才可以加载ik
分词器插件,同时记得在三个节点都安装ik
分词器插件。重新启动elasticsearch
可以看到日志信息中有以下输入内容:
IK
分词器分析过程
测试IK
分词器
# 测试 ik 分词器
GET _analyze?pretty
{
"analyzer": "ik_smart",
"text": "*国歌"
}
==========================================
# 结果
{
"tokens" : [
{
"token" : "*",
"start_offset" : 0,
"end_offset" : 7,
"type" : "CN_WORD",
"position" : 0
},
{
"token" : "国歌",
"start_offset" : 7,
"end_offset" : 9,
"type" : "CN_WORD",
"position" : 1
}
]
}
IK
分词器的两种分词方法
# 测试 ik 分词器,智能分词法
GET _analyze?pretty
{
"analyzer": "ik_smart",
"text": "*国歌"
}
# 测试 ik 分词器,最大分词法
GET _analyze?pretty
{
"analyzer": "ik_max_word",
"text": "*国歌"
}
分词的场景
# analyzer 指定的是构建索引的时候的分词
# search_analyzer 指定的是搜索关键字时候的分词
# 如果在搜索是不指定 search_analyzer,那么默认使用的是 analyzer 使用的分词
# 最佳实践:索引的时候使用 ik_max_word,但是查询的时候使用 ik_smart
上一篇: Elasticsearch——Boolean字段类型
下一篇: Modbus协议
推荐阅读
-
Lucene05-分词器
-
Net Core使用Lucene.Net和盘古分词器 实现全文检索
-
docker 部署 Elasticsearch kibana及ik分词器详解
-
ElasticSearch 5.5 离线环境的完整安装及配置详情,附kibana、ik插件配置及安装包下载路径
-
Laravel个人博客集成Elasticsearch和ik分词
-
ElasticSearch 分词器
-
Lucene-分词器简介及IK分词器的使用
-
docker 安装(6.x单机)elasticsearch、elasticsearch-head、ik分词器
-
基于字典树的前向/后向分词器
-
ek插件------ik中文分词器的使用