欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

ElasticSearch 的使用-查询

程序员文章站 2022-07-09 15:46:28
...

目录

ElasticSearch 的使用 - 查询

Spring Boot 集成Jest

分页查询

排序和评分优化

全字段匹配评分最高的实现

中文搜索关键字分词的优化

大数据记录的分页查询处理

二次搜索的处理

其他相关笔记


ElasticSearch 的使用 - 查询

官方的查询文档:Query ES查询工作主要是生成Query语句,日常使用中基本只会用到match匹配。如果多个字段最多加上multi_match,然后就是通过bool查询的should 或must来组合。 Java后端推荐使用Jest 来操作ES。

Spring Boot 集成Jest

application.properties文件中增加如下配置

es.server.url=http://xxxx:9200
es.user=xxx
es.password=xxx

增加加载ES配置的配置Bean,并初始化自定义的ES Clietn类,EsClient类为自己封装的Jest对ES的操作工具类,代码相关代码会在使用的时候列出来。

/**
 * ElasticSearch 配置文件
 */
@Configuration
public class EsConfig {
    /**
     * ES服务器URL
     */
    private String esServerUrl;
    
    /**
     * ES用户
     */
    private String esUser;
    /**
     * ES用户密码
     */
    private String esPassword;
    
    /**
     * URL
     * @param esServerUrl
     */
    @Value(value="${es.server.url}")
    public void setEsServerUrl(String esServerUrl) {
        this.esServerUrl = esServerUrl;
    }
    
    /**
     * ES用户
     * @param esUser
     */
    @Value(value="${es.user}")
    public void setEsUser(String esUser) {
        this.esUser = esUser;
    }
    
    /**
     * ES用户密码
     * @param esPassword
     */
    @Value(value="${es.password}")
    public void setEsPassword(String esPassword) {
        this.esPassword = esPassword;
    }
    
    /**
     * 获取Ealstic Search客户端
     * @return
     */
    @Bean
    public EsClient getEsClient() {
        return EsClient.getInstance(esServerUrl, esUser, esPassword);
    }

}

使用时指定通过@Autowired注入即可。


@RunWith(SpringRunner.class)
@SpringBootTest
@Log4j2
public class EsClietnTests {

    @Autowired
    EsClient esClient;
    
    @Test
    public void testCount() {
        esClient.getIndexCount("order");
    }
}

分页查询

分页查询主要使用fromsize参数,参考官方文档:From/Size

手动分页查询的语句:

GET test/_search
{
  "from": 0,
  "size": 10,
  "query": {}
}

通过Jest查询: 先构建一个SearchSourceBuilder 对象

 @Test
    public void testSearchByPage(){
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        BoolQueryBuilder boolQueryBuilder = QueryBuilders.boolQuery();
		// 编号匹配查询
        MatchQueryBuilder codeMatchQueryBuilder = QueryBuilders.matchQuery("baseInfo.code.chinese", "查询关键字");
        boolQueryBuilder.should(codeMatchQueryBuilder);
        
        // 从第几页开始
        searchSourceBuilder.from(0);
        // 每页显示多少条
        searchSourceBuilder.size(10);
        // 设置查询条件
        searchSourceBuilder.query(boolQueryBuilder);
        // 设置按照匹配度评分排序
        searchSourceBuilder.sort("_score");
        // 设置按照创建日期倒序
        searchSourceBuilder.sort("baseInfo.createDate", SortOrder.DESC);
        log.info(JsonUtils.objectToJson(esService.searchByPage(searchSourceBuilder)));
    }

esService.searchWithPage的实现:

@Override
 public List<OrderAllInfoDTO> searchByPage(SearchSourceBuilder searchSourceBuilder) {
     //设置查询返回的结果字段列表和忽略的字段列表
     searchSourceBuilder.fetchSource(ALL_INFO_FIELD_LIST, null);
     //调用客户端的分页搜索功能,传入索引名称,查询语句,返回的结果类型
     List<OrderAllInfoDTO> list = esClient.searchByPage(
         OrderConstant.INDEX_NAME,
         searchSourceBuilder, ORDER_ALL_INFO_DTO_TYPE);
     return list;
 }

ORDER_ALL_INFO_DTO_TYPE的内容为:

private static final TypeReference<OrderAllInfoDTO> ORDER_ALL_INFO_DTO_TYPE=
        new TypeReference<OrderAllInfoDTO>() {};

esClient.searchByPage的实现:

public <T> List<T> searchByPage(String index, SearchSourceBuilder searchSourceBuilder,TypeReference<T> type) {
        String searchStr = searchSourceBuilder.toString();
        log.debug("ES查询字符串:{}", searchStr);
        // typeName 固定为默认的Type名称'_doc'
        Search search = new Search.Builder(searchStr).addIndex(index).addType(typeName).build();
        return searchByPage(search,type);
    }

public <T> List<T> searchByPage(Action clientRequest,TypeReference<T> type){
        try {
            JestResult result = client.execute(clientRequest);
            if(result.isSucceeded()) {
                List<String> sourceList =  result.getSourceAsStringList();
                if(CollectionUtils.isNotEmpty(sourceList)) {
                    List<T> list = new ArrayList<>();
                    for(String str:sourceList) {
                        list.add(JsonUtils.JsonToObject(str, type));
                    }
                    return list;
                }
            }
        } catch (IOException ex) {
            log.warn("分页搜索失败",ex);
        }
        return Collections.emptyList();
    }

JsonUtils.JsonToObject是一个自定义的Jackson包装后的工具类。实现内容如下:

    public static <T> T JsonToObject(String json, TypeReference<T> javaType) {
        try {
            return OM.readValue(json, javaType);
        } catch (Exception e) {
            log.error("转换JSON字符串为对象失败",e);
        } 
        return null;
    }

注意的是from + size 不能超过index.max_result_window 参数的值,否则之后的数据取不到,index.max_result_window 参数的默认值为1万。虽然官方不推荐这个值设置的过大,但实际业务如果真需要,还是推荐修改这个参数值。因为官方推荐的另外两个方式都无法完美支持随机跳页和前后翻滚以及修改每页记录数的操作。实际使用时可以通过限制用户一次能跳转的页数来达到更好的体验的效果。比如禁止直接跳转到尾页,不允许输入页号跳转,一次只展示前后10页的页码。修改方法:

PUT /my_index/_settings
{
  "index.max_result_window":1000000
}

排序和评分优化

通常排序使用_score 排序即可,即ES按照指定的评分算法,计算每个doc对于本次搜索的评分情况,然后按照评分大小从大到小排序。评分的规则参考:elasticSearch(5.3.0)的评分机制的研究

排序的官方文档:Sort

全字段匹配评分最高的实现

ES的计算评分的算法不是全字匹配优先级最高,而是按照多个维度统计汇总一个评分,因此如果想实现关键字完全匹配的优先级最高的排序,需要对索引的Mapping做一些修改,并且查询语句也要做一些修改,修改内容如下:

Mapping: 增加一个raw的子字段,数据类型为keyword,并且使用不分词的规划器。

"name": {
              "type": "text",
              "analyzer": "custome_standard",
              "fields": {
                "raw": {
                  "type": "keyword",
                  "normalizer": "custome_normalizer"
                },
                "chinese": {
                  "type": "text",
                  "analyzer": "custome_chinese",
                  "search_analyzer":"custome_chinese_search"
                }
              }
            }

搜索: 搜索时除了正常的搜索条件,再额外增加一个对raw字段的搜索条件,并设置该条件的权重是普通的搜索条件的10


@Test
    public void testSearchByPage(){
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        BoolQueryBuilder boolQueryBuilder = QueryBuilders.boolQuery();
        //编号匹配
		MatchQueryBuilder codeMatchQueryBuilder = QueryBuilders.matchQuery("baseInfo.code.chinese", keyword);
        MatchQueryBuilder codeRawMatchQueryBuilder = QueryBuilders.matchQuery("baseInfo.code.raw", keyword);
        codeRawMatchQueryBuilder.boost(10f);
        
        // 从第几页开始
        searchSourceBuilder.from(0);
        // 每页显示多少条
        searchSourceBuilder.size(10);
        // 设置查询条件
        searchSourceBuilder.query(boolQueryBuilder);
        // 设置按照匹配度评分排序
        searchSourceBuilder.sort("_score");
        // 设置按照创建日期倒序
        searchSourceBuilder.sort("baseInfo.createDate", SortOrder.DESC);
        log.info(JsonUtils.objectToJson(esService.searchByPage(searchSourceBuilder)));
    }

中文搜索关键字分词的优化

常用的中文分析器器是IK analyzer, 官网elasticsearch-analysis-ik,该分析器有两种分词器ik_smart , ik_max_word 其中ik_max_word为尽可能多的拆成多个词,而ik_smart是会做一些语意分析后的拆词。实际效果如下:

ik_smart测试:

POST _analyze
{
  "analyzer": "ik_smart",
  "text":     "*"
}

测试结果:

{
  "tokens": [
    {
      "token": "*",
      "start_offset": 0,
      "end_offset": 7,
      "type": "CN_WORD",
      "position": 0
    }
  ]
}

ik_max_word测试:

POST _analyze
{
  "analyzer": "ik_max_word",
  "text":     "*"
}

{
  "tokens": [
    {
      "token": "*",
      "start_offset": 0,
      "end_offset": 7,
      "type": "CN_WORD",
      "position": 0
    },
    {
      "token": "中华人民",
      "start_offset": 0,
      "end_offset": 4,
      "type": "CN_WORD",
      "position": 1
    },
    {
      "token": "中华",
      "start_offset": 0,
      "end_offset": 2,
      "type": "CN_WORD",
      "position": 2
    },
    {
      "token": "华人",
      "start_offset": 1,
      "end_offset": 3,
      "type": "CN_WORD",
      "position": 3
    },
    {
      "token": "人民*",
      "start_offset": 2,
      "end_offset": 7,
      "type": "CN_WORD",
      "position": 4
    },
    {
      "token": "人民",
      "start_offset": 2,
      "end_offset": 4,
      "type": "CN_WORD",
      "position": 5
    },
    {
      "token": "*",
      "start_offset": 4,
      "end_offset": 7,
      "type": "CN_WORD",
      "position": 6
    },
    {
      "token": "共和",
      "start_offset": 4,
      "end_offset": 6,
      "type": "CN_WORD",
      "position": 7
    },
    {
      "token": "国",
      "start_offset": 6,
      "end_offset": 7,
      "type": "CN_CHAR",
      "position": 8
    }
  ]
}

因此如果只使用ik_max_word 会导致当搜索关键字*时,会按照分词后的每个关键字都去匹配,导致匹配出来的结果过多和匹配结果的排序不是期望的,例如某个doc含有非常多的字,那么它在搜索结果中的评分可能会只含有一次人民*的评分高。特别是当搜索关键字中有一些,等常用介词时,这个的差异会更大。但是如果只使用ik_smart,又会导致搜索关键字*等词时匹配不到任何内容。因此建议索引时使用ik_max_word,而搜索时使用ik_smart,这样既能保证关键字拆的够细,又能保证搜索时匹配的够准确。

PUT test
{
  "settings": {
    "analysis": {
      "filter": {
        "pinyin_filter": {
          "type": "pinyin"
        }
      },
      "analyzer": {
        "custome_standard": {
          "type": "custom",
          "tokenizer": "standard",
          "filter": [
            "lowercase",
            "asciifolding"
          ]
        },
        "custome_chinese": {
          "type": "custom",
          "tokenizer": "ik_max_word",
          "filter": [
            "lowercase",
            "asciifolding"
          ]
        },
        "custome_chinese_search":{
          "type": "custom",
          "tokenizer": "ik_smart",
          "filter": [
            "lowercase",
            "asciifolding"
          ]
        }
      },
      "normalizer": {
        "custome_normalizer": {
          "type": "custom",
          "char_filter": [],
          "filter": [
            "lowercase",
            "asciifolding"
          ]
        }
      }
    },
    "index.mapping.coerce": false,
    "index.mapping.ignore_malformed":false,
    "index.gc_deletes":"0s"
  },
  "mappings": {
    "_doc": {
      "properties": {

        "id": {
          "type": "long"
        },
        "name": {
          "type": "text",
          "analyzer": "custome_standard",
          "fields": {
            "raw": {
              "type": "keyword",
              "normalizer": "custome_normalizer"
            },
            "chinese": {
              "type": "text",
              "analyzer": "custome_chinese",
                  "search_analyzer":"custome_chinese_search"
            }
          }
        }
      }
    }
  }
}

大数据记录的分页查询处理

大数据(超过百万)的分页查询,官方不推荐from + size 方式查询,因为from + size受索引的index.max_result_window 参数的限制,from + size不能超过index.max_result_window,并且from + size查询时实际是需要先对结果进行排序,而如果一个查询跨多个分片,每个分片排序后,还需要再合并后再排序。我们可以假设在一个有 5 个主分片的索引中搜索。当我们请求结果的第一页(结果从 1 到 10 ),每一个分片产生前 10 的结果,并且返回给 协调节点 ,协调节点对 50 个结果排序得到全部结果的前 10 个。

现在假设我们请求第 1000 页—​结果从 10001 到 10010 。所有都以相同的方式工作除了每个分片不得不产生前10010个结果以外。然后协调节点对全部 50050 个结果排序最后丢弃掉这些结果中的 50040 个结果。

可以看到,在分布式系统中,对结果排序的成本随分页的深度成分片的倍数上升。这就是 web 搜索引擎对任何查询都不要返回超过 1000 个结果的原因。

虽然官方提供了ScrollSearch After两个方案,但Scroll实际是一个固定步长的只能往前移动的游标,不能改变步长,不能后移。而Search After可以改变步长,但同样不能后移。因此需要根据实际的场景来选择方案,并且也需要需求方的配合。

  • 标准的分页,支持随机跳页,可以修改修改步长
  • 这个只能选择from + size了,通过修改index.max_result_window的参数值大小来达到最终效果。最好产品设计时限制用户不能只能在限定的范围内跳页,比如只能在当前页的正负5页范围内跳页,一页的最大记录数不能超过50条等。否则用户直接翻到最后一页,比如会触发性能问题。

  • 如果是加载更多的模式,那么使用Search After 比较合适。
  • 如果是数据导出的模式,那么使用Scroll 会比较方便处理。

二次搜索的处理

在上一次的搜索结果中使用新的查询条件再次搜索,实现方案:

  1. 后端在收到搜索请求时,判断是否输入了关键字搜索,如果有记录下本次搜索条件,通过json系列化后存入到数据库,并生成一个唯一的搜索条件id给前端。
  2. 前端在用户明确是二次搜索的情况下,将新的查询条件+之前收到的搜索条件的id一起提交给后端。如果不是二次搜索,则设置搜索id为空。
  3. 后端收到查询时,判断是否有搜索条件id,有则取出保存的搜索条件id对应的搜索条件,将新的条件通过must查询追加到旧的查询条件中,并将最后的追加好的查询条件再次通过json系列化存储到数据库。将新生成的搜索条件id和搜索结果一起返回给前端。
public PageResult<OrderPageInfoResult> orderSearchList(OrderSearchParameter searchParameter,
        SystemUser user) {
        PageResult<OrderPageInfoResult> result = PageResult.empty();
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        BoolQueryBuilder boolQueryBuilder = QueryBuilders.boolQuery();
        //获取查询条件列表
        List<OrderSearchParameter> searchParameterList = getRefineSearchParameter(searchParameter);
        //完成查询语句
        completeQuery(boolQueryBuilder,searchParameterList);
        // 高级搜索(过滤)
        completeFilter(boolQueryBuilder,searchParameterList);
        searchSourceBuilder.query(boolQueryBuilder);
        // 获取总条数
        Integer total = orderEsService.countBySearch(searchSourceBuilder);
        searchSourceBuilder.sort("_score");
        searchSourceBuilder.sort("baseInfo.createDate", SortOrder.DESC);

        if (total > 0) {
            // 根据总记录数调整分页参数
            searchParameter.correctPageParams(total);
            result = new PageResult<>(searchParameter.getOffset(), searchParameter.getLimit(), total);
            // 从第几页开始
            searchSourceBuilder.from(searchParameter.getOffset());
            // 每页显示多少条
            searchSourceBuilder.size(searchParameter.getLimit());
			//设置返回结果
            result.setItems(orderEsService.searchByPage(searchSourceBuilder));
        }
        //保存新的查询条件
        if(StringUtils.isNotBlank(searchParameter.getKeyword()) || searchParameter.getSearchParameterId()!=null){
            result.setSearchParameterId(saveSearchParameterList(searchParameterList,user));
        }
        return result;
    }


private List<OrderSearchParameter> getRefineSearchParameter(OrderSearchParameter searchParameter){
        if(searchParameter==null){
            return Collections.emptyList();
        }
        Integer searchParameterId = searchParameter.getSearchParameterId();
        List<OrderSearchParameter> list = null;
        if(searchParameterId!=null){
            SystemSearchParameter refineSearchParameter = systemSearchParameterService.getById(searchParameterId);
            if(refineSearchParameter!=null){
                list = JsonUtils.JsonToObject(refineSearchParameter.getValue(),
                    new TypeReference<List<OrderSearchParameter>>() {});
            }
        }
        if(CollectionUtils.isEmpty(list)){
            list = new ArrayList<>();
        }
        //之前的查询条件拼上本次的查询条件
        list.add(searchParameter);
        return list;

    }

 private Integer saveSearchParameterList(List<OrderSearchParameter> searchParameterList,SystemUser user){
        SystemSearchParameterForm form = new SystemSearchParameterForm();
        form.setType(SystemSearchTypeEnum.ORDER_SEARCH.value());
        form.setValue(JsonUtils.objectToJson(searchParameterList));
        return systemSearchParameterService.insert(form,user,now());
    }

其他相关笔记