Elasticsearch Scroll和Slice Scroll查询API使用案例
程序员文章站
2022-03-01 22:10:15
...
Elasticsearch Scroll和Slice Scroll查询API使用案例
the best elasticsearch highlevel java rest api-----bboss
本文内容
本文对应的maven源码工程:
https://gitee.com/bbossgroups/eshelloword-booter
1.dsl配置文件定义
首先定义本文需要的dsl配置文件
esmapper/scroll.xml
下面介绍scroll各种用法,对应的测试类文件为:TestScrollAPIQuery
2.基本scroll api使用
3.基本scroll api与自定义scorll结果集handler函数结合使用
4.slice api使用
串行
并行
5.slice api使用与自定义scorll结果集handler函数结合使用
串行
并行
我们可以在application.properties文件中增加以下配置来设置slice scroll查询线程池线程数和等待队列长度:
elasticsearch.sliceScrollThreadCount 默认值500
elasticsearch.sliceScrollThreadQueue 默认值500
6 开发交流
elasticsearch技术交流群:166471282
elasticsearch微信公众号:
the best elasticsearch highlevel java rest api-----bboss
本文内容
- 基本scroll api使用
- 基本scroll api与自定义scorll结果集handler函数结合使用
- slice api使用(并行/串行)
- slice api使用与自定义scorll结果集handler函数结合使用(并行/串行)
本文对应的maven源码工程:
https://gitee.com/bbossgroups/eshelloword-booter
1.dsl配置文件定义
首先定义本文需要的dsl配置文件
esmapper/scroll.xml
<properties> <!-- 简单的scroll query案例,复杂的条件修改query dsl即可 --> <property name="scrollQuery"> <![CDATA[ { "size":#[size], "query": {"match_all": {}} } ]]> </property> <!-- 简单的slice scroll query案例,复杂的条件修改query dsl即可 --> <property name="scrollSliceQuery"> <![CDATA[ { "slice": { "id": #[sliceId], ## 必须使用sliceId作为变量名称 "max": #[sliceMax] ## 必须使用sliceMax作为变量名称 }, "size":#[size], "query": {"match_all": {}} } ]]> </property> </properties>
下面介绍scroll各种用法,对应的测试类文件为:TestScrollAPIQuery
2.基本scroll api使用
@Test public void testSimleScrollAPI(){ ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml"); //scroll分页检索 Map params = new HashMap(); params.put("size", 10000);//每页10000条记录 //scroll上下文有效期1分钟,每次scroll检索的结果都会合并到总得结果集中;数据量大时存在oom内存溢出风险,大数据量时可以采用handler函数来处理每次scroll检索的结果(后面介绍) ESDatas<Map> response = clientUtil.scroll("demo/_search","scrollQuery","1m",params,Map.class); List<Map> datas = response.getDatas(); long realTotalSize = datas.size(); long totalSize = response.getTotalSize(); System.out.println("totalSize:"+totalSize); System.out.println("realTotalSize:"+realTotalSize); System.out.println("countAll:"+clientUtil.countAll("demo")); }
3.基本scroll api与自定义scorll结果集handler函数结合使用
@Test public void testSimleScrollAPIHandler(){ ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml"); //scroll分页检索 Map params = new HashMap(); params.put("size", 5000);//每页5000条记录 //采用自定义handler函数处理每个scroll的结果集后,response中只会包含总记录数,不会包含记录集合 //scroll上下文有效期1分钟;大数据量时可以采用handler函数来处理每次scroll检索的结果,规避数据量大时存在的oom内存溢出风险 ESDatas<Map> response = clientUtil.scroll("demo/_search", "scrollQuery", "1m", params, Map.class, new ScrollHandler<Map>() { public void handle(ESDatas<Map> response) throws Exception {//自己处理每次scroll的结果 List<Map> datas = response.getDatas(); long totalSize = response.getTotalSize(); System.out.println("totalSize:"+totalSize+",datas.size:"+datas.size()); } }); System.out.println("response realzie:"+response.getTotalSize()); }
4.slice api使用
串行
/** * 串行方式执行slice scroll操作 */ @Test public void testSimpleSliceScrollApi() { ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml"); //scroll slice分页检索,max对应并行度,一般设置为与索引表的shards数一致 int max = 6; Map params = new HashMap(); params.put("sliceMax", max);//建议不要大于索引表的shards数 params.put("size", 100);//每页100条记录 //scroll上下文有效期1分钟,每次scroll检索的结果都会合并到总得结果集中;数据量大时存在oom内存溢出风险,大数据量时可以采用handler函数来处理每次slice scroll检索的结果(后面介绍) ESDatas<Map> sliceResponse = clientUtil.scrollSlice("demo/_search", "scrollSliceQuery", params,"1m",Map.class, false);//false表示串行;如果数据量大,建议采用并行方式来执行 System.out.println("totalSize:"+sliceResponse.getTotalSize()); System.out.println("realSize size:"+sliceResponse.getDatas().size()); }
并行
/** * 并行方式执行slice scroll操作 */ @Test public void testSimpleSliceScrollApiParral() { ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml"); //scroll slice分页检索,max对应并行度,一般设置为与索引表的shards数一致 int max = 6; Map params = new HashMap(); params.put("sliceMax", max);//这里设置6个slice,建议不要大于索引表的shards数,必须使用sliceMax作为变量名称 params.put("size", 100);//每页100条记录 //scroll上下文有效期2分钟,每次scroll检索的结果都会合并到总得结果集中;数据量大时存在oom内存溢出风险,大数据量时可以采用handler函数来处理每次scroll检索的结果(后面介绍) ESDatas<Map> sliceResponse = clientUtil.scrollSlice("demo/_search", "scrollSliceQuery", params,"2m",Map.class, true);//true表示并行,会从slice scroll线程池中申请sliceMax个线程来并行执行slice scroll检索操作,大数据量多个shared分片的情况下建议采用并行模式 System.out.println("totalSize:"+sliceResponse.getTotalSize()); System.out.println("realSize size:"+sliceResponse.getDatas().size()); }
5.slice api使用与自定义scorll结果集handler函数结合使用
串行
/** * 串行方式执行slice scroll操作 */ @Test public void testSimpleSliceScrollApiHandler() { ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml"); //scroll slice分页检索,max对应并行度,一般设置为与索引表的shards数一致 int max = 6; Map params = new HashMap(); params.put("sliceMax", max);//这里设置6个slice,建议不要大于索引表的shards数,必须使用sliceMax作为变量名称 params.put("size", 1000);//每页1000条记录 //采用自定义handler函数处理每个slice scroll的结果集后,sliceResponse中只会包含总记录数,不会包含记录集合 //scroll上下文有效期1分钟,大数据量时可以采用handler函数来处理每次scroll检索的结果,规避数据量大时存在的oom内存溢出风险 ESDatas<Map> sliceResponse = clientUtil.scrollSlice("demo/_search", "scrollSliceQuery", params,"1m",Map.class, new ScrollHandler<Map>() { public void handle(ESDatas<Map> response) throws Exception {//自己处理每次scroll的结果 List<Map> datas = response.getDatas(); long totalSize = response.getTotalSize(); System.out.println("totalSize:"+totalSize+",datas.size:"+datas.size()); } }, false);//false表示串行,如果数据量大建议采用并行模式 long totalSize = sliceResponse.getTotalSize(); System.out.println("totalSize:"+totalSize); }
并行
/** * 并行方式执行slice scroll操作 */ @Test public void testSimpleSliceScrollApiParralHandler() { ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml"); //scroll slice分页检索,max对应并行度,一般设置为与索引表的shards数一致 int max = 6; Map params = new HashMap(); params.put("sliceMax", max);//这里设置6个slice,建议不要大于索引表的shards数,必须使用sliceMax作为变量名称 params.put("size", 1000);//每页1000条记录 //采用自定义handler函数处理每个slice scroll的结果集后,sliceResponse中只会包含总记录数,不会包含记录集合 //scroll上下文有效期1分钟,大数据量时可以采用handler函数来处理每次scroll检索的结果,规避数据量大时存在的oom内存溢出风险 ESDatas<Map> sliceResponse = clientUtil.scrollSlice("demo/_search", "scrollSliceQuery", params,"1m",Map.class, new ScrollHandler<Map>() { public void handle(ESDatas<Map> response) throws Exception {//自己处理每次scroll的结果,注意结果是异步检索的 List<Map> datas = response.getDatas(); long totalSize = response.getTotalSize(); System.out.println("totalSize:"+totalSize+",datas.size:"+datas.size()); } }, true);//true表示并行,会从slice scroll线程池中申请sliceMax个线程来并行执行slice scroll检索操作,大数据量多个shared分片的情况下建议采用并行模式 long totalSize = sliceResponse.getTotalSize(); System.out.println("totalSize:"+totalSize); }
我们可以在application.properties文件中增加以下配置来设置slice scroll查询线程池线程数和等待队列长度:
elasticsearch.sliceScrollThreadCount 默认值500
elasticsearch.sliceScrollThreadQueue 默认值500
6 开发交流
elasticsearch技术交流群:166471282
elasticsearch微信公众号: