欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

详解redis大幅性能提升之使用管道(PipeLine)和批量(Batch)操作

程序员文章站 2022-06-24 23:31:04
前段时间在做用户画像的时候,遇到了这样的一个问题,记录某一个商品的用户购买群,刚好这种需求就可以用到redis中的set,key作为productid,value就是具体的...

前段时间在做用户画像的时候,遇到了这样的一个问题,记录某一个商品的用户购买群,刚好这种需求就可以用到redis中的set,key作为productid,value就是具体的customerid集合,后续的话,我就可以通过productid来查看该customerid是否买了此商品,如果购买了,就可以有相关的关联推荐,当然这只是系统中的一个小业务条件,这时候我就可以用到sadd操作方法,代码如下:

    static void main(string[] args)
    {
      connectionmultiplexer redis = connectionmultiplexer.connect("192.168.23.151:6379");

      var db = redis.getdatabase();

      var productid = string.format("productid_{0}", 1);

      for (int i = 0; i < 10; i++)
      {
        var customerid = i;

        db.setadd(productid, customerid);
      }
    }

一:问题

    但是上面的这段代码很明显存在一个大问题,redis本身就是基于tcp的一个request/response protocol模式,不信的话,可以用wireshark监视一下:

 详解redis大幅性能提升之使用管道(PipeLine)和批量(Batch)操作

从图中可以看到,有很多次的192.168.23.1 => 192.168.23.151 之间的数据往返,从传输内容中大概也可以看到有一个叫做productid_xxx的前缀,

那如果有百万次局域网这样的round trip,那这个延迟性可想而知,肯定达不到我们预想的高性能。

 二:解决方案【batch】

     刚好基于我们现有的业务,我可以定时的将批量的productid和customerid进行分组整合,然后用batch的形式插入到某一个具体的product的set中去,接下来我可以把上面的代码改成类似下面这样:

     static void main(string[] args)
     {
       connectionmultiplexer redis = connectionmultiplexer.connect("...:");
 
       var db = redis.getdatabase();
 
       var productid = string.format("productid_{}", );
 
       var list = new list<int>();
 
 
       for (int i = ; i < ; i++)
       {
         list.add(i);
       }
 
       db.setadd(productid, list.select(i => (redisvalue)i).toarray());
     }
 

 详解redis大幅性能提升之使用管道(PipeLine)和批量(Batch)操作

从截图中传输的request,response可以看到,这次我们一次性提交过去,极大的较少了在网络传输方面带来的尴尬性。。

 三:再次提出问题

product维度的画像我们可以解决了,但是我们还有一个customerid的维度,也就是说我需要维护一个customerid为key的set集合,其中value的值为该customerid的各种平均值,比如说“总交易次数”,“总交易金额”。。。等等这样的聚合信息,然后推送过来的是批量的customerid,也就是说你需要定时维护一小嘬set集合,在这种情况下某一个set的批量操作就搞不定了。。。原始代码如下:

     static void main(string[] args)
     {
       connectionmultiplexer redis = connectionmultiplexer.connect("...:");
 
       var db = redis.getdatabase();
 
 
       //批量过来的数据: customeridlist, ordertotalprice,具体业务逻辑省略
       var ordertotalprice = ;
 
       var customeridlist = new list<int>();
 
       for (int i = ; i < ; i++)
       {
         customeridlist.add(i);
       }
 
       //foreach更新每个redis 的set集合
       foreach (var item in customeridlist)
       {
         var customerid = string.format("customerid_{}", item);
 
         db.setadd(customerid, ordertotalprice);
       }
     }

四:解决方案【pipeline】

=上面这种代码在生产上当然是行不通的,不过针对这种问题,redis早已经提出了相关的解决方案,那就是pipeline机制,原理还是一样,将命令集整合起来通过一条request请求一起送过去,由redis内部fake出一个client做批量执行操作,代码如下:

     static void main(string[] args)
     {
       connectionmultiplexer redis = connectionmultiplexer.connect("...:");
 
       var db = redis.getdatabase();
 
 
       //批量过来的数据: customeridlist, ordertotalprice,具体业务逻辑省略
       var ordertotalprice = ;
 
       var customeridlist = new list<int>();
 
       for (int i = ; i < ; i++)
       {
         customeridlist.add(i);
       }
 
       var batch = db.createbatch();
 
       foreach (var item in customeridlist)
       {
         var customerid = string.format("customerid_{}", item);
 
         batch.setaddasync(customerid, ordertotalprice);
       }
 
       batch.execute();
     }

然后,我们再看下面的wireshark截图,可以看到有很多的sadd这样的小命令,这就说明有很多命令是一起过去的,大大的提升了性能。

 详解redis大幅性能提升之使用管道(PipeLine)和批量(Batch)操作

 最后可以再看一下redis,数据也是有的,是不是很爽~~~

192.168.23.151:6379> keys *
 1) "customerid_0"
 2) "customerid_9"
 3) "customerid_1"
 4) "customerid_3"
 5) "customerid_8"
 6) "customerid_2"
 7) "customerid_7"
 8) "customerid_5"
 9) "customerid_6"
10) "customerid_4"

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。