HBase 系列(八)——HBase 协处理器
一、简述
在使用 hbase 时,如果你的数据量达到了数十亿行或数百万列,此时能否在查询中返回大量数据将受制于网络的带宽,即便网络状况允许,但是客户端的计算处理也未必能够满足要求。在这种情况下,协处理器(coprocessors)应运而生。它允许你将业务计算代码放入在 regionserver 的协处理器中,将处理好的数据再返回给客户端,这可以极大地降低需要传输的数据量,从而获得性能上的提升。同时协处理器也允许用户扩展实现 hbase 目前所不具备的功能,如权限校验、二级索引、完整性约束等。
二、协处理器类型
2.1 observer协处理器
1. 功能
observer 协处理器类似于关系型数据库中的触发器,当发生某些事件的时候这类协处理器会被 server 端调用。通常可以用来实现下面功能:
-
权限校验:在执行
get
或put
操作之前,您可以使用preget
或preput
方法检查权限; - 完整性约束: hbase 不支持关系型数据库中的外键功能,可以通过触发器在插入或者删除数据的时候,对关联的数据进行检查;
- 二级索引: 可以使用协处理器来维护二级索引。
2. 类型
当前 observer 协处理器有以下四种类型:
-
regionobserver :
允许您观察 region 上的事件,例如 get 和 put 操作。 -
regionserverobserver :
允许您观察与 regionserver 操作相关的事件,例如启动,停止或执行合并,提交或回滚。 -
masterobserver :
允许您观察与 hbase master 相关的事件,例如表创建,删除或 schema 修改。 -
walobserver :
允许您观察与预写日志(wal)相关的事件。
3. 接口
以上四种类型的 observer 协处理器均继承自 coprocessor
接口,这四个接口中分别定义了所有可用的钩子方法,以便在对应方法前后执行特定的操作。通常情况下,我们并不会直接实现上面接口,而是继承其 base 实现类,base 实现类只是简单空实现了接口中的方法,这样我们在实现自定义的协处理器时,就不必实现所有方法,只需要重写必要方法即可。
这里以 regionobservers
为例,其接口类中定义了所有可用的钩子方法,下面截取了部分方法的定义,多数方法都是成对出现的,有 pre
就有 post
:
4. 执行流程
- 客户端发出 put 请求
- 该请求被分派给合适的 regionserver 和 region
- coprocessorhost 拦截该请求,然后在该表的每个 regionobserver 上调用 preput()
- 如果没有被
preput()
拦截,该请求继续送到 region,然后进行处理 - region 产生的结果再次被 coprocessorhost 拦截,调用
postput()
- 假如没有
postput()
拦截该响应,最终结果被返回给客户端
如果大家了解 spring,可以将这种执行方式类比于其 aop 的执行原理即可,官方文档当中也是这样类比的:
if you are familiar with aspect oriented programming (aop), you can think of a coprocessor as applying advice by intercepting a request and then running some custom code,before passing the request on to its final destination (or even changing the destination).
如果您熟悉面向切面编程(aop),您可以将协处理器视为通过拦截请求然后运行一些自定义代码来使用 advice,然后将请求传递到其最终目标(或者更改目标)。
2.2 endpoint协处理器
endpoint 协处理器类似于关系型数据库中的存储过程。客户端可以调用 endpoint 协处理器在服务端对数据进行处理,然后再返回。
以聚集操作为例,如果没有协处理器,当用户需要找出一张表中的最大数据,即 max 聚合操作,就必须进行全表扫描,然后在客户端上遍历扫描结果,这必然会加重了客户端处理数据的压力。利用 coprocessor,用户可以将求最大值的代码部署到 hbase server 端,hbase 将利用底层 cluster 的多个节点并发执行求最大值的操作。即在每个 region 范围内执行求最大值的代码,将每个 region 的最大值在 region server 端计算出来,仅仅将该 max 值返回给客户端。之后客户端只需要将每个 region 的最大值进行比较而找到其中最大的值即可。
三、协处理的加载方式
要使用我们自己开发的协处理器,必须通过静态(使用 hbase 配置)或动态(使用 hbase shell 或 java api)加载它。
- 静态加载的协处理器称之为 system coprocessor(系统级协处理器),作用范围是整个 hbase 上的所有表,需要重启 hbase 服务;
- 动态加载的协处理器称之为 table coprocessor(表处理器),作用于指定的表,不需要重启 hbase 服务。
其加载和卸载方式分别介绍如下。
四、静态加载与卸载
4.1 静态加载
静态加载分以下三步:
- 在
hbase-site.xml
定义需要加载的协处理器。
<property> <name>hbase.coprocessor.region.classes</name> <value>org.myname.hbase.coprocessor.endpoint.sumendpoint</value> </property>
<name>
标签的值必须是下面其中之一:
- regionobservers 和 endpoints 协处理器:
hbase.coprocessor.region.classes
- walobservers 协处理器:
hbase.coprocessor.wal.classes
- masterobservers 协处理器:
hbase.coprocessor.master.classes
<value>
必须是协处理器实现类的全限定类名。如果为加载指定了多个类,则类名必须以逗号分隔。
将 jar(包含代码和所有依赖项) 放入 hbase 安装目录中的
lib
目录下;重启 hbase。
4.2 静态卸载
从 hbase-site.xml 中删除配置的协处理器的<property>元素及其子元素;
从类路径或 hbase 的 lib 目录中删除协处理器的 jar 文件(可选);
重启 hbase。
五、动态加载与卸载
使用动态加载协处理器,不需要重新启动 hbase。但动态加载的协处理器是基于每个表加载的,只能用于所指定的表。
此外,在使用动态加载必须使表脱机(disable)以加载协处理器。动态加载通常有两种方式:shell 和 java api 。
以下示例基于两个前提:
- coprocessor.jar 包含协处理器实现及其所有依赖项。
- jar 包存放在 hdfs 上的路径为:hdfs:// <namenode>:<port> / user / <hadoop-user> /coprocessor.jar
5.1 hbase shell动态加载
- 使用 hbase shell 禁用表
hbase > disable 'tablename'
- 使用如下命令加载协处理器
hbase > alter 'tablename', method => 'table_att', 'coprocessor'=>'hdfs://<namenode>:<port>/ user/<hadoop-user>/coprocessor.jar| org.myname.hbase.coprocessor.regionobserverexample|1073741823| arg1=1,arg2=2'
coprocessor
包含由管道(|)字符分隔的四个参数,按顺序解释如下:
- jar 包路径:通常为 jar 包在 hdfs 上的路径。关于路径以下两点需要注意:
允许使用通配符,例如:
hdfs://<namenode>:<port>/user/<hadoop-user>/*.jar
来添加指定的 jar 包;可以使指定目录,例如:
hdfs://<namenode>:<port>/user/<hadoop-user>/
,这会添加目录中的所有 jar 包,但不会搜索子目录中的 jar 包。- 类名:协处理器的完整类名。
- 优先级:协处理器的优先级,遵循数字的自然序,即值越小优先级越高。可以为空,在这种情况下,将分配默认优先级值。
可选参数 :传递的协处理器的可选参数。
- 启用表
hbase > enable 'tablename'
- 验证协处理器是否已加载
hbase > describe 'tablename'
协处理器出现在 table_attributes
属性中则代表加载成功。
5.2 hbase shell动态卸载
- 禁用表
hbase> disable 'tablename'
- 移除表协处理器
hbase> alter 'tablename', method => 'table_att_unset', name => 'coprocessor$1'
- 启用表
hbase> enable 'tablename'
5.3 java api 动态加载
tablename tablename = tablename.valueof("users"); string path = "hdfs://<namenode>:<port>/user/<hadoop-user>/coprocessor.jar"; configuration conf = hbaseconfiguration.create(); connection connection = connectionfactory.createconnection(conf); admin admin = connection.getadmin(); admin.disabletable(tablename); htabledescriptor htabledescriptor = new htabledescriptor(tablename); hcolumndescriptor columnfamily1 = new hcolumndescriptor("personaldet"); columnfamily1.setmaxversions(3); htabledescriptor.addfamily(columnfamily1); hcolumndescriptor columnfamily2 = new hcolumndescriptor("salarydet"); columnfamily2.setmaxversions(3); htabledescriptor.addfamily(columnfamily2); htabledescriptor.setvalue("coprocessor$1", path + "|" + regionobserverexample.class.getcanonicalname() + "|" + coprocessor.priority_user); admin.modifytable(tablename, htabledescriptor); admin.enabletable(tablename);
在 hbase 0.96 及其以后版本中,htabledescriptor 的 addcoprocessor() 方法提供了一种更为简便的加载方法。
tablename tablename = tablename.valueof("users"); path path = new path("hdfs://<namenode>:<port>/user/<hadoop-user>/coprocessor.jar"); configuration conf = hbaseconfiguration.create(); connection connection = connectionfactory.createconnection(conf); admin admin = connection.getadmin(); admin.disabletable(tablename); htabledescriptor htabledescriptor = new htabledescriptor(tablename); hcolumndescriptor columnfamily1 = new hcolumndescriptor("personaldet"); columnfamily1.setmaxversions(3); htabledescriptor.addfamily(columnfamily1); hcolumndescriptor columnfamily2 = new hcolumndescriptor("salarydet"); columnfamily2.setmaxversions(3); htabledescriptor.addfamily(columnfamily2); htabledescriptor.addcoprocessor(regionobserverexample.class.getcanonicalname(), path, coprocessor.priority_user, null); admin.modifytable(tablename, htabledescriptor); admin.enabletable(tablename);
5.4 java api 动态卸载
卸载其实就是重新定义表但不设置协处理器。这会删除所有表上的协处理器。
tablename tablename = tablename.valueof("users"); string path = "hdfs://<namenode>:<port>/user/<hadoop-user>/coprocessor.jar"; configuration conf = hbaseconfiguration.create(); connection connection = connectionfactory.createconnection(conf); admin admin = connection.getadmin(); admin.disabletable(tablename); htabledescriptor htabledescriptor = new htabledescriptor(tablename); hcolumndescriptor columnfamily1 = new hcolumndescriptor("personaldet"); columnfamily1.setmaxversions(3); htabledescriptor.addfamily(columnfamily1); hcolumndescriptor columnfamily2 = new hcolumndescriptor("salarydet"); columnfamily2.setmaxversions(3); htabledescriptor.addfamily(columnfamily2); admin.modifytable(tablename, htabledescriptor); admin.enabletable(tablename);
六、协处理器案例
这里给出一个简单的案例,实现一个类似于 redis 中 append
命令的协处理器,当我们对已有列执行 put 操作时候,hbase 默认执行的是 update 操作,这里我们修改为执行 append 操作。
# redis append 命令示例 redis> exists mykey (integer) 0 redis> append mykey "hello" (integer) 5 redis> append mykey " world" (integer) 11 redis> get mykey "hello world"
6.1 创建测试表
# 创建一张杂志表 有文章和图片两个列族 hbase > create 'magazine','article','picture'
6.2 协处理器编程
完整代码可见本仓库:hbase-observer-coprocessor
新建 maven 工程,导入下面依赖:
<dependency> <groupid>org.apache.hbase</groupid> <artifactid>hbase-common</artifactid> <version>1.2.0</version> </dependency> <dependency> <groupid>org.apache.hbase</groupid> <artifactid>hbase-server</artifactid> <version>1.2.0</version> </dependency>
继承 baseregionobserver
实现我们自定义的 regionobserver
,对相同的 article:content
执行 put 命令时,将新插入的内容添加到原有内容的末尾,代码如下:
public class appendregionobserver extends baseregionobserver { private byte[] columnfamily = bytes.tobytes("article"); private byte[] qualifier = bytes.tobytes("content"); @override public void preput(observercontext<regioncoprocessorenvironment> e, put put, waledit edit, durability durability) throws ioexception { if (put.has(columnfamily, qualifier)) { // 遍历查询结果,获取指定列的原值 result rs = e.getenvironment().getregion().get(new get(put.getrow())); string oldvalue = ""; for (cell cell : rs.rawcells()) if (cellutil.matchingcolumn(cell, columnfamily, qualifier)) { oldvalue = bytes.tostring(cellutil.clonevalue(cell)); } // 获取指定列新插入的值 list<cell> cells = put.get(columnfamily, qualifier); string newvalue = ""; for (cell cell : cells) { if (cellutil.matchingcolumn(cell, columnfamily, qualifier)) { newvalue = bytes.tostring(cellutil.clonevalue(cell)); } } // append 操作 put.addcolumn(columnfamily, qualifier, bytes.tobytes(oldvalue + newvalue)); } } }
6.3 打包项目
使用 maven 命令进行打包,打包后的文件名为 hbase-observer-coprocessor-1.0-snapshot.jar
# mvn clean package
6.4 上传jar包到hdfs
# 上传项目到hdfs上的hbase目录 hadoop fs -put /usr/app/hbase-observer-coprocessor-1.0-snapshot.jar /hbase # 查看上传是否成功 hadoop fs -ls /hbase
6.5 加载协处理器
- 加载协处理器前需要先禁用表
hbase > disable 'magazine'
- 加载协处理器
hbase > alter 'magazine', method => 'table_att', 'coprocessor'=>'hdfs://hadoop001:8020/hbase/hbase-observer-coprocessor-1.0-snapshot.jar|com.heibaiying.appendregionobserver|1001|'
- 启用表
hbase > enable 'magazine'
- 查看协处理器是否加载成功
hbase > desc 'magazine'
协处理器出现在 table_attributes
属性中则代表加载成功,如下图:
6.6 测试加载结果
插入一组测试数据:
hbase > put 'magazine', 'rowkey1','article:content','hello' hbase > get 'magazine','rowkey1','article:content' hbase > put 'magazine', 'rowkey1','article:content','world' hbase > get 'magazine','rowkey1','article:content'
可以看到对于指定列的值已经执行了 append 操作:
插入一组对照数据:
hbase > put 'magazine', 'rowkey1','article:author','zhangsan' hbase > get 'magazine','rowkey1','article:author' hbase > put 'magazine', 'rowkey1','article:author','lisi' hbase > get 'magazine','rowkey1','article:author'
可以看到对于正常的列还是执行 update 操作:
6.7 卸载协处理器
- 卸载协处理器前需要先禁用表
hbase > disable 'magazine'
- 卸载协处理器
hbase > alter 'magazine', method => 'table_att_unset', name => 'coprocessor$1'
- 启用表
hbase > enable 'magazine'
- 查看协处理器是否卸载成功
hbase > desc 'magazine'
6.8 测试卸载结果
依次执行下面命令可以测试卸载是否成功
hbase > get 'magazine','rowkey1','article:content' hbase > put 'magazine', 'rowkey1','article:content','hello' hbase > get 'magazine','rowkey1','article:content'
参考资料
更多大数据系列文章可以参见 github 开源项目: 大数据入门指南