欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

HBase 系列(九)——HBase 容灾与备份

程序员文章站 2022-10-26 08:10:00
一、前言 本文主要介绍 Hbase 常用的三种简单的容灾备份方案,即 CopyTable 、 Export / Import 、 Snapshot 。分别介绍如下: 二、CopyTable 2.1 简介 CopyTable 可以将现有表的数据复制到新表中,具有以下特点: 支持时间区间 、row 区间 ......

一、前言

本文主要介绍 hbase 常用的三种简单的容灾备份方案,即copytableexport/importsnapshot。分别介绍如下:

二、copytable

2.1 简介

copytable可以将现有表的数据复制到新表中,具有以下特点:

  • 支持时间区间 、row 区间 、改变表名称 、改变列族名称 、以及是否 copy 已被删除的数据等功能;
  • 执行命令前,需先创建与原表结构相同的新表;
  • copytable 的操作是基于 hbase client api 进行的,即采用 scan 进行查询, 采用 put 进行写入。

2.2 命令格式

usage: copytable [general options] [--starttime=x] [--endtime=y] [--new.name=new] [--peer.adr=adr] <tablename>

2.3 常用命令

  1. 同集群下 copytable
hbase org.apache.hadoop.hbase.mapreduce.copytable --new.name=tablecopy  tableorig
  1. 不同集群下 copytable
# 两表名称相同的情况
hbase org.apache.hadoop.hbase.mapreduce.copytable \
--peer.adr=dstclusterzk:2181:/hbase tableorig

# 也可以指新的表名
hbase org.apache.hadoop.hbase.mapreduce.copytable \
--peer.adr=dstclusterzk:2181:/hbase \
--new.name=tablecopy tableorig
  1. 下面是一个官方给的比较完整的例子,指定开始和结束时间,集群地址,以及只复制指定的列族:
hbase org.apache.hadoop.hbase.mapreduce.copytable \
--starttime=1265875194289 \
--endtime=1265878794289 \
--peer.adr=server1,server2,server3:2181:/hbase \
--families=myoldcf:mynewcf,cf2,cf3 testtable

2.4 更多参数

可以通过 --help 查看更多支持的参数

# hbase org.apache.hadoop.hbase.mapreduce.copytable --help
HBase 系列(九)——HBase 容灾与备份

三、export/import

3.1 简介

  • export 支持导出数据到 hdfs, import 支持从 hdfs 导入数据。export 还支持指定导出数据的开始时间和结束时间,因此可以用于增量备份。
  • export 导出与 copytable 一样,依赖 hbase 的 scan 操作

3.2 命令格式

# export
hbase org.apache.hadoop.hbase.mapreduce.export <tablename> <outputdir> [<versions> [<starttime> [<endtime>]]]

# inport
hbase org.apache.hadoop.hbase.mapreduce.import <tablename> <inputdir>
  • 导出的 outputdir 目录可以不用预先创建,程序会自动创建。导出完成后,导出文件的所有权将由执行导出命令的用户所拥有。
  • 默认情况下,仅导出给定 cell 的最新版本,而不管历史版本。要导出多个版本,需要将 <versions> 参数替换为所需的版本数。

3.3 常用命令

  1. 导出命令
hbase org.apache.hadoop.hbase.mapreduce.export tablename  hdfs 路径/tablename.db
  1. 导入命令
hbase org.apache.hadoop.hbase.mapreduce.import tablename  hdfs 路径/tablename.db

四、snapshot

4.1 简介

hbase 的快照 (snapshot) 功能允许您获取表的副本 (包括内容和元数据),并且性能开销很小。因为快照存储的仅仅是表的元数据和 hfiles 的信息。快照的 clone 操作会从该快照创建新表,快照的 restore 操作会将表的内容还原到快照节点。clonerestore 操作不需要复制任何数据,因为底层 hfiles(包含 hbase 表数据的文件) 不会被修改,修改的只是表的元数据信息。

4.2 配置

hbase 快照功能默认没有开启,如果要开启快照,需要在 hbase-site.xml 文件中添加如下配置项:

<property>
    <name>hbase.snapshot.enabled</name>
    <value>true</value>
</property>

4.3 常用命令

快照的所有命令都需要在 hbase shell 交互式命令行中执行。

1. take a snapshot

# 拍摄快照
hbase> snapshot '表名', '快照名'

默认情况下拍摄快照之前会在内存中执行数据刷新。以保证内存中的数据包含在快照中。但是如果你不希望包含内存中的数据,则可以使用 skip_flush 选项禁止刷新。

# 禁止内存刷新
hbase> snapshot  '表名', '快照名', {skip_flush => true}

2. listing snapshots

# 获取快照列表
hbase> list_snapshots

3. deleting snapshots

# 删除快照
hbase> delete_snapshot '快照名'

4. clone a table from snapshot

# 从现有的快照创建一张新表
hbase>  clone_snapshot '快照名', '新表名'

5. restore a snapshot

将表恢复到快照节点,恢复操作需要先禁用表

hbase> disable '表名'
hbase> restore_snapshot '快照名'

这里需要注意的是:是如果 hbase 配置了基于 replication 的主从复制,由于 replication 在日志级别工作,而快照在文件系统级别工作,因此在还原之后,会出现副本与主服务器处于不同的状态的情况。这时候可以先停止同步,所有服务器还原到一致的数据点后再重新建立同步。

参考资料

  1. online apache hbase backups with copytable
  2. apache hbase ™ reference guide

更多大数据系列文章可以参见 github 开源项目大数据入门指南