hive drop表恢复手册
程序员文章站
2022-07-14 15:11:59
...
前言
- 语法:
DROP TABLE [IF EXISTS] table_name [PURGE]; -- (Note: PURGE available in Hive 0.14.0 and later)
-
- 删除此表的元数据和数据。如果配置了
Trash
(没有指定 PURGE),数据实际上会移动到.Trash/Current
目录。元数据完全丢失。
- 删除此表的元数据和数据。如果配置了
-
- 删除外部表时,表中的数据不会从文件系统中删除。
-
- 当删除视图引用的表时,不会给出警告(视图关联表被删除视为无效,必须由用户删除或重新创建)。
-
- 除此之外.当删除表时,将从元数据存储中删除表信息,并像通过
hadoop dfs -rm
那样删除原始数据。在许多情况下,这会导致表数据被移动到用户主目录中的.Trash
文件夹中;因此,错误删除表的用户可以通过使用相同的模式重新创建表、重新创建任何必要的分区,然后使用Hadoop手动将数据移回原位,从而恢复丢失的数据。此解决方案依赖于底层实现,因此可能随时间或跨安装发生更改;强烈建议用户不要随意删除表。Version information: PURGE
- 除此之外.当删除表时,将从元数据存储中删除表信息,并像通过
The PURGE option is added in version 0.14.0 by HIVE-7100.
如果指定了 PURGE,则表数据不会转到`. trash /Current`目录,因此在出现错误的删除时无法恢复。清洗选项也可以通过表属性 auto.purge 指定。清除(参见上面的TBLPROPERTIES)。
在`Hive 0.7.0`或更高版本中,如果表不存在,DROP返回一个错误,除非指定了 `IF EXISTS`,或者配置变量 `hive.exec.drop.ignorenonexistent` 设置为`true`。
- 题外话:`TRUNCATE TABLE table_name [PARTITION partition_spec];
partition_spec:
: (partition_column = partition_col_value, partition_column = partition_col_value, ...)`
删除表或分区中的所有行。如果启用了文件系统Trash ,这些行将被丢弃在指定目录,否则它们将被删除(从Hive 2.2.0 with Hive-14626开始)。当前目标表应该是本地/管理表,否则将引发异常。用户可以指定部分 partition_spec来一次 TRUNCATE 多个分区,省略partition_spec将 TRUNCATE 表中的所有分区。
从`HIVE 2.3.0 (HIVE-15880)`开始,如果表属性`auto.purge`(参见上面的TBLPROPERTIES)设置为`true`,当对表发出 `TRUNCATE TABLE` 命令时,表的数据不会被移动到Trash,并且数据无法恢复。这只适用于管理表。如果管理表没有设置`auto.purge`属性或者设置为`false`这个功能被关闭。
#### 了解下dorp命令在hdfs中的操作:
- `dorp`命令在HDFS中的操作,其实也是`hdfs dfs -rm`删除到hdfs中的文件.如果`hdfs`中开启了删除放入回收站操作.那么就可以恢复的.
### 开始操作
- 1. 创建一张与源表相同的表
CREATE TABLE user
( locationareaid
bigint, locationareaname
string ) PARTITIONED BY ( dt
string) row format delimited fields terminated by '\t' line terminated by '\n' stored as textfile;
- 2. 从回收站中复制(移动)删除的文件
hdfs dfs -cp /user/hadoop/.Trash/Current/user/hive/warehouse/user/dt=2019-10-161571499856584 /user/hive/warehouse/user
- 3. 把文件加载到`hive`中
方案一 将临时目录下的数据load到表中:
load data inpath '/user/hive/warehouse/user/dt=2019-10-171571499859193/part-m-00000' into table user PARTITION (dt='2019-10-171571499859193');
方案二 如果分区过多的话.方案一会很耗时可以是用`msck repair table` 操作来加载分区,在执行命令前,
注意:一定保证分区所处的位置是正确的.
msck repair table user
- 验证数据
select * from user where dt='2019-10-171571499859193'
```
本文由博客一文多发平台 OpenWrite 发布!
上一篇: 读取Hive中的数据写入Hbase
下一篇: 使用Handler中遇到的问题分析