欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

hive drop表恢复手册

程序员文章站 2022-07-14 15:11:59
...

前言

  • 语法:DROP TABLE [IF EXISTS] table_name [PURGE]; -- (Note: PURGE available in Hive 0.14.0 and later)
    • 删除此表的元数据和数据。如果配置了Trash (没有指定 PURGE),数据实际上会移动到 .Trash/Current 目录。元数据完全丢失。
    • 删除外部表时,表中的数据不会从文件系统中删除。
    • 当删除视图引用的表时,不会给出警告(视图关联表被删除视为无效,必须由用户删除或重新创建)。
    • 除此之外.当删除表时,将从元数据存储中删除表信息,并像通过hadoop dfs -rm那样删除原始数据。在许多情况下,这会导致表数据被移动到用户主目录中的.Trash文件夹中;因此,错误删除表的用户可以通过使用相同的模式重新创建表、重新创建任何必要的分区,然后使用Hadoop手动将数据移回原位,从而恢复丢失的数据。此解决方案依赖于底层实现,因此可能随时间或跨安装发生更改;强烈建议用户不要随意删除表。
      Version information: PURGE
      

The PURGE option is added in version 0.14.0 by HIVE-7100.

如果指定了 PURGE,则表数据不会转到`. trash /Current`目录,因此在出现错误的删除时无法恢复。清洗选项也可以通过表属性 auto.purge 指定。清除(参见上面的TBLPROPERTIES)。

  在`Hive 0.7.0`或更高版本中,如果表不存在,DROP返回一个错误,除非指定了 `IF EXISTS`,或者配置变量 `hive.exec.drop.ignorenonexistent` 设置为`true`。



- 题外话:`TRUNCATE TABLE table_name [PARTITION partition_spec];

partition_spec:
  : (partition_column = partition_col_value, partition_column = partition_col_value, ...)`

  删除表或分区中的所有行。如果启用了文件系统Trash ,这些行将被丢弃在指定目录,否则它们将被删除(从Hive 2.2.0 with Hive-14626开始)。当前目标表应该是本地/管理表,否则将引发异常。用户可以指定部分 partition_spec来一次 TRUNCATE 多个分区,省略partition_spec将 TRUNCATE 表中的所有分区。

  从`HIVE 2.3.0 (HIVE-15880)`开始,如果表属性`auto.purge`(参见上面的TBLPROPERTIES)设置为`true`,当对表发出 `TRUNCATE TABLE` 命令时,表的数据不会被移动到Trash,并且数据无法恢复。这只适用于管理表。如果管理表没有设置`auto.purge`属性或者设置为`false`这个功能被关闭。
  
  
#### 了解下dorp命令在hdfs中的操作:
- `dorp`命令在HDFS中的操作,其实也是`hdfs dfs -rm`删除到hdfs中的文件.如果`hdfs`中开启了删除放入回收站操作.那么就可以恢复的.

  
  
### 开始操作
- 1. 创建一张与源表相同的表

CREATE TABLE user( locationareaid bigint, locationareaname string ) PARTITIONED BY ( dt string) row format delimited fields terminated by '\t' line terminated by '\n' stored as textfile;


- 2. 从回收站中复制(移动)删除的文件

hdfs dfs -cp /user/hadoop/.Trash/Current/user/hive/warehouse/user/dt=2019-10-161571499856584 /user/hive/warehouse/user


- 3. 把文件加载到`hive`中
方案一 将临时目录下的数据load到表中:

load data inpath '/user/hive/warehouse/user/dt=2019-10-171571499859193/part-m-00000' into table user PARTITION (dt='2019-10-171571499859193');

方案二 如果分区过多的话.方案一会很耗时可以是用`msck repair table` 操作来加载分区,在执行命令前,
注意:一定保证分区所处的位置是正确的.

msck repair table user

- 验证数据

select * from user where dt='2019-10-171571499859193'

```

本文由博客一文多发平台 OpenWrite 发布!