Oracle 数据泵expdq,impdq
使用数据泵技术实现逻辑备份
数据泵概述
数据泵(data pump)是一种在数据库之间、数据库与操作系统之间,高速传输数据的技术(10g推出)。
逻辑备份概述
逻辑备份是对数据库对象(如用户、表、存储过程等)利用export等工具进行导出
物理备份对比
物理备份是转储oracle物理文件(如数据文件、控制文件、归档日志文件等)
物理备份旨在完全恢复整个数据库,要求完全相同的备份环境和恢复环境
逻辑备份旨在备份数据本身,可移植性强,但是备份和恢复速度低下,大型业务系统一般不用
操作步骤
1.创建目录对象(在哪导入,导出到哪)
create directory 目录名(dump_dir) as '绝对路径';
2.dump_dir目录授予
grant read,write on directory 目录名 to 导入导出用户;
select * from dba_directories; 查询所有已创建的目录 drop directory 目录名; 删除目录
3.expdq导出(expdp和impdp是oracle服务端的工具,退出sqlplus)
第一种:全量导出数据库:
expdp 用户名/密码@orcl dumpfile=导出文件名.dmp directory=目录名 full=y logfile=日志名.log;(与dmp一个目录)
第二种:按用户导出:
expdp 用户名/密码@orcl schemas=用户 dumpfile=导出文件名.dmp directory=目录名 logfile=日志名.log;
第三种:按表空间导出:
expdp 用户名/密码@orcl tablespace=表空间名 dumpfile=导出文件名.dmp directory=目录名 logfile=日志名.log;
第四种:按表导出:
expdp 用户名/密码@orcl tables=表名 dumpfile=导出文件名.dmp directory=目录名 logfile=日志名.log;
导出表结构
expdp 用户名/密码@orcl directory=目录名 dumpfile=导出文件名.dmp content=metadata_only tables=(a,b)
metadata_only代表只导出表结构
第五种:按查询条件导:
expdp 用户名/密码@orcl tables=表名='where 条件=值' dumpfile=导出文件名.dmp directory=目录名 logfile=日志名.log;
4.impdq(退出sqlplus)
第一种:全量导入数据库;
impdp 用户名/密码 directory=data_dir dumpfile=expdp.dmp full=y;
第二种:按名用户导入,从源用户名1导入到目标用户名2;
impdp 用户名/密码 remap_schema=[源用户名1]:[目标用户名2] directory=data_dir dumpfile=expdp.dmp logfile=impdp.log;
第三种:
a.从a用户中把表table1和table2导入到b用户中;
impdp 用户名/密码 tables=a.table1,a.table2 remap_schema=a:b directory=data_dir dumpfile=expdp.dmp logfile=impdp.log;
b.将表空间tbs01、tbs02、tbs03导入到表空间a_tbs,将用户b的数据导入到a,并生成新的oid防止冲突;
impdp 用户名/密码 remap_tablespace=tbs01:a_tbs,tbs02:a_tbs,tbs03:a_tbs remap_schema=b:a full=y transform=oid:n directory=data_dir dumpfile=expdp.dmp logfile=impdp.log
c.导入表结构
第四种:导入表空间;
impdp 用户名/密码 tablespaces=tbs1 directory=data_dir dumpfile=expdp.dmp logfile=impdp.log;
第五种:追加数据;
impdp 用户名/密码 directory=data_dir dumpfile=expdp.dmp schemas=system table_exists_action=replace logfile=impdp.log;
--table_exists_action:导入对象已存在时执行的操作。有效关键字:skip,append,replace和truncate
5.参数
1.expdb
attach 连接到现有作业, 例如 attach [=作业名]。
compression 减小转储文件内容的大小, 其中有效关键字 值为: all, (metadata_only), data_only 和 none。
content 指定要卸载的数据, 其中有效关键字 值为: (all), data_only 和 metadata_only。
data_options 数据层标记, 其中唯一有效的值为: 使用clob格式的 xml_clobs-write xml 数据类型。
directory 供转储文件和日志文件使用的目录对象,即逻辑目录。
dumpfile 目标转储文件 (expdp.dmp) 的列表,例如 dumpfile=expdp1.dmp, expdp2.dmp。
encryption 加密部分或全部转储文件, 其中有效关键字值为: all, data_only, metadata_only,encrypted_columns_only 或 none。
encryption_algorithm 指定应如何完成加密, 其中有效关键字值为: (aes128), aes192 和 aes256。
encryption_mode 生成加密密钥的方法, 其中有效关键字值为: dual, password 和 (transparent)。
encryption_password 用于创建加密列数据的口令关键字。
estimate 计算作业估计值, 其中有效关键字值为: (blocks) 和 statistics。
estimate_only 在不执行导出的情况下计算作业估计值。
exclude 排除特定的对象类型, 例如 exclude=table:emp。例:exclude=[object_type]:[name_clause],[object_type]:[name_clause] 。
filesize 以字节为单位指定每个转储文件的大小。
flashback_scn 用于将会话快照设置回以前状态的 scn。 -- 指定导出特定scn时刻的表数据。
flashback_time 用于获取最接近指定时间的 scn 的时间。-- 定导出特定时间点的表数据,注意flashback_scn和flashback_time不能同时使用。
full 导出整个数据库 (n)。
help 显示帮助消息 (n)。
include 包括特定的对象类型, 例如 include=table_data。
job_name 要创建的导出作业的名称。
logfile 日志文件名 (export.log)。
network_link 链接到源系统的远程数据库的名称。
nologfile 不写入日志文件 (n)。
parallel 更改当前作业的活动 worker 的数目。
parfile 指定参数文件。
query 用于导出表的子集的谓词子句。--query = [schema.][table_name:] query_clause。
remap_data 指定数据转换函数,例如 remap_data=emp.empno:remappkg.empno。
reuse_dumpfiles 覆盖目标转储文件 (如果文件存在) (n)。
sample 要导出的数据的百分比。
schemas 要导出的方案的列表 (登录方案)。
status 在默认值 (0) 将显示可用时的新状态的情况下,要监视的频率 (以秒计) 作业状态。
tables 标识要导出的表的列表 - 只有一个方案。--[schema_name.]table_name[:partition_name][,…]
tablespaces 标识要导出的表空间的列表。
transportable 指定是否可以使用可传输方法, 其中有效关键字值为: always, (never)。
transport_full_check 验证所有表的存储段 (n)。
transport_tablespaces 要从中卸载元数据的表空间的列表。
version 要导出的对象的版本, 其中有效关键字为:(compatible), latest 或任何有效的数据库版本。
add_file 向转储文件集中添加转储文件。
continue_client 返回到记录模式。如果处于空闲状态, 将重新启动作业。
exit_client 退出客户机会话并使作业处于运行状态。
filesize 后续 add_file 命令的默认文件大小 (字节)。
help 总结交互命令。
kill_job 分离和删除作业。
parallel 更改当前作业的活动 worker 的数目。parallel=
_dumpfiles 覆盖目标转储文件 (如果文件存在) (n)。 start_job 启动/恢复当前作业。 status 在默认值 (0) 将显示可用时的新状态的情况下,要监视的频率 (以秒计) 作业状态。status[=interval]。 stop_job 顺序关闭执行的作业并退出客户机。stop_job=immediate 将立即关闭数据泵作业。 attach 连接到现有作业, 例如 attach [=作业名]。 content 指定要卸载的数据, 其中有效关键字 值为: (all), data_only 和 metadata_only。 data_options 数据层标记,其中唯一有效的值为:skip_constraint_errors-约束条件错误不严重。 directory 供转储文件,日志文件和sql文件使用的目录对象,即逻辑目录。 dumpfile 要从(expdp.dmp)中导入的转储文件的列表,例如 dumpfile=expdp1.dmp, expdp2.dmp。 encryption_password 用于访问加密列数据的口令关键字。此参数对网络导入作业无效。 estimate 计算作业估计值, 其中有效关键字为:(blocks)和statistics。 exclude 排除特定的对象类型, 例如 exclude=table:emp。 flashback_scn 用于将会话快照设置回以前状态的 scn。 flashback_time 用于获取最接近指定时间的 scn 的时间。 full 从源导入全部对象(y)。 include 包括特定的对象类型, 例如 include=table_data。 job_name 要创建的导入作业的名称。 logfile 日志文件名(import.log)。 network_link 链接到源系统的远程数据库的名称。 nologfile 不写入日志文件。 parallel 更改当前作业的活动worker的数目。 parfile 指定参数文件。 partition_options 指定应如何转换分区,其中有效关键字为:departition,merge和(none)。 query 用于导入表的子集的谓词子句。 remap_data 指定数据转换函数,例如remap_data=emp.empno:remappkg.empno。 remap_datafile 在所有ddl语句中重新定义数据文件引用。 remap_schema 将一个方案中的对象加载到另一个方案。 remap_table 表名重新映射到另一个表,例如 remap_table=emp.empno:remappkg.empno。 remap_tablespace 将表空间对象重新映射到另一个表空间。 reuse_datafiles 如果表空间已存在, 则将其初始化 (n)。 schemas 要导入的方案的列表。 skip_unusable_indexes 跳过设置为无用索引状态的索引。 sqlfile 将所有的 sql ddl 写入指定的文件。 status 在默认值(0)将显示可用时的新状态的情况下,要监视的频率(以秒计)作业状态。 streams_configuration 启用流元数据的加载。 table_exists_action 导入对象已存在时执行的操作。有效关键字:(skip),append,replace和truncate。 tables 标识要导入的表的列表。 tablespaces 标识要导入的表空间的列表。 transform 要应用于适用对象的元数据转换。有效转换关键字为:segment_attributes,storage,oid和pctspace。 transportable 用于选择可传输数据移动的选项。有效关键字为: always 和 (never)。仅在 network_link 模式导入操作中有效。 transport_datafiles 按可传输模式导入的数据文件的列表。 transport_full_check 验证所有表的存储段 (n)。 transport_tablespaces 要从中加载元数据的表空间的列表。仅在 network_link 模式导入操作中有效。 version 要导出的对象的版本, 其中有效关键字为:(compatible), latest 或任何有效的数据库版本。仅对 network_link 和 sqlfile 有效。 continue_client 返回到记录模式。如果处于空闲状态, 将重新启动作业。 exit_client 退出客户机会话并使作业处于运行状态。 help 总结交互命令。 kill_job 分离和删除作业。 parallel 更改当前作业的活动 worker 的数目。parallel=
start_job 启动/恢复当前作业。start_job=skip_current 在开始作业之前将跳过作业停止时执行的任意操作。 status 在默认值 (0) 将显示可用时的新状态的情况下,要监视的频率 (以秒计) 作业状态。status[=interval]。 stop_job 顺序关闭执行的作业并退出客户机。stop_job=immediate 将立即关闭数据泵作业。2.impdq
help 显示帮助消息(n)。