利用sqoop 将 hive/hdfs数据 导入 Oracle中
程序员文章站
2022-05-12 21:41:05
...
首先我们要安装好sqoop 笔者我用的是sqoop1 其次我们需要ojdbc6.jar 这个jar 包下载地址如下: http://www.oracle.com/technetwork/database/enterprise-edition/jdbc-112010-090769.html 将解压的包 复制到sqoop安装目录下的lib 目录中 最后执行我们的导入
首先我们要安装好sqoop
笔者我用的是sqoop1
其次我们需要ojdbc6.jar 这个jar 包下载地址如下:
http://www.oracle.com/technetwork/database/enterprise-edition/jdbc-112010-090769.html
将解压的包 复制到sqoop安装目录下的lib 目录中
最后执行我们的导入命令即可
sqoop export --table FDC_JPLP --connect jdbc:oracle:thin:@localhost:port:test1 --username test --password test --export-dir /user/hive/warehouse/data_w.db/seq_fdc_jplp --columns goal_ocityid,goal_issueid,compete_issueid,ncompete_rank --input-fields-terminated-by '\001' --input-lines-terminated-by '\n'
注意要指定 –columns 参数 否则会报错 找不到 columns
用法: –columns
查询数据是否导入成功
? sqoop eval --connect jdbc:oracle:thin:@localhost:port:test1 --query "select * from FDC_JPLP" --username fccsreport --password fccsoracle10g_report
当然你也可以使用Oracle相关的管理工具查看。
说明:做数据导入 导出操作的时候请注意 两边表字段类型尽量要保持一致 否则会出现数据类型转化错误
原文地址:利用sqoop 将 hive/hdfs数据 导入 Oracle中, 感谢原作者分享。
推荐阅读
-
如何将excel中的数据导入hive仓库中
-
利用shell脚本将Oracle服务器中数据定时增量刷新到ftp服务器中
-
sqoop读取postgresql数据库表格导入到hdfs中的实现
-
oracle将scott用户表导出再将数据导入vip用户中
-
使用pyspark模仿sqoop从oracle导数据到hive的主要功能(自动建表,分区导入,增量,解决数据换行符问题)
-
Sqoop将数据从oracle导入到hive时,数据错位的问题解决
-
利用sqoop 将 hive/hdfs数据 导入 Oracle中
-
Sqoop1.4.4 实现将 Oracle10g 中的增量数据导入 Hive0.13.1 ,并更新Hive中的主表
-
利用工具将shp文件导入到oracle spatial中
-
利用工具将shp文件导入到oracle spatial中