欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

大数据仓库Hive部署安装

程序员文章站 2022-05-01 12:13:31
...

在安装hive之前,请先确保已经搭建好hadoop环境,如果没有完成hadoop环境搭建,可参考文章最全面的CentOS下hadoop的分布式搭建或者CentOS下hadoop的伪分布式安装

一、下载并解压安装包

下面提供了hive-0.13.1版本的下载链接
链接: https://pan.baidu.com/s/1RcoymkbWsCRUHUKTxrcVmw
密码: dh78

将下载好的安装包解压到指定目录:
大数据仓库Hive部署安装

二、配置文件

hive的配置文件非常简单。
1、修改conf目录下的hive-env.sh.template文件名为hive-env.sh,然后在该文件中添加hadoop安装路径即可。
大数据仓库Hive部署安装
2、按照官网所说,加你启动之前先在hadoop中创建两个文件夹
大数据仓库Hive部署安装
所以我们先创建/tmp和/user/hive/warehouse文件夹
大数据仓库Hive部署安装
完成上述操作就可以启动hive了
大数据仓库Hive部署安装

三、配置元数据存储在mysql

hive默认将元数据存储在自带的derby中,默认是同时只能有一个人使用hive,但是我们往往需要多用户交互使用,所以我们需要配置下mysql。该教程默认是已经安装好了mysql的,如果还没安装,可查看Centos安装mysql完整教程

1、在conf下创建文件hive-site.xml
2、在hive-site.xml中添加如下内容:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://hadoop1:3306/metastore?createDatabaseIfNotExist=true</value>
  <description>JDBC connect string for a JDBC metastore</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC metastore</description>
</property>
<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>root</value>
  <description>username to use against metastore database</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>qjg123456</value>
  <description>password to use against metastore database</description>
</property>

</configuration>

各项分别代表mysql地址、mysql驱动,用户名,和登陆密码(密码各不相同,注意修改)。其中mysql地址中hadoop1代表的是主机名。

3、下载驱动

链接: https://pan.baidu.com/s/1DLZNcL043xpeqauoqaeTaw
密码: 96cl

解压之后将mysql-connector-java-5.1.27-bin.jar驱动拷贝到hive安装目录下的lib文件夹中
大数据仓库Hive部署安装
到此就配置完成了

四、报错

完成上述操作之后启动可能出现Caused by: java.sql.SQLException: Access denied for user 'root'@'hadoop1' (using password: YES)问题。

解决办法:
进入到mysql中输入如下命令:

mysql> grant all privileges on *.*  to 'root'@'hadoop1' identified by 'yourpassword';
mysql> flush privileges;
相关标签: 大数据 hive