欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

高可用Hive配置多客户端 多用户模式

程序员文章站 2022-03-15 22:02:00
...

高可用Hive配置多客户端

hive高可用搭建完毕了,但是如果想在其他节点连接hive怎么办呢?

这个时候我们就需要在其他节点安装hive的客户端

高可用hive的搭建参考我的另一篇文章
hive高可用搭建

1.复制安装文件

将hdp14的安装文件复制到要连接hive的节点hdp16

[[email protected] bigdata]$ scp -r hive [email protected]:/opt/bigdata/

2.修改核心配置

连接hdp16,添加配置文件

[[email protected] hive]$ pwd
/opt/bigdata/hive
[[email protected] hive]$ cd conf/
[[email protected] conf]$ mv hive-site.xml hive-site.xml.bak
[[email protected] conf]$ vim hive-site.xml

添加如下内容

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <!--  数据仓库的存储目录 -->
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/data/hive/data/warehouse</value>
    </property>
    <!-- metastore值为false  -->
    <property>
        <name>hive.metastore.local</name>
        <value>false</value>
    </property>
    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://hdp14:9083,thrift://hdp15:9083</value>
    </property>
</configuration>

3.配置环境变量

[[email protected] conf]$ sudo vim /etc/profile.d/my_env.sh

添加

#HIVE_HOME
export HIVE_HOME=/opt/bigdata/hive
export PATH=$PATH:$HIVE_HOME/bin
#SPARK_HOME
export SPARK_HOME=/opt/bigdata/spark
export PATH=$PATH:$SPARK_HOME/bin

环境变量生效

[[email protected] conf]$ source /etc/profile.d/my_env.sh 

4.连接hive

[[email protected] ~]$ beeline
Beeline version 3.1.2 by Apache Hive
beeline> !connect jdbc:hive2://hdp16,hdp17,hdp18/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2_zk along root
Connecting to jdbc:hive2://hdp16,hdp17,hdp18/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2_zk
21/06/17 12:25:00 [main]: INFO jdbc.HiveConnection: Connected to hdp15:10000
Connected to: Apache Hive (version 3.1.2)
Driver: Hive JDBC (version 3.1.2)
Transaction isolation: TRANSACTION_REPEATABLE_READ

完成!