高可用Hive配置多客户端 多用户模式
程序员文章站
2022-03-15 22:02:00
...
高可用Hive配置多客户端
hive高可用搭建完毕了,但是如果想在其他节点连接hive怎么办呢?
这个时候我们就需要在其他节点安装hive的客户端
高可用hive的搭建参考我的另一篇文章
hive高可用搭建
1.复制安装文件
将hdp14的安装文件复制到要连接hive的节点hdp16
[[email protected] bigdata]$ scp -r hive [email protected]:/opt/bigdata/
2.修改核心配置
连接hdp16,添加配置文件
[[email protected] hive]$ pwd
/opt/bigdata/hive
[[email protected] hive]$ cd conf/
[[email protected] conf]$ mv hive-site.xml hive-site.xml.bak
[[email protected] conf]$ vim hive-site.xml
添加如下内容
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 数据仓库的存储目录 -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/data/hive/data/warehouse</value>
</property>
<!-- metastore值为false -->
<property>
<name>hive.metastore.local</name>
<value>false</value>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://hdp14:9083,thrift://hdp15:9083</value>
</property>
</configuration>
3.配置环境变量
[[email protected] conf]$ sudo vim /etc/profile.d/my_env.sh
添加
#HIVE_HOME
export HIVE_HOME=/opt/bigdata/hive
export PATH=$PATH:$HIVE_HOME/bin
#SPARK_HOME
export SPARK_HOME=/opt/bigdata/spark
export PATH=$PATH:$SPARK_HOME/bin
环境变量生效
[[email protected] conf]$ source /etc/profile.d/my_env.sh
4.连接hive
[[email protected] ~]$ beeline
Beeline version 3.1.2 by Apache Hive
beeline> !connect jdbc:hive2://hdp16,hdp17,hdp18/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2_zk along root
Connecting to jdbc:hive2://hdp16,hdp17,hdp18/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2_zk
21/06/17 12:25:00 [main]: INFO jdbc.HiveConnection: Connected to hdp15:10000
Connected to: Apache Hive (version 3.1.2)
Driver: Hive JDBC (version 3.1.2)
Transaction isolation: TRANSACTION_REPEATABLE_READ
完成!
推荐阅读