欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  网络运营

Redhat 6.5下MySQL5.6集群配置方法完整版

程序员文章站 2024-01-30 10:30:58
1、准备三台服务器 2、为三台机器分别安装linux操作系统(oracle linux / rhel 6.5 x86_64bit) 3、分别ip地址 管理节点&nbs...

1、准备三台服务器
2、为三台机器分别安装linux操作系统(oracle linux / rhel 6.5 x86_64bit)
3、分别ip地址
管理节点      192.168.1.110        (负责管理整个集群)
sql节点      192.168.1.111        (负责操作数据库)
sql节点      192.168.1.112        (负责操作数据库)
数据节点      192.168.1.111        (负责存储数据)
数据节点      192.168.1.112        (负责存储数据)
 
sql节点和数据节点可以同在一台机器上
 
4、修改三台服务器的/etc/hosts文件,修改完后的内容如下:

127.0.0.1    localhost    localhost.domain
192.168.1.110    node01
192.168.1.111    node02
192.168.1.112    node03
 
5、修改三台服务器的/etc/sysconfig/nework文件,修改完后的内容分别如下:

复制代码 代码如下:

networking=yes
hostname=node01
gateway=192.168.1.1    (网关地址因所处网络的不同而不同)
 
networking=yes
hostname=node02
gateway=192.168.1.1    (网关地址因所处网络的不同而不同)
 
networking=yes
hostname=node03
gateway=192.168.1.1    (网关地址因所处网络的不同而不同)

6、分别重启三台服务器

7、下载ndb集群软件mysql-cluster-advanced-7.3.5-linux-glibc2.5-x86_64.tar.gz

集群软件有三种格式:
a、以tar.gz结尾的二制进格式
b、以rpm结尾的rpm包形式
c、以源文件编译安装方式
 
rpm包安装方式,由于是自动安装的,所以不方便配置软件安装位置和数据存储位置
 
所以通常选用.tar.gz结尾的二进制格式的安装文件
 
注意:mysql-cluster-advanced-7.3.5-linux-glibc2.5-x86_64.tar.gz包含了mysql数据库软件和ndb集群软件
 
8、分别复制mysql-cluster-advanced-7.3.5-linux-glibc2.5-x86_64.tar.gz文件到三台服务器上的/usr/local/目录下
 
9、新建用户mysql
# groupadd mysql
# useradd -r -g mysql mysql      (由于mysql用户只是用于安装配置ndb集群或mysql软件,而不用用于登陆系统)
    (所以以-r参数来创建mysql用户,并且不用为该用户设置密码)
 
10、分别在三台服务器上解压mysql-cluster-advanced-7.3.5-linux-glibc2.5-x86_64.tar.gz文件

复制代码 代码如下:

# cd /usr/local
# tar zxvf mysql-cluster-advanced-7.3.5-linux-glibc2.5-x86_64.tar.gz
# ln -s mysql-cluster-advanced-7.3.5-linux-glibc2.5-x86_64  mysql
# chown -r mysql.mysql mysql-cluster-advanced-7.3.5-linux-glibc2.5-x86_64
# cd mysql
# chown -r mysql.mysql .

配置完成以后,结果如下

11、在192.168.1.111和192.168.1.112两个数据节点(两台服务器)上安装mysql数据库软件
由于是二进制安装,所以mysql数据库软件就安装在/usr/local/mysql下,
    但数据库的数据可以存放到其它地方,如/u01/app/mysql/data/下面
 
注意:以下命令在两台数据节点服务器上都要执行

# mkdir -p /u01/app/mysql/data
# chown -r mysql.mysql /u01
# cd /usr/local/mysql
# scripts/mysql_install_db --basedir=/usr/local/mysql  --datadir=/u01/app/mysql/data --user=mysql
执行完这条命令以后,数据库的数据文件(包括mysql,test , performance_schema等数据库)就被安装到了
/u01/app/mysql/data目录下了
 
# cp bin/ndbd  /usr/local/bin/
# cp bin/ndbmtd /usr/local/bin/

然后将启动数据库服务的启动文件复制到/etc/rc.d/init.d/目录下
 
# cp support-files/mysql.server  /etc/rc.d/init.d/mysqld    (改名)
执行完上面这条命令以后,就可以使用service mysqld start | stop | restart命令来管理数据库服务了
 
# cp my.cnf  /etc/my.cnf
# vi /etc/my.cnf
[mysqld]
ndbcluster
basedir=/usr/local/mysql
datadir=/u01/app/mysql/data
port=3306
sql_mode=no_engine_substitution,strict_trans_tables
 
[mysql_cluster]
ndb-connectstring=192.168.1.110
 
再次注意:以上命令在两台数据节点服务器上都要执行
 
到此,数据节点和sql节点的安装配置就结束了,如果数据节点和sql节点是分开在不同的机器上,则每个数据节点
和每个sql节点都要执行以上命令。
 
12、在管理节点上进行安装配置
 
由于第10步已经解压缩mysql-cluster-advanced-7.3.5-linux-glibc2.5-x86_64.tar.gz 安装包到了/usr/local
目录下,并进行了软连接等操作,所以这些工作就不用重复做了,接着往下配置即可
 
# cd /usr/local/mysql
# mkdir mysql-cluster    (创建mysql-cluster目录,后面启动集群管理服务时要用)
# cp bin/ndb_mgm*    /usr/local/bin/
# cd /var/lib
# mkdir mysql-cluster
# cd mysql-cluster
# vi config.ini  (这是管理节点上的集群配置文件,很重要)
[ndbd default]
noofreplicas=1    # number of replicas
datamemory=80m    # how much memory to allocate for data storage
indexmemory=18m  # how much memory to allocate for index storage
                # for datamemory and indexmemory, we have used the
                  # default values. since the "world" database takes up
                  # only about 500kb, this should be more than enough for
                  # this example cluster setup.
 
[tcp default]
                  # this the default; however, you can use any
                  # port that is free for all the hosts in the cluster
                  # note: it is recommended that you do not specify the port
                  # number at all and simply allow the default value to be used
                  # instead
 
[ndb_mgmd]
hostname=192.168.1.110          # hostname or ip address of mgm node
datadir=/var/lib/mysql-cluster  # directory for mgm node log files
nodeid=1
 
[ndbd]
hostname=192.168.1.111        # hostname or ip address
datadir=/u01/app/mysql/data  # directory for this data node's data files
nodeid=2
 
[ndbd]
hostname=192.168.1.112        # hostname or ip address
datadir=/u01/app/mysql/data  # directory for this data node's data files
nodeid=3
 
 
[mysqld]
hostname=192.168.1.111        # hostname or ip address
nodeid=4                      # (additional mysqld connections can be
                              # specified for this node for various
                              # purposes such as running ndb_restore)
 
[mysqld]
hostname=192.168.1.112        # hostname or ip address
nodeid=5                      # (additional mysqld connections can be
                              # specified for this node for various
                              # purposes such as running ndb_restore)
 
配置说明:
[ndbd default]                这部分是公共部分,对于每一个数据节点都有效,只需要配置一份
noofreplicas=1                数据镜像几份(各数据节点之间相互备份)
 
[tcp default]                针对每个数据节点及管理节点之间使用哪个端口进行通讯,
                              在旧版本的ndb集群软件配置时,这个地方通常配置portnumber=2202
                              但新版的ndb软件这里不需要配置,并且mysql官方也强烈建议不要配置
 
[ndb_mgmd]                    管理节点的配置部分(通常只有一个)
                              注意nodeid=1指明管理节点的节点id为1,如果不指定,在启动集群时,会报错
hostname=192.168.1.110          指明管理节点的ip地址
datadir=/var/lib/mysql-cluster  指明集群管理日志存放的位置
 
[ndbd]                        数据节点配置部分,有几个数据节点就配置几个[ndbd]
hostname=192.168.1.111        指明数据节点的ip地址
datadir=/u01/app/mysql/data    指明数据节点上的数据库文件存放的位置
nodeid=2                      指明该数据节点在整个集群中的nodeid号(很重要)
 
[mysqld]                      sql节点配置部分,有几个sql节点,就配置几个[mysqld]

13、配置好上面的所有配置以后就可以在管理节点上启动怎个集群了
 
注意: 在管理节点上,不用执行/usr/local/mysql/scripts/mysql_install_db --basedir= --datadir= --user=命令
来安装数据库了。
 
# ndb_mgmd -f /var/lib/mysql-cluster/config.ini (第一次启动时这样执行,如果后面新添加了数据节点)
(执行此命令时,需要带上--initital参数,否则新添加的节点)
(无法被识别)
(# ndb_mgmd -f /var/lib/mysql-cluster/config.ini --initial)
 
# ndb_mgm (查看启动后的集群状态,看看集群是否成功启动,如果看到以下内容,表示集群已经成功配置并启动)
 
[root@mysql01 mysql-cluster]# ndb_mgm
-- ndb cluster -- management client --
ndb_mgm> show
connected to management server at: localhost:1186
cluster configuration
---------------------
[ndbd(ndb)] 2 node(s)
id=2 (not connected, accepting connect from 192.168.1.111)
id=3 (not connected, accepting connect from 192.168.1.112)
 
[ndb_mgmd(mgm)] 1 node(s)
id=1 @192.168.1.110 (mysql-5.6.17 ndb-7.3.5)
 
[mysqld(api)] 2 node(s)
id=4 (not connected, accepting connect from 192.168.1.111)
id=5 (not connected, accepting connect from 192.168.1.112)
 
现在看到集群中包含两个数据节点、一个管理节点、两个sql节点,但是数据节点和sql节点都还没有启动,
所以显示的连接状态是not connected
 
14、分别登陆两台数据节点执行以下命令启动数据节点
# ndbd --initial (第一次启动时,需要加--initial来初始化数据节点,第二次启动时,就不需要这个参数了)
 
[root@mysql02 support-files]# ndbd --initial
2014-06-12 05:42:04 [ndbd] info -- angel connected to '192.168.1.110:1186'
2014-06-12 05:42:04 [ndbd] info -- angel allocated nodeid: 2
 
 
[root@mysql03 bin]# ndbd --initial
2014-06-12 05:41:38 [ndbd] info -- angel connected to '192.168.1.110:1186'
2014-06-12 05:41:38 [ndbd] info -- angel allocated nodeid: 3
 
15、再登陆到管理节点查看现在整个集群的状态
ndb_mgm> show
cluster configuration
---------------------
[ndbd(ndb)] 2 node(s)
id=2 @192.168.1.111 (mysql-5.6.17 ndb-7.3.5, nodegroup: 0, *)
id=3 @192.168.1.112 (mysql-5.6.17 ndb-7.3.5, nodegroup: 1)
 
[ndb_mgmd(mgm)] 1 node(s)
id=1 @192.168.1.110 (mysql-5.6.17 ndb-7.3.5)
 
[mysqld(api)] 2 node(s)
id=4 (not connected, accepting connect from 192.168.1.111)
id=5 (not connected, accepting connect from 192.168.1.112)
 
现在可以看到,两个数据节点已经连接上来了,表示两个数据节点成功启动了
 
16、分别登陆到两个sql节点上启动sql节点
[root@mysql02 ~]# cd /usr/local/mysql/bin
[root@mysql02 bin]# ./mysqld_safe --user=mysql
140612 05:51:00 mysqld_safe logging to '/u01/app/mysql/data/mysql02.err'.
140612 05:51:00 mysqld_safe starting mysqld daemon with databases from /u01/app/mysql/data
 
[root@mysql03 ~]# cd /usr/local/mysql/bin
[root@mysql03 bin]# ./mysqld_safe --user=mysql
140612 05:52:07 mysqld_safe logging to '/u01/app/mysql/data/mysql03.err'.
140612 05:52:07 mysqld_safe starting mysqld daemon with databases from /u01/app/mysql/data
 
17、再次回到管理节点查看整个集群的状态
ndb_mgm> show
cluster configuration
---------------------
[ndbd(ndb)] 2 node(s)
id=2 @192.168.1.111 (mysql-5.6.17 ndb-7.3.5, nodegroup: 0, *)
id=3 @192.168.1.112 (mysql-5.6.17 ndb-7.3.5, nodegroup: 1)
 
[ndb_mgmd(mgm)] 1 node(s)
id=1 @192.168.1.110 (mysql-5.6.17 ndb-7.3.5)
 
[mysqld(api)] 2 node(s)
id=4 @192.168.1.111 (mysql-5.6.17 ndb-7.3.5)
id=5 @192.168.1.112 (mysql-5.6.17 ndb-7.3.5)
 
到此整个集群就搭建完成,并成功启动运行了
 
18、安全关闭整个集群
首先登陆到两个sql节点,执行service mysqld stop命令关闭sql节点
[root@mysql02 ~]# service mysqld stop
shutting down mysql...... success!
 
[root@mysql03 ~]# service mysqld stop
shutting down mysql..... success!
 
然后登陆到管理节点上,执行shutdown命令关闭整个集群
[root@mysql01 mysql-cluster]# ndb_mgm
-- ndb cluster -- management client --
ndb_mgm> show
connected to management server at: localhost:1186
cluster configuration
---------------------
[ndbd(ndb)] 2 node(s)
id=2 (not connected, accepting connect from 192.168.1.111)
id=3 (not connected, accepting connect from 192.168.1.112)
 
[ndb_mgmd(mgm)] 1 node(s)
id=1 @192.168.1.110 (mysql-5.6.17 ndb-7.3.5)
 
[mysqld(api)] 2 node(s)
id=4 (not connected, accepting connect from 192.168.1.111)
id=5 (not connected, accepting connect from 192.168.1.112)
 
ndb_mgm> shutdown
1 ndb cluster node(s) have shutdown.
disconnecting to allow management server to shutdown.
ndb_mgm> exit
 
 
7 测试。
 
1、从sql节点a登录,创建数据库和表,进行简单测试。
 
mysql> create database zxztest ;
 
mysql> use zxztest;
database changed
 
mysql> create table test1(id int,name varchar(10)) engine=ndb ;
 
mysql> insert into test1 values(1,'linuxidc');
 
mysql> select * from test1 ;
 
+------+---------+
| id | name |
+------+---------+
| 1 | linuxidc |
+------+---------+