欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  数据库

Mysql集群添加节点水平扩展

程序员文章站 2022-04-20 15:58:59
...

参考:http://dev.mysql.com/doc/refman/5.6/en/mysql-cluster-online-add-node-example.html 本机为管理节点ip为10.135.10.225,在单机管理节点,ndb 数据节点和 mysql 节点启动且运行成功的基础上,在数据库中添加一个引擎为 ndbcluster 类型的表 b_contac

参考:http://dev.mysql.com/doc/refman/5.6/en/mysql-cluster-online-add-node-example.html

本机为管理节点ip为10.135.10.225,在单机管理节点,ndb数据节点和mysql节点启动且运行成功的基础上,在数据库中添加一个引擎为ndbcluster类型的表b_contact,并向表中插入10条测试数据。下面为在此基础上水平扩展一个节点,已知该节点ip10.135.10.51

1. 修改本机管理节点的config.ini配置文件 ,添加如下一段:

[ndbd default]

NoOfReplicas=1

[ndb_mgmd]

NodeId=1

HostName=10.135.10.225

DataDir=c:\cluster\data

[mysqld]

NodeId=11

HostName=10.135.10.51

[mysqld]

NodeId=12

HostName=10.135.10.225

[ndbd]

NodeId=21

HostName=10.135.10.51

DataDir=c:\cluster\ndbdata

[ndbd]

NodeId=22

HostName=10.135.10.225

DataDir=c:\cluster\ndbdata

2. 重启管理节点:

ndb_mgm> 1 STOP

Node 1 has shut down.

Disconnecting to allow Management Server to shutdown

shell> ndb_mgmd.exe--config-file=c:\cluster\config.ini --configdir=c:\cluster –reload

3. 查看管理节点是否重启成功:

ndb_mgm> SHOW
Connected to Management Server at: 10.135.10.225:1186
Cluster Configuration
---------------------
[ndbd(NDB)]     2 node(s)
id=22    @10.135.10.225  (5.6.20-ndb-7.3.7, Nodegroup: 0, *)
id=21 (not connected, accepting connect from 10.135.10.51)
 
[ndb_mgmd(MGM)] 1 node(s)
id=1    @10.135.10.225  (5.6.20-ndb-7.3.7)
 
[mysqld(API)]   2 node(s)
id=12   @10.135.10.225  (5.6.20-ndb-7.3.7)

如果下面有显示各节点状态表明重启成功。

4. 重启数据节点和mysql节点:

ndb_mgm> 22 RESTART -f
Node 22: Node shutdown initiated
Node 22: Node shutdown completed, restarting, no start.
Node 22 is being restarted
 
ndb_mgm> Node 22: Start initiated (version 7.3.7)
Node 22: Started (version 7.1.33)

shell>net stop mysql;

 

shell>net start mysql;

5. 启动新增的数据节点和mysql节点:

以下操作是在新增节点10.135.10.51上进行的。

shell> ndbd -c 10.135.10.225initial
 
shell> net start mysql;

6. 查看新增节点是否启动成功:

ndb_mgm> SHOW
Connected to Management Server at: 10.135.10.225:1186
Cluster Configuration
---------------------
[ndbd(NDB)]     2 node(s)
id=22    @10.135.10.225  (5.6.20-ndb-7.3.7, Nodegroup: 0, *)
id=21    @10.135.10.51  (5.6.20-ndb-7.3.7, no nodegroup)
 
[ndb_mgmd(MGM)] 1 node(s)
id=1    @10.135.10.225  (5.6.20-ndb-7.3.7)
 
[mysqld(API)]   2 node(s)
id=12   @10.135.10.225  (5.6.20-ndb-7.3.7)
id=11   @10.135.10.51  (5.6.20-ndb-7.3.7)

如上id=21行显示即为添加成功。

7. 将新增节点添加到新分组并查看是否添加成功:

ndb_mgm> CREATE NODEGROUP 21
Nodegroup 1 created
 
ndb_mgm> SHOW
Connected to Management Server at: 10.135.10.225:1186
Cluster Configuration
---------------------
[ndbd(NDB)]     2 node(s)
id=22    @10.135.10.225  (5.6.20-ndb-7.3.7, Nodegroup: 0, *)
id=21    @10.135.10.51  (5.6.20-ndb-7.3.7, Nodegroup: 1 )
 
[ndb_mgmd(MGM)] 1 node(s)
id=1    @10.135.10.225  (5.6.20-ndb-7.3.7)
 
[mysqld(API)]   2 node(s)
id=12   @10.135.10.225  (5.6.20-ndb-7.3.7)
id=11   @10.135.10.51  (5.6.20-ndb-7.3.7)

8. 查看和重分配数据:

Mysql集群添加节点水平扩展

可见新增节点尚未为分配数据。在数据库中输入如下命令并运行:

Mysql集群添加节点水平扩展

运行后的结果如下图:

Mysql集群添加节点水平扩展

如图可知数据迁移之后空间还没有释放出来,需要通过optimize命令优化表,释放迁移走的空间(当optimize一个ndb大表的时候很慢,很容易出问题)。

在数据库中输入优化命令,优化后结果如下图:

Mysql集群添加节点水平扩展

可知部分数据已经迁移到新增的21节点上了。


9. 集群使用中遇到的问题以及解决的方法

1. 在未给要查询字段设置索引的情况下,使用mysql集群进行查改删的操作时,即使是100w数据的情况下,进行并发操作都会报如下错误:“ERROR 1205 (HY000): Lock wait timeout exceeded; try restartingtransaction” ——“锁等待超时”,且数据量越大,并发数越多报错的线程数也越多。但是单次执行以上操作时不会出现这种错误。在尝试将集群配置”TransactionDeadLockDetectionTimeOut” ——事务锁监测超时时间,修改增大到10秒后,报错情况有所改善但不明显。最后,在要查询字段name上建立了索引,才最终解决了这个问题。


2. 在添加第四个节点组进行到最后一步——向节点组四上迁移数据的时候,报了一个错误——“[Err] 1297 - Got temporary error 410 'REDO log files overloaded (decreaseTimeBetweenLocalCheckpoints or increase NoOfFragmentLogFiles)”,导致数据迁移失败并中断。此后,尝试修改配置减小TimeBetweenLocalCheckpoints或增大NoOfFragmentLogFiles,等方法后,重启节点都无法成功。最后,只能初始化数据节点——原来的以NDBCluster为引擎的表的数据会全部丢失,重新插入数据进行测试。