Mysql集群添加节点水平扩展
参考:http://dev.mysql.com/doc/refman/5.6/en/mysql-cluster-online-add-node-example.html 本机为管理节点ip为10.135.10.225,在单机管理节点,ndb 数据节点和 mysql 节点启动且运行成功的基础上,在数据库中添加一个引擎为 ndbcluster 类型的表 b_contac
参考:http://dev.mysql.com/doc/refman/5.6/en/mysql-cluster-online-add-node-example.html
本机为管理节点ip为10.135.10.225,在单机管理节点,ndb数据节点和mysql节点启动且运行成功的基础上,在数据库中添加一个引擎为ndbcluster类型的表b_contact,并向表中插入10条测试数据。下面为在此基础上水平扩展一个节点,已知该节点ip为10.135.10.51。
1. 修改本机管理节点的config.ini配置文件 ,添加如下一段:
[ndbd default]
NoOfReplicas=1
[ndb_mgmd]
NodeId=1
HostName=10.135.10.225
DataDir=c:\cluster\data
[mysqld]
NodeId=11
HostName=10.135.10.51
[mysqld]
NodeId=12
HostName=10.135.10.225
[ndbd]
NodeId=21
HostName=10.135.10.51
DataDir=c:\cluster\ndbdata
[ndbd]
NodeId=22
HostName=10.135.10.225
DataDir=c:\cluster\ndbdata
2. 重启管理节点:
ndb_mgm> 1 STOP
Node 1 has shut down.
Disconnecting to allow Management Server to shutdown
shell> ndb_mgmd.exe--config-file=c:\cluster\config.ini --configdir=c:\cluster –reload
3. 查看管理节点是否重启成功:
ndb_mgm> SHOW
Connected to Management Server at: 10.135.10.225:1186
Cluster Configuration
---------------------
[ndbd(NDB)] 2 node(s)
id=22 @10.135.10.225 (5.6.20-ndb-7.3.7, Nodegroup: 0, *)
id=21 (not connected, accepting connect from 10.135.10.51)
[ndb_mgmd(MGM)] 1 node(s)
id=1 @10.135.10.225 (5.6.20-ndb-7.3.7)
[mysqld(API)] 2 node(s)
id=12 @10.135.10.225 (5.6.20-ndb-7.3.7)
如果下面有显示各节点状态表明重启成功。
4. 重启数据节点和mysql节点:
ndb_mgm> 22 RESTART -f
Node 22: Node shutdown initiated
Node 22: Node shutdown completed, restarting, no start.
Node 22 is being restarted
ndb_mgm> Node 22: Start initiated (version 7.3.7)
Node 22: Started (version 7.1.33)
shell>net stop mysql;
shell>net start mysql;
5. 启动新增的数据节点和mysql节点:
以下操作是在新增节点10.135.10.51上进行的。
shell>ndbd -c
10.135.10.225–
–
initial
shell> net start mysql;
6. 查看新增节点是否启动成功:
ndb_mgm> SHOW
Connected to Management Server at: 10.135.10.225:1186
Cluster Configuration
---------------------
[ndbd(NDB)] 2 node(s)
id=22 @10.135.10.225 (5.6.20-ndb-7.3.7, Nodegroup: 0, *)
id=21 @10.135.10.51 (5.6.20-ndb-7.3.7, no nodegroup)
[ndb_mgmd(MGM)] 1 node(s)
id=1 @10.135.10.225 (5.6.20-ndb-7.3.7)
[mysqld(API)] 2 node(s)
id=12 @10.135.10.225 (5.6.20-ndb-7.3.7)
id=11 @10.135.10.51 (5.6.20-ndb-7.3.7)
如上id=21行显示即为添加成功。
7. 将新增节点添加到新分组并查看是否添加成功:
ndb_mgm> CREATE NODEGROUP 21
Nodegroup 1 created
ndb_mgm> SHOW
Connected to Management Server at: 10.135.10.225:1186
Cluster Configuration
---------------------
[ndbd(NDB)] 2 node(s)
id=22 @10.135.10.225 (5.6.20-ndb-7.3.7, Nodegroup: 0, *)
id=21 @10.135.10.51 (5.6.20-ndb-7.3.7, Nodegroup: 1 )
[ndb_mgmd(MGM)] 1 node(s)
id=1 @10.135.10.225 (5.6.20-ndb-7.3.7)
[mysqld(API)] 2 node(s)
id=12 @10.135.10.225 (5.6.20-ndb-7.3.7)
id=11 @10.135.10.51 (5.6.20-ndb-7.3.7)
8. 查看和重分配数据:
可见新增节点尚未为分配数据。在数据库中输入如下命令并运行:
运行后的结果如下图:
如图可知数据迁移之后空间还没有释放出来,需要通过optimize命令优化表,释放迁移走的空间(当optimize一个ndb大表的时候很慢,很容易出问题)。
在数据库中输入优化命令,优化后结果如下图:
可知部分数据已经迁移到新增的21节点上了。
9. 集群使用中遇到的问题以及解决的方法:
1. 在未给要查询字段设置索引的情况下,使用mysql集群进行查改删的操作时,即使是100w数据的情况下,进行并发操作都会报如下错误:“ERROR 1205 (HY000): Lock wait timeout exceeded; try restartingtransaction” ——“锁等待超时”,且数据量越大,并发数越多报错的线程数也越多。但是单次执行以上操作时不会出现这种错误。在尝试将集群配置”TransactionDeadLockDetectionTimeOut” ——事务锁监测超时时间,修改增大到10秒后,报错情况有所改善但不明显。最后,在要查询字段name上建立了索引,才最终解决了这个问题。
2. 在添加第四个节点组进行到最后一步——向节点组四上迁移数据的时候,报了一个错误——“[Err] 1297 - Got temporary error 410 'REDO log files overloaded (decreaseTimeBetweenLocalCheckpoints or increase NoOfFragmentLogFiles)”,导致数据迁移失败并中断。此后,尝试修改配置减小TimeBetweenLocalCheckpoints或增大NoOfFragmentLogFiles,等方法后,重启节点都无法成功。最后,只能初始化数据节点——原来的以NDBCluster为引擎的表的数据会全部丢失,重新插入数据进行测试。
推荐阅读