欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

etcd集群部署

程序员文章站 2022-07-13 22:38:33
...

概述

节点

etcd有两种节点,分别为集群节点和代理节点。两种节点在使用上几乎没有区别,这使我们可以在每台机器上都安装etcd,进而把etcd当作本地服务使用。它们的区别在于内部原理不同:

  • 集群节点是真正的etcd集群的构成者,这些节点负责数据存取,集群管理等
  • 代理节点可以理解为一个反向代理,它只简单的接受请求,转发请求给etcd集群

集群大小与容错

集群的大小指集群节点的个数。根据 etcd 的分布式数据冗余策略,集群节点越多,容错能力(Failure Tolerance)越强,同时写性能也会越差。 所以关于集群大小的优化,其实就是容错和写性能的一个平衡。 另外,etcd推荐使用奇数作为集群节点个数。因为奇数个节点与和其配对的偶数个节点相比(比如 3节点和4节点对比),容错能力相同,却可以少一个节点。所以综合考虑性能和容错能力,etcd 官方文档推荐的 etcd 集群大小是 3, 5, 7。

部署etcd集群

etcd 集群的搭建有三种方式,包括:static方式,etcd discovery方式和DNS discovery。DNS discovery方式在实际生产中很少使用,在这里不作说明。

我这里的部署以etcd v3.3.1为例,etcd的安装可以直接使用二进制文件,也可以使用yum或apt的方式安装,我这里默认使用二进制的方式安装,且二进制文件存放在/opt/kubernetes/bin目录下。配置文件存放在/opt/kubernetes/cfg目录下。

static方式

static方式是最简单的一种搭建etcd的方式。它不需要任何额外的服务,只需要知道准备用来运行etcd的所有节点的hostname或者IP即可。

测试的三台机器如下:

HostName Address EtcdName
etcd1 10.5.12.16 etcd1
etcd2 10.5.12.17 etcd2
etcd3 10.5.12.18 etcd3

etcd1上的/opt/kubernetes/cfg/etcd.conf配置文件如下:

ETCD_NAME=etcd1
ETCD_DATA_DIR="/data/etcd"
ETCD_LISTEN_CLIENT_URLS="http://10.5.12.16:2379,http://127.0.0.1:2379"
ETCD_LISTEN_PEER_URLS="http://10.5.12.16:2380"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://10.5.12.16:2380"
ETCD_INITIAL_CLUSTER="etcd1=http://10.5.12.16:2380,etcd2=http://10.5.12.17:2380,etcd3=http://10.5.12.18:2380"
ETCD_INITIAL_CLUSTER_STATE="new"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
ETCD_ADVERTISE_CLIENT_URLS="http://10.5.12.16:2379"

其他节点配置基本相同,这里就不再作详细说明。

所有节点上服务启动文件/usr/lib/systemd/system/etcd.service如下:

[Unit]
Description=Etcd Server
After=network.target

[Service]
Type=simple
WorkingDirectory=/var/lib/etcd
EnvironmentFile=-/opt/kubernetes/cfg/etcd.conf
# set GOMAXPROCS to number of processors
ExecStart=/bin/bash -c "GOMAXPROCS=$(nproc) /opt/kubernetes/bin/etcd"
Type=notify

[Install]
WantedBy=multi-user.target

还需要说明的是,默认etcd采用的是v2接口,在一些特定场景中,需要使用etcd的v3接口。则需要配置如下环境变量:

export ETCDETC_API=3

通过如下方式启动:

systemctl daemon-reload
systemctl start etcd
systemctl enable etcd

启动后,我们查看etcd进程,如下:


/opt/kubernetes/bin/etcd --name etcd1 --data-dir /data/etcd --listen-client-urls http://10.5.12.16:2379,http://127.0.0.1:2379 --listen-peer-urls http://10.5.12.16:2380 --initial-advertise-peer-urls http://10.5.12.16:2380 --initial-cluster etcd1=http://10.5.12.16:2380,etcd2=http://10.5.12.17:2380,etcd3=http://10.5.12.18:2380 --advertise-client-urls http://10.5.12.16:2379 --initial-cluster-token etcd-cluster --initial-cluster-state new

下面是一些常用配置选项的说明:

  • --name:方便理解的节点名称,默认为 default,在集群中应该保持唯一,可以使用 hostname
  • --data-dir:服务运行数据保存的路径,默认为 ${name}.etcd
  • --snapshot-count:指定有多少事务(transaction)被提交时,触发截取快照保存到磁盘
  • --heartbeat-interval:leader 多久发送一次心跳到 followers。默认值是 100ms
  • --eletion-timeout:重新投票的超时时间,如果follower在该时间间隔没有收到心跳包,会触发重新投票,默认为 1000 ms
  • --listen-peer-urls:和同伴通信的地址,比如 http://ip:2380,如果有多个,使用逗号分隔。需要所有节点都能够访问,所以不要使用 localhost
  • --listen-client-urls:对外提供服务的地址:比如 http://ip:2379,http://127.0.0.1:2379,客户端会连接到这里和etcd交互
  • --advertise-client-urls:对外公告的该节点客户端监听地址,这个值会告诉集群中其他节点
  • --initial-advertise-peer-urls:该节点同伴监听地址,这个值会告诉集群中其他节点
  • --initial-cluster:集群中所有节点的信息,格式为 node1=http://ip1:2380,node2=http://ip2:2380,…。需要注意的是,这里的 node1 是节点的--name指定的名字;后面的ip1:2380 是--initial-advertise-peer-urls 指定的值
  • --initial-cluster-state:新建集群的时候,这个值为 new;假如已经存在的集群,这个值为existing
  • --initial-cluster-token:创建集群的token,这个值每个集群保持唯一。这样的话,如果你要重新创建集群,即使配置和之前一样,也会再次生成新的集群和节点 uuid;否则会导致多个集群之间的冲突,造成未知的错误

这些选项,与上面我们配置文件里的配置一一对应,如ETCD_INITIAL_CLUSTER等同于--inital-cluster, ETCD_INITIAL_CLUSTER_STATE等同于--initial-cluster-state

所有以--init开头的配置都是在第一次启动etcd集群的时候才会用到,后续节点的重启会被忽略,如--initial-cluseter参数。所以当成功初始化了一个etcd集群以后,就不再需要这个参数或环境变量了。

可以在三个节点的前端使用haproxy做反向代理(事实上,这并不是必须的,在实际生产中,很少这么做。),haproxy.cfg配置如下:

frontend etcd
    bind 10.5.12.19:4001
    mode tcp
    option tcplog
    default_backend etcd
    log 127.0.0.1 local3
backend etcd
    balance roundrobin
    fullconn 1024
    server etcd1 10.5.12.16:2379 check port 4001 inter 300 fall 3
    server etcd2 10.5.12.17:2379 check port 4001 inter 300 fall 3
    server etcd3 10.5.12.18:2379 check port 4001 inter 300 fall 3

etcd discovery方式

很多时候,你只知道需要要搭建一个多大(包含多少节点)的集群,但是并不能事先知道这几个节点的ip,从而无法使用 -initial-cluster 参数。 这个时候,就需要使用discovery的方式来搭建etcd集群。事实上,这种方式在实际生产环境中,使用的也并不多。

etcd discovery 有两种:

  • 自定义的etcd discovery
  • 公共etcd discovery。

以下的两种配置方式因为很少用于生产,所以我只是验证了第一种方式,第二种方式完全摘抄于网上其他文档,并未作具体验证,仅供参考。

公共的etcd discover服务

  1. 创建一个用于discovery的token:
curl https://discovery.etcd.io/new?size=3     #size=3表示创建一个3节点的集群

# 返回如下结果:
https://discovery.etcd.io/96ca21e0510d96442a3689751cb6fdc0
  1. 在三台节点上分别启动etcd,方式如下:
etcd --name etcd1 --data-dir /data/etcd \
--initial-advertise-peer-urls http://10.5.12.16:2380 \
--listen-peer-urls http://10.5.12.16:2380 \
--listen-client-urls http://10.5.12.16:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://10.5.12.16:2379 \
--discovery https://discovery.etcd.io/96ca21e0510d96442a3689751cb6fdc0

如果使用变量的方式,则ETCD_DISCOVERY等于--discovery,另外,如果实际启动的etcd节点数大于discovery token创建时指定的size,多余的节点会自动变为proxy节点。

自定义的etc discovery服务

这种方式就是利用一个已有的etcd集群来提供discovery服务,从而创建一个新的etcd集群,假设已有的etcd集群的一个访问地址为myetcd.local,那么首先要在已有的etcd上创建一个特殊的key,如下:

# 其中value=3表示集群的大小,5c007a14875d53d9bf0ef5a6fc0257c817f0fb83则用来做discovery的token
curl -X PUT https://myetcd.local/v2/keys/discovery/5c007a14875d53d9bf0ef5a6fc0257c817f0fb83/_config/size -d value=3

然后在三个要部署集群的节点上执行如下操作即可:

etcd --name etcd1 --data-dir /data/etcd \
--initial-advertise-peer-urls http://10.5.12.16:2380 \
--listen-peer-urls http://10.5.12.16:2380 \
--listen-client-urls http://10.5.12.16:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://10.5.12.16:2379 \
--discovery https://discovery.etcd.io/5c007a14875d53d9bf0ef5a6fc0257c817f0fb83