Jenkins 结合 Docker 为 .NET Core 项目实现低配版的 CI&CD
随着项目的不断增多,最开始单体项目手动执行 docker build
命令,手动发布项目就不再适用了。一两个项目可能还吃得消,10 多个项目每天让你构建一次还是够呛。即便你的项目少,每次花费在发布上面的时间累计起来都够你改几个 bug 了。
所以我们需要自动化这个流程,让项目的发布和测试不再这么繁琐。在这里我使用了 jenkins 作为基础的 ci/cd pipeline 工具,关于 jenkins 的具体介绍这里就不再赘述。在版本管理、构建项目、单元测试、集成测试、环境部署我分别使用到了 gogs、docker、docker swarm(已与 docker 整合) 这几个软件协同工作。
以下步骤我参考了 continuous integration with jenkins and docker 一文,并使用了作者提供的 groovy 文件和 slave.py
文件。
关于 docker-ce 的安装,请参考我的另一篇博文 《linux 下的 docker 安装与使用》 。
一、jenkins 的部署
既然都用了 docker,我是不想在实体机上面安装一堆环境,所以我使用了 docker 的形式来部署 jenkins 的 master 和 slave,省时省力。master 就是调度管道任务的主机,也是唯一有 ui 供用户操作的。而 slave 就是具体的工作节点,用于执行具体的管道任务。
1.1 构建 master 镜像
第一步,我们在主机上建立一个 master 文件夹,并使用 vi
创建两个 groovy 文件,这两个文件在后面的 dockerfile 会被使用到,下面是 default-user.groovy
文件的代码:
import jenkins.model.* import hudson.security.* def env = system.getenv() def jenkins = jenkins.getinstance() jenkins.setsecurityrealm(new hudsonprivatesecurityrealm(false)) jenkins.setauthorizationstrategy(new globalmatrixauthorizationstrategy()) def user = jenkins.getsecurityrealm().createaccount(env.jenkins_user, env.jenkins_pass) user.save() jenkins.getauthorizationstrategy().add(jenkins.administer, env.jenkins_user) jenkins.save()
接着再用 vi
创建一个新的 executors.groovy
文件,并输入以下内容:
import jenkins.model.* jenkins.instance.setnumexecutors(0)
以上动作完成之后,在 master 文件夹下面应该有两个 groovy 文件。
两个 master 所需要的 groovy 文件已经编写完成,下面来编写 master 镜像的 dockerfile 文件,每一步的作用我已经用中文进行了标注。
# 使用官方的 jenkins 镜像作为基础镜像。 from jenkins/jenkins:latest # 使用内置的 install-plugins.sh 来安装插件。 run /usr/local/bin/install-plugins.sh git matrix-auth workflow-aggregator docker-workflow blueocean credentials-binding # 设置 jenkins 的管理员账户和密码。 env jenkins_user admin env jenkins_pass admin # 跳过初始化安装向导。 env java_opts -djenkins.install.runsetupwizard=false # 将刚刚编写的两个 groovy 脚本复制到初始化文件夹内。 copy executors.groovy /usr/share/jenkins/ref/init.groovy.d/ copy default-user.groovy /usr/share/jenkins/ref/init.groovy.d/ # 挂载 jenkins_home 目录到 docker 卷。 volume /var/jenkins_home
接着我们通过命令构建出 master 镜像。
docker build -t jenkins-master .
1.2 构建 slave 镜像
slave 镜像的核心是一个 slave.py
的 python 脚本,它主要执行的动作是运行 slave.jar
并和 master 建立通信,这样你的管道任务就能够交给 slave 进行执行。这个脚本所做的工作流程如下:
我们再建立一个 slave 文件夹,并使用 vi
将 python 脚本复制进去。
slave.py
的内容:
from jenkins import jenkins, jenkinserror, nodelaunchmethod import os import signal import sys import urllib import subprocess import shutil import requests import time slave_jar = '/var/lib/jenkins/slave.jar' slave_name = os.environ['slave_name'] if os.environ['slave_name'] != '' else 'docker-slave-' + os.environ['hostname'] jnlp_url = os.environ['jenkins_url'] + '/computer/' + slave_name + '/slave-agent.jnlp' slave_jar_url = os.environ['jenkins_url'] + '/jnlpjars/slave.jar' print(slave_jar_url) process = none def clean_dir(dir): for root, dirs, files in os.walk(dir): for f in files: os.unlink(os.path.join(root, f)) for d in dirs: shutil.rmtree(os.path.join(root, d)) def slave_create(node_name, working_dir, executors, labels): j = jenkins(os.environ['jenkins_url'], os.environ['jenkins_user'], os.environ['jenkins_pass']) j.node_create(node_name, working_dir, num_executors = int(executors), labels = labels, launcher = nodelaunchmethod.jnlp) def slave_delete(node_name): j = jenkins(os.environ['jenkins_url'], os.environ['jenkins_user'], os.environ['jenkins_pass']) j.node_delete(node_name) def slave_download(target): if os.path.isfile(slave_jar): os.remove(slave_jar) loader = urllib.urlopener() loader.retrieve(os.environ['jenkins_url'] + '/jnlpjars/slave.jar', '/var/lib/jenkins/slave.jar') def slave_run(slave_jar, jnlp_url): params = [ 'java', '-jar', slave_jar, '-jnlpurl', jnlp_url ] if os.environ['jenkins_slave_address'] != '': params.extend([ '-connectto', os.environ['jenkins_slave_address' ] ]) if os.environ['slave_secret'] == '': params.extend([ '-jnlpcredentials', os.environ['jenkins_user'] + ':' + os.environ['jenkins_pass'] ]) else: params.extend([ '-secret', os.environ['slave_secret'] ]) return subprocess.popen(params, stdout=subprocess.pipe) def signal_handler(sig, frame): if process != none: process.send_signal(signal.sigint) signal.signal(signal.sigint, signal_handler) signal.signal(signal.sigterm, signal_handler) def master_ready(url): try: r = requests.head(url, verify=false, timeout=none) return r.status_code == requests.codes.ok except: return false while not master_ready(slave_jar_url): print("master not ready yet, sleeping for 10sec!") time.sleep(10) slave_download(slave_jar) print 'downloaded jenkins slave jar.' if os.environ['slave_woring_dir']: os.setcwd(os.environ['slave_woring_dir']) if os.environ['clean_working_dir'] == 'true': clean_dir(os.getcwd()) print "cleaned up working directory." if os.environ['slave_name'] == '': slave_create(slave_name, os.getcwd(), os.environ['slave_executors'], os.environ['slave_labels']) print 'created temporary jenkins slave.' process = slave_run(slave_jar, jnlp_url) print 'started jenkins slave with name "' + slave_name + '" and labels [' + os.environ['slave_labels'] + '].' process.wait() print 'jenkins slave stopped.' if os.environ['slave_name'] == '': slave_delete(slave_name) print 'removed temporary jenkins slave.'
上述脚本的工作基本与流程图的一致,因为 jenkins 针对 python 提供了 sdk ,所以原作者使用 python 来编写的 “代理” 程序。不过 jenkins 也有 restful api,你也可以使用 .net core 编写类似的 “代理” 程序。
接着我们来编写 slave 镜像的 dockerfile 文件,因为国内服务器访问 ubuntu 的源很慢,经常因为超时导致构建失败,这里切换成了阿里云的源,其内容如下:
from ubuntu:16.04 # 安装 docker cli。 run sed -i s@/archive.ubuntu.com/@/mirrors.aliyun.com/@g /etc/apt/sources.list && apt-get clean run apt-get update --fix-missing && apt-get install -y apt-transport-https ca-certificates curl openjdk-8-jre python python-pip git # 使用阿里云的镜像源。 run curl -fssl http://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | apt-key add - run echo "deb [arch=amd64] http://mirrors.aliyun.com/docker-ce/linux/ubuntu xenial stable" > /etc/apt/sources.list.d/docker.list run apt-get update --fix-missing && apt-get install -y docker-ce --allow-unauthenticated run easy_install jenkins-webapi # 安装 docker-compose 工具。 run curl -l https://github.com/docker/compose/releases/download/1.21.2/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose && chmod +x /usr/local/bin/docker-compose run mkdir -p /home/jenkins run mkdir -p /var/lib/jenkins # 将 slave.py 文件添加到容器。 add slave.py /var/lib/jenkins/slave.py workdir /home/jenkins # 配置 jenkins master 的一些连接参数和 slave 信息。 env jenkins_url "http://jenkins" env jenkins_slave_address "" env jenkins_user "admin" env jenkins_pass "admin" env slave_name "" env slave_secret "" env slave_executors "1" env slave_labels "docker" env slave_woring_dir "" env clean_working_dir "true" cmd [ "python", "-u", "/var/lib/jenkins/slave.py" ]
继续使用 docker build
构建 slave 镜像:
docker build -t jenkins-slave .
1.3 编写 docker compose 文件
这里的 docker compose 文件,我取名叫 docker-compose.jenkins.yaml
,主要工作是为了启动 master 和 slave 容器。
version: '3.1' services: jenkins: container_name: jenkins ports: - '8080:8080' - '50000:50000' image: jenkins-master jenkins-slave: container_name: jenkins-slave restart: always environment: - 'jenkins_url=http://jenkins:8080' image: jenkins-slave volumes: - /var/run/docker.sock:/var/run/docker.sock # 将宿主机的 docker daemon 挂载到容器内部。 - /home/jenkins:/home/jenkins # 将数据挂载出来,方便后续进行释放。 depends_on: - jenkins
执行 docker compose 之后,我们通过 宿主机 ip:8080
就可以访问到 jenkins 内部了,如下图。
二、gogs 的部署
我们内部开发使用的 git 仓库是使用 gogs 进行搭建的,gogs 官方提供了 docker 镜像,那我们可以直接编写一个 docker compose 快速部署 gogs。
docker-compose.gogs.yaml
文件内容如下:
version: '3.1' services: gogs: image: gogs/gogs container_name: 'gogs' expose: - '3000:3000' expose: - 22 volumes: - /var/lib/docker/persistence/gogs:/data # 挂载数据卷。 restart: always
执行以下命令后,即可启动 gogs 程序,访问 宿主机 ip:3000
按照配置说明安装 gogs 即可,之后你就可以创建远程仓库了。
三、gogs 与 jenkins 的集成
虽然大部分都推荐 jenkins 的 gogs webhook 插件,不过这个插件很久不更新了,而且不支持 版本发布 事件。针对于该问题虽然官方有 pr #62,但一直没有合并,等到合并的时候都是猴年马月了。这里还是建议使用 generic webhook trigger ,用这个插件来触发 jenkins 的管道任务。
3.1 创建流水线项目
首先找到 jenkins 的插件中心,搜索 generic webhook trigger 插件,并进行安装。
继续新建一个管道任务,取名叫做 testproject,类型选择 pipeline 。
首先配置项目的数据来源,选择 scm,并且配置 git 远程仓库的地址,如果是私有仓库则还需要设置用户名和密码。
3.2 jenkins 的 webhook 配置
流水线项目建立完成后,我们就可以开始设置 generic webhook trigger 的一些参数,以便让远程的 gogs 能够触发构建任务。
我们为 testproject 创建一个 token,这个 token 是跟流水线任务绑定了,说白了就是流水线任务的一个标识。建议使用随机 guid 作为 token,不然其他人都可以随便触发你的流水线任务进行构建了。
3.3 gogs 的 webhook 配置
接着来到刚刚我们建好的仓库,找到 仓库设置->管理 web 钩子->添加 web 钩子->gogs 。
因为触发构建不可能每次提交都触发,一般来说都是创建了某个合并请求,或者发布新版本的时候就会触发流水线任务。因此这里你可以根据自己的情况来选择触发事件,这里我以合并请求为例,你可以在钩子设置页面点击 测试推送。这样就可以看到 gogs 发送给 jenkins 的 json 结构是怎样的,你就能够在 jenkins 那边有条件的进行处理。
不过测试推送只能够针对普通的 push 事件进行测试,像 合并请求 或者 版本发布 这种事件只能自己模拟操作了。在这里我新建了一个用户,fork 了另一个帐号建立的 testproject 仓库。
在 fork 的仓库里面,我新建了一个 readme.md 文件,然后点击创建合并,这个时候你看 gogs 的 webhook 推送记录就有一条新的数据推送给 jenkins,同时你也可以在 jenkins 看到流水线任务被触发了。
3.4 限定任务触发条件
通过上面的步骤,我们已经将 gogs 和 jenkins 中的具体任务进行了绑定。不过还有一个比较尴尬的问题是,gogs 的合并事件不仅仅包括创建合并,它的原始描述是这样说的。
合并请求事件包括合并被开启、关闭、重新开启、编辑、指派、取消指派、更新标签、清除标签、设置里程碑、取消设置里程碑或代码同步。
如果我们仅仅是依靠上面的配置,那么上述所有行为都会触发构建操作,这肯定不是我们想要的效果。还好 generic webhook 为我们提供了变量获取,以及 webhook 过滤。
我们从 gogs 发往 jenkins 的请求中可以看到,在 json 内部包含了一个 action
字段,里面就是本次的操作标识。那么我们就可以想到通过判断 action
字段是否等于 opened
来触发流水线任务。
首先,我们增加 2 个 post content parameters 参数,分别获取到 gogs 传递过来的 action
和 pr 的 id,这里我解释一下几个文本框的意思。
除了这两个 post 参数以外,在请求头中,gogs 还携带了具体事件,我们将其一起作为过滤条件。**需要注意的是,针对于请求头的参数,在转换成变量时,插件会将字符转为小写,并会使用 "_" 代替 "-"。**
最后我们编写一个 optional filter ,它的 expression 参数是正则表达式,下面的 text 即是源字符串。实现很简单,当 text 里面的内容满足正则表达式的时候,就会触发流水线任务。
所以我们的 text 字符串就是由上面三个变量的值组成,然后和我们预期的值进行匹配即可。
当然,你还想整一些更加炫酷的功能,可以使用 jenkins 提供的 http request 之类的插件。因为 gogs 提供了 api 接口,你就可以在构建完成之后,回写给 gogs,用于提示构建结果。
这样的话,这种功能就有点像 github 上面的机器人帐号了。
四、完整的项目示例
在上一节我们通过 jenkins 的插件完成了远程仓库推送通知,当我们合并代码时,jenkins 会自动触发执行我们的管道任务。接下来我将建立一个 .net core 项目,该项目拥有一个 controller,接收到请求之后输出 “hello world”。随后为该项目建立一个 xunit 的测试项目,用于执行单元测试。
整个项目的结构如下图:
我们需要编写一个 unittest.dockerfile
镜像,用于执行 xunit 单元测试。
from mcr.microsoft.com/dotnet/core/sdk:2.2 # 还原 nuget 包。 workdir /home/app copy ./ ./ run dotnet restore entrypoint ["dotnet", "test" , "--verbosity=normal"]
之后为部署操作编写一个 deploy.dockerfile
,这个 dockerfile 首先还原了 nuget 包,然后通过 dotnet publish
命令发布了我们的网站。
from mcr.microsoft.com/dotnet/core/sdk:2.2 as build-image # 还原 nuget 包。 workdir /home/app copy ./ ./ run dotnet restore # 发布镜像。 copy ./ ./ run dotnet publish ./testproject.webapi/testproject.webapi.csproj -o /publish/ from mcr.microsoft.com/dotnet/core/aspnet:2.2 workdir /publish copy --from=build-image /publish . entrypoint ["dotnet", "testproject.webapi.dll"]
两个 dockerfile 编写完成之后,将其存放在项目的根目录,以便 slave 进行构建。
dockerfile 编写好了,那么我们还要分别为两个镜像编写 docker compose 文件,用于执行单元测试和部署行为,用于部署的文件名称叫做 docker-compose.deploy.yaml
,内容如下:
version: '3.1' services: backend: container_name: dev-test-backend image: dev-test:b${build_number} ports: - '5000:5000' restart: always
然后我们需要编写运行单元测试的 docker compose 文件,名字叫做 docker-compose.unittest.yaml
,内容如下:
version: '3.1' services: backend: container_name: dev-test-unit-test image: dev-test:test${build_number}
五、编写 jenkinsfile
node('docker') { stage '签出代码' checkout scm stage '单元测试' sh "docker build -t dev-test:test${build_number} -f unittest.dockerfile ." sh "docker-compose -f docker-compose.unittest.yaml up --force-recreate --abort-on-container-exit" sh "docker-compose -f docker-compose.unittest.yaml down -v" stage '部署项目' sh "docker build -t dev-test:b${build_number} -f deploy.dockerfile ." sh 'docker-compose -f docker-compose.deploy.yaml up -d' }
六、最后的效果
上述操作完成之后,将这些文件放在项目根目录。
回到 jenkins,你可以手动执行一下任务,然后项目就被成功执行了。
至此,我们的 “低配版” ci、cd 环境就搭建成功了。
上一篇: 知道疼闺女了
下一篇: 谷歌删除210个YouTube频道