欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

Docker系列09—Docker的系统资源限制及验证

程序员文章站 2024-01-30 11:46:46
本文收录在容器技术学习系列文章总目录 1、限制容器的资源 默认情况下,容器没有资源限制,可以使用主机内核调度程序允许的尽可能多的给定资源。Docker提供了控制容器可以使用多少内存或CPU的方法,设置docker run命令的运行时配置标志。本篇提供有关何时应设置此类限制的详细信息以及设置这些限制的 ......

本文收录在

1、限制容器的资源

  默认情况下,容器没有资源限制,可以使用主机内核调度程序允许的尽可能多的给定资源。docker提供了控制容器可以使用多少内存或cpu的方法,设置docker run命令的运行时配置标志。本篇提供有关何时应设置此类限制的详细信息以及设置这些限制的可能含义。

  其中许多功能都要求您的内核支持linux功能。要检查支持,可以使用该 docker info命令。如果内核中禁用了某项功能,您可能会在输出结尾处看到一条警告,如下所示:warning: no swap limit support,请参阅操作系统的文档以启用它们,

[root@along ~]# docker info
containers: 0
 running: 0
 paused: 0
 stopped: 0
images: 43
server version: 17.03.2-ce
storage driver: overlay
 backing filesystem: xfs
 supports d_type: true
logging driver: json-file
cgroup driver: cgroupfs
plugins: 
 volume: local
 network: bridge host macvlan null overlay
swarm: inactive
runtimes: runc
default runtime: runc
init binary: docker-init
containerd version: 4ab9917febca54791c5f071a9d1f404867857fcc
runc version: 54296cf40ad8143b62dbcaa1d90e520a2136ddfe
init version: 949e6fa
security options:
 seccomp
  profile: default
kernel version: 3.10.0-514.el7.x86_64
operating system: centos linux 7 (core)
ostype: linux
architecture: x86_64
cpus: 1
total memory: 976.5 mib
name: along
id: kgwa:gdgt:ptk7:pax4:a3jz:lv6n:u5qd:uqcy:agzv:p32e:v73t:jjhr
docker root dir: /var/lib/docker
debug mode (client): false
debug mode (server): false
username: alongedu
registry: https://index.docker.io/v1/
experimental: false
insecure registries:
 docker2:80
 127.0.0.0/8
registry mirrors:
 https://registry.docker-cn.com
live restore enabled: false

2、内存

2.1 内存不足的风险

  重要的是不要让正在运行的容器占用太多的主机内存。在linux主机上,如果内核检测到没有足够的内存来执行重要的系统功能,它会抛出一个oome 或者 out of memory exception,并开始查杀进程以释放内存任何进程都会被杀死,包括docker和其他重要的应用程序。如果错误的进程被杀死,这可以有效地降低整个系统。

  docker尝试通过调整docker守护程序上的oom优先级来降低这些风险,以便它比系统上的其他进程更不可能被杀死。容器上的oom优先级未调整。这使得单个容器被杀死的可能性比docker守护程序或其他系统进程被杀死的可能性更大。您不应试图通过--oom-score-adj 在守护程序或容器上手动设置为极端负数或通过设置容器来绕过这些安全措施--oom-kill-disable

  有关linux内核的oom管理的更多信息,请参阅

  您可以通过以下方式降低oome导致系统不稳定的风险:

  •  在将应用程序投入生产之前,请执行测试以了解应用程序的内存要求。
  •  确保您的应用程序仅在具有足够资源的主机上运行。
  •  限制容器可以使用的内存量,如下所述。
  •  docker主机上配置交换时要小心。交换比内存更慢且性能更低,但可以提供缓冲以防止系统内存耗尽。
  •  考虑将容器转换为服务,并使用服务级别约束和节点标签来确保应用程序仅在具有足够内存的主机上运行

 

2.2 限制容器对内存设有的设置

  docker可以强制执行硬内存限制,允许容器使用不超过给定数量的用户或系统内存或软限制,这允许容器使用尽可能多的内存,除非满足某些条件,例如内核检测到主机上的低内存或争用。当单独使用或设置了多个选项时,其中一些选项会产生不同的效果。

  大部分的选项取正整数,跟着一个后缀bk mg,,表示字节,千字节,兆字节或千兆字节。

选项

描述

-m or --memory=

容器可以使用的最大内存量。如果设置此选项,则允许的最小值为4m

--memory-swap*

允许此容器交换到磁盘的内存量。

--memory-swappiness

默认情况下,主机内核可以交换容器使用的匿名页面的百分比。您可以设置--memory-swappiness 0100之间的值,以调整此百分比。

--memory-reservation

允许您指定小于软件限制的软限制--memory,当docker检测到主机上的争用或内存不足时,该限制将被激活。如果使用--memory-reservation,则必须将其设置为低于--memory 优先级。因为它是软限制,所以不保证容器不超过限制。

--kernel-memory

容器可以使用的最大内核内存量。允许的最小值是4m。由于内核内存无法换出,因此内核内存不足的容器可能会阻塞主机资源,这可能会对主机和其他容器产生副作用。

--oom-kill-disable

默认情况下,如果发生内存不足(oom)错误,内核会终止容器中的进程。要更改此行为,请使用该--oom-kill-disable选项。仅在已设置-m/--memory 选项的容器上禁用oom杀手。如果-m 未设置该标志,则主机可能会耗尽内存,并且内核可能需要终止主机系统的进程才能释放内存。

 

2.2.1 --memory-swap 设置

1)介绍

  --memory-swap 是一个修饰符标志,只有在--memory 设置时才有意义。使用swap允许容器在容器耗尽可用的所有ram时将多余的内存需求写入磁盘。对于经常将内存交换到磁盘的应用程序,性能会受到影响。

 

2)它的设置会产生复杂的效果:

  •  如果--memory-swap 设置为正整数,那么这两个--memory--memory-swap 必须设置。--memory-swap 表示可以使用的memory and swap,并--memory 控制非交换内存(物理内存)使用的量。所以如果--memory="300m" --memory-swap="1g",容器可以使用300米的内存和700米(1g - 300mswap
  •  如果--memory-swap 设置为0,则忽略该设置,并将该值视为未设置。
  •  如果--memory-swap 设置为与值相同的值--memory,并且--memory设置为正整数,则容器无权访问swap。请参考下面阻止容器使用交换。
  •  如果--memory-swap 未设置--memory 设置,则容器可以使用两倍于--memory设置swap,主机容器需要配置有swap。例如,如果设置--memory="300m" --memory-swap 未设置,容器可以使用300米的内存和600米的swap
  •  如果--memory-swap 明确设置为-1,则允许容器使用无限制swap,最多可达宿主机系统上可用的数量
  •  在容器内部,工具如free 报告主机的swap,而不是容器内真正可用的内存。不要依赖free 或类似工具来确定是否存在swap

 

3)防止容器使用交换

  如果--memory --memory-swap设置为相同的值,则可以防止容器使用swap。这是因为--memory-swap 可以使用的memory and swap,而--memory只是可以使用的物理内存量。

 

2.2.2 --memory-swappiness 设置

  •  值为0将关闭匿名页面交换。
  •  100将所有匿名页面设置为可交换。
  •  默认情况下,如果未设置--memory-swappiness,则值将从主机继承。

 

2.2.3 --kernel-memory 设置

1)介绍

内核内存限制以分配给容器的总内存表示。请考虑以下方案:

  •  无限内存,无限内核内存:这是默认设置。
  •  无限内存,有限的内核内存:当所有cgroup所需的内存量大于主机上实际存在的内存量时,这是合适的。您可以将内核内存配置为永远不会覆盖主机上可用的内容,而需要更多内存的容器需要等待它。
  •  有限的内存,无限的内核内存:整体内存有限,但内核内存不受限制。
  •  有限的内存,有限的内核内存:限制用户和内核内存对于调试与内存相关的问题非常有用。如果容器使用意外数量的任一类型的内存,则内存不足而不会影响其他容器或主机。在此设置中,如果内核内存限制低于用户内存限制,则内核内存不足会导致容器遇到oom错误。如果内核内存限制高于用户内存限制,则内核限制不会导致容器遇到oom

 当您打开任何内核内存限制时,主机会根据每个进程跟踪高水位线统计信息,因此您可以跟踪哪些进程(在本例中为容器)正在使用多余的内存。通过/proc/<pid>/status在主机上查看,可以在每个过程中看到这一点。

 

3cpu

  •  默认情况下,每个容器对主机cpu周期的访问权限是不受限制的
  •  您可以设置各种约束来限制给定容器访问主机的cpu周期。
  •  大多数用户使用和配置 默认cfs调度程序。
  •  docker 1.13及更高版本中,您还可以配置 实时调度程序。

 

3.1 配置默认cfs调度程序

  cfs是用于普通linux进程的linux内核cpu调度程序。多个运行时标志允许您配置容器具有的cpu资源访问量。使用这些设置时,docker会修改主机上容器的cgroup的设置。

选项

描述

--cpus=<value>

指定容器可以使用的可用cpu资源量。例如,如果主机有两个cpu并且你已设置--cpus="1.5",则容器最多保证一个半cpu。这相当于设置--cpu-period="100000" --cpu-quota="150000"。可在docker 1.13及更高版本中使用。

--cpu-period=<value>

指定cpu cfs调度程序周期,它与并用 --cpu-quota。默认为100微秒。大多数用户不会更改默认设置。如果您使用docker 1.13或更高版本,请--cpus 使用。

--cpu-quota=<value>

对容器施加cpu cfs配额。--cpu-period限制前容器限制为每秒的微秒数。作为有效上限。如果您使用docker 1.13或更高版本,请--cpus改用。

--cpuset-cpus

限制容器可以使用的特定cpu或核心。如果您有多个cpu,则容器可以使用逗号分隔列表或连字符分隔的cpu范围。第一个cpu编号为0.有效值可能是0-3(使用第一个,第二个,第三个和第四个cpu)或1,3(使用第二个和第四个cpu)。

--cpu-shares

将此标志设置为大于或小于默认值1024的值,以增加或减少容器的重量,并使其可以访问主机的cpu周期的较大或较小比例。仅在cpu周期受限时才会强制执行此操作。当有足够的cpu周期时,所有容器都会根据需要使用尽可能多的cpu。这样,这是一个软限制。--cpu-shares不会阻止容器以群集模式进行调度。它为可用的cpu周期优先考虑容器cpu资源。它不保证或保留任何特定的cpu访问权限。

 

4、操作演示

4.1 准备工作

1)先查询宿主机的资源:

[root@docker ~]# lscpu   cpu资源
architecture:          x86_64
cpu op-mode(s):        32-bit, 64-bit
byte order:            little endian
cpu(s):                4
on-line cpu(s) list:   0-3
thread(s) per core:    1
core(s) per socket:    1
socket(s):             4
numa node(s):          1
vendor id:             genuineintel
cpu family:            6
model:                 60
model name:            intel(r) xeon(r) cpu e3-1231 v3 @ 3.40ghz
stepping:              3
cpu mhz:               3395.854
bogomips:              6792.17
hypervisor vendor:     vmware
virtualization type:   full
l1d cache:             32k
l1i cache:             32k
l2 cache:              256k
l3 cache:              8192k
numa node0 cpu(s):     0-3
[root@docker ~]# free -h   内存、swap资源
              total        used        free      shared  buff/cache   available
mem:           7.8g        193m        7.2g        8.6m        438m        7.3g
swap:          2.0g        400k        2.0g

  

2)在dockerhub 下载一个用于压测的镜像

[root@docker ~]# docker pull lorel/docker-stress-ng

  

3)该压测镜像的使用方法

[root@docker ~]# docker run --name stress --rm lorel/docker-stress-ng:latest stress --help

使用--help 可以查询此压测镜像的用法

例:

    stress-ng --cpu 8 --io 4 --vm 2 --vm-bytes 128m --fork 4 --timeout 10s

语法:

  •  -c n, --cpu n 启动n个子进程(cpu
  •  --vm n 启动n个进程对内存进行压测
  •  --vm-bytes 128m 每个子进程使用多少内存(默认256m

 

4.2 测试内存限制

1)现在最大使用内存启动容器

[root@docker ~]# docker run --name stress --rm -m 256m lorel/docker-stress-ng:latest stress --vm 2
stress-ng: info: [1] defaulting to a 86400 second run per stressor
stress-ng: info: [1] dispatching hogs: 2 vm

[root@docker ~]# docker stats stress
container id        name                cpu %               mem usage / limit   mem %               net i/o             block i/o           pids
e1fdb0520bad        stress              8.22%               254mib / 256mib     99.22%              648b / 0b           46.9mb / 3.63gb     5

注释:

  •  -m 256m 限制此容器最大只能使用256m 内存;
  •  --vm 2    启动压测容器,使用256x2=512m的内存;
  •  docker stats 结果查询,容器实际使用内存不能超过256m

 

4.3 测试cpu限制

1)限制最大使用2cpu

[root@docker ~]# docker run --name stress --rm --cpus 2 lorel/docker-stress-ng:latest stress --cpu 8
stress-ng: info: [1] defaulting to a 86400 second run per stressor
stress-ng: info: [1] dispatching hogs: 8 cpu

[root@docker ~]# docker stats stress
container id        name                cpu %               mem usage / limit     mem %               net i/o             block i/o           pids
ca86c0de6431        stress              199.85%             15.81mib / 7.781gib   0.20%               648b / 0b           0b / 0b             9

  

2)不限制使用cpu核数

[root@docker ~]# docker run --name stress --rm lorel/docker-stress-ng:latest stress --cpu 8
stress-ng: info: [1] defaulting to a 86400 second run per stressor
stress-ng: info: [1] dispatching hogs: 8 cpu

[root@docker ~]# docker stats stress
container id        name                cpu %               mem usage / limit     mem %               net i/o             block i/o           pids
167afeac7c97        stress              399.44%             15.81mib / 7.781gib   0.20%               508b / 0b           0b / 0b             9