前言
在阅读这篇文章:Announcing Net Core 3 Preview3的时候,我看到了这样一个特性:
Docker and cgroup memory Limits
We concluded that the primary fix is to set a GC heap maximum significantly lower than the overall memory limit as a default behavior. In retrospect, this choice seems like an obvious requirement of our implementation. We also found that Java has taken a similar approach, introduced in Java 9 and updated in Java 10.
大概的意思呢就是在 .NET Core 3.0 版本中,我们已经通过修改 GC 堆内存的最大值,来避免这样一个情况:在 docker 容器中运行的 .NET Core 程序,因为 docker 容器内存限制而被 docker 杀死。
恰好,我在 docker swarm 集群中跑的一个程序,总是被 docker 杀死,大都是因为内存超出了限制。那么升级到 .NET Core 3.0 是不是会起作用呢?这篇文章将浅显的了解 .NET Core 3.0 的 Garbage Collection
机制,以及 Linux 的 Cgroups
内核功能。最后再写一组 实验程序 去真实的了解 .NET Core 3.0 带来的 GC 变化。
GC
CLR
.NET 程序是运行在 CLR : Common Language Runtime 之上。CLR 就像 JAVA 中的 JVM 虚拟机。CLR 包括了 JIT 编译器,GC 垃圾回收器,CIL CLI 语言标准。
那么 .NET Core 呢?它运行在 CoreCLR 上
,是属于 .NET Core 的 Runtime。二者大体我觉得应该差不多吧。所以我介绍 CLR 中的一些概念,这样才可以更好的理解 GC
我们的程序都是在操作虚拟内存地址,从来不直接操作内存地址,即使是 Native Code。
一个进程会被分配一个独立的虚拟内存空间,我们定义的和管理的对象都在这些空间之中。
虚拟内存空间中的内存 有三种状态:空闲 (可以随时分配对象),预定 (被某个进程预定,尚且不能分配对象),提交(从物理内存中分配了地址到该虚拟内存,这个时候才可以分配对象)CLR 初始化GC 后,GC 就在上面说的虚拟内存空间中分配内存,用来让它管理和分配对象,被分配的内存叫做
Managed Heap
管理堆,每个进程都有一个管理堆内存,进程中的线程共享一个管理堆内存CLR 中还有一块堆内存叫做
LOH
Large Object Heap 。它也是隶属于 GC 管理,但是它很特别,只分配大于 85000byte 的对象,所以叫做大对象,为什么要这么做呢?很显然大对象太难管理了,GC 回收大对象将很耗时,所以没办法,只有给这些 “大象” 另选一出房子,GC 这个“管理员” 很少管 “大象”。
那么什么时候对象会被分配到堆内存中呢?
所有引用类型的对象,以及作为类属性的值类型对象,都会分配在堆中。大于 85000byte 的对象扔到 “大象房” 里。
堆内存中的对象越少,GC 干的事情越少,你的程序就越快,因为 GC 在干事的时候,程序中的其他线程都必须毕恭毕敬的站着不动(挂起),等 GC 说:我已经清理好了。然后大家才开始继续忙碌。所以 GC 一直都是在干帮线程擦屁股的事情。
所以没有 GC 的编程语言更快,但是也更容易产生废物。
GC Generation
那么 GC 在收拾垃圾的过程中到底做了什么呢?首先要了解 CLR 的 GC 有一个Generation
代 的概念 GC 通过将对象分为三代,优化对象管理。GC 中的代分为三代:
Generation 0
零代或者叫做初代,初代中都是一些短命的对象,shorter object,它们通常会被很快清除。当 new 一个新对象的时候,该对象都会分配在 Generation 0 中。只有一段连续的内存Generation 1
一代,一代中的对象也是短命对象,它相当于 shorter object 和 longer object 之间的缓冲区。只有一段连续的内存Generation 2
二代,二代中的对象都是长寿对象,他们都是从零代和一代中选拔而来,一旦进入二代,那就意味着你很安全。之前说的 LOH 就属于二代,static 定义的对象也是直接分配在二代中。包含多段连续的内存。
零代和一代 占用的内存因为他们都是短暂对象,所以叫做短暂内存块。 那么他们占用的内存大小是多大?32位和63位的系统是不一样的,不同的GC类型也是不一样的。
WorkStation GC:
32 位操作系统 16MB ,64位 操作系统 256M
Server GC:
32 w位操作系统 65MB,64 位操作系统 4GB!
GC 回收过程
当 管理堆内存中使用到达一定的阈值的时候,这个阈值是GC 决定的,或者系统内存不够用的时候,或者调用 GC.Collect()
的时候,GC 都会立刻可以开始回收,没有商量的余地。于是所有线程都会被挂起(也并不都是这样)
GC 会在 Generation 0 中开始巡查,如果是 死对象,就把他们的内存释放,如果是 活的对象,那么就标记这些对象。接着把这些活的对象升级到下一代:移动到下一代 Generation 1 中。
同理 在 Generation 1 中也是如此,释放死对象,升级活对象。
三个 Generation 中,Generation 0 被 GC 清理的最频繁,Generation 1 其次,Generation 2 被 GC 访问的最少。因为要清理 Generation 2 的消耗太大了。
GC 在每一个 Generation 进行清理都要进行三个步骤:
标记: GC 循环遍历每一个对象,给它们标记是 死对象 还是 活对象
重新分配:重新分配活对象的引用
清理:将死对象释放,将活对象移动到下一代中
WorkStation GC 和 Server GC
GC 有两种形式:WorkStation GC
和 Server GC
默认的.NET 程序都是 WorkStation GC ,那么 WorkStation GC 和 Server GC 有什么区别呢。
上面已经提到一个区别,那就是 Server GC 的 Generation 内存更大,64位操作系统 Generation 0 的大小居然有4G ,这意味着啥?在不调用GC.Collect
的情况下,4G 塞满GC 才会去回收。那样性能可是有很大的提升。但是一旦回收了,4GB 的“垃圾” 也够GC 喝一壶的了。
还有一个很大的区别就是,Server GC 拥有专门用来处理 GC的线程,而WorkStation GC 的处理线程就是你的应用程序线程。WorkStation 形式下,GC 开始,所有应用程序线程挂起,GC选择最后一个应用程序线程用来跑GC,直到GC 完成。所有线程恢复。
而ServerGC 形式下: 有几核 CPU ,那么就有几个专有的线程来处理 GC。每个线程都一个堆进行GC ,不同的堆的对象可以相互引用。
所以在GC 的过程中,Server GC 比 WorkStation GC 更快。但是有专有线程,并不代表可以并行GC 哦。
上面两个区别,决定了 Server GC 用于对付高吞吐量的程序,而WorkStation GC 用于一般的客户端程序足以。
如果你的.NET 程序正在疲于应付 高并发,不妨开启 Server GC : https://docs.microsoft.com/en-us/dotnet/framework/configure-apps/file-schema/runtime/gcserver-element
Concurrent GC 和 Non-Concurrent GC
GC 有两种模式:Concurrent
和 Non-Concurrent
,也就是并行 GC 和 不并行 GC 。无论是 Server GC 还是 Concurrent GC 都可以开启 Concurrent GC 模式或者关闭 Concurrent GC 模式。
Concurrent GC 当然是为了解决上述 GC 过程中所有线程挂起等待 GC 完成的问题。因为工作线程挂起将会影响 用户交互的流畅性和响应速度。
Concurrent 并行实际上 只发生在Generation 2 中,因为 Generation 0 和 Generation1 的处理是在太快了,相当于工作线程没有阻塞。
在 GC 处理 Generation 2 中的第一步,也就是标记过程中,工作线程是可以同步进行的,工作线程仍然可以在 Generation 0 和 Generation 1 中分配对象。
所以并行 GC 可以减少工作进程因为GC 需要挂起的时间。但是与此同时,在标记的过程中工作进程也可以继续分配对象,所以GC占用的内存可能更多。
而Non-Concurrent GC 就更好理解了。
.NET 默认开启了 Concurrent 模式,可以在 https://docs.microsoft.com/en-us/dotnet/framework/configure-apps/file-schema/runtime/gcconcurrent-element 进行配置
Background GC
又来了一种新的 GC 模式: Background GC
。那么 Background GC 和 Concurrent GC 的区别是什么呢?在阅读很多资料后,终于搞清楚了,因为英语水平不好。以下内容比较重要。
首先:Background GC 和 Concurrent GC 都是为了减少 因为 GC 而挂起工作线程的时间,从而提升用户交互体验,程序响应速度。
其次:Background GC 和 Concurrent GC 一样,都是使用一个专有的GC 线程,并且都是在 Generation 2 中起作用。
最后:Background GC 是 Concurrent GC 的增强版,在.NET 4.0 之前都是默认使用 Concurrent GC 而 .NET 4.0+ 之后使用Background GC 代替了 Concurrent GC。
那么 Background GC 比 Concurrent GC 多了什么呢:
之前说到 Concurrent GC 在 Generation 2 中进行清理时,工作线程仍然可以在 Generation 0/1 中进行分配对象,但是这是有限制的,当 Generation 0/1 中的内存片段 Segment 用完的时候,就不能再分配了,知道 Concurrent GC 完成。而 Background GC 没有这个限制,为啥呢?因为 Background GC 在 Generation 2 中进行清理时,允许了 Generation 0/1 进行清理,也就说是当 Generation 0/1 的 Segment 用完的时候, GC 可以去清理它们,这个GC 称作 Foreground GC
( 前台GC ) ,Foreground GC 清理完之后,工作线程就可以继续分配对象了。
所以 Background GC 比 Concurrent GC 减少了更多 工作线程暂停的时间。
GC 的简单概念就到这里了以上是阅读大量英文资料的精短总结,如果有写错的地方还请斧正。
作为最后一句总结GC的话:并不是使用了 Background GC 和 Concurrent GC 的程序运行速度就快,它们只是提升了用户交互的速度。因为 专有的GC 线程会对CPU 造成拖累,此外GC 的同时,工作线程分配对象 和正常的时候分配对象 是不一样的,它会对性能造成拖累。
.NET Core 3.0 的变化
堆内存的大小进行了限制:max (20mb , 75% of memory limit on the container)
ServerGC 模式下 默认的Segment 最小是16mb, 一个堆 就是 一个segment。这样的好处可以举例来说明,比如32核服务器,运行一个内存限制32 mb的程序,那么在Server GC 模式下,会分配32个Heap,每个Heap 大小是1mb。但是现在,只需要分配2个Heap,每个Heap 大小16mb。
其他的就不太了解了。
实际体验
从开头的 介绍 ASP.NET Core 3.0 文章中了解到 ,在 Docker 中,对容器的资源限制是通过 cgroup 实现的。cgroup 是 Linux 内核特性,它可以限制 进程组的 资源占用。当容器使用的内存超出docker的限制,docker 就会将改容器杀死。在之前 .NET Core 版本中,经常出现 .NET Core 应用程序消耗内存超过了docker 的 内存限制,从而导致被杀死。而在.NET Core 3.0 中这个问题被解决了。
为此我做了一个实验。
这是一段代码:
using System;
using System.Collections.Generic;
using System.Threading;
namespace ConsoleApp1
{
class Program
{
static void Main(string[] args)
{
if (GCSettings.IsServerGC == true)
Console.WriteLine("Server GC");
else
Console.WriteLine("GC WorkStationGC");
byte[] buffer;
for (int i = 0; i <= 100; i++)
{
buffer = new byte[ 1024 * 1024];
Console.WriteLine($"allocate number {i+1} objet ");
var num = GC.CollectionCount(0);
var usedMemory = GC.GetTotalMemory(false) /1024 /1024;
Console.WriteLine($"heap use {usedMemory} mb");
Console.WriteLine($"GC occurs {num} times");
Thread.Sleep(TimeSpan.FromSeconds(5));
}
}
}
}
这段代码是在 for 循环 分配对象。buffer = new byte[1024 * 1024]
占用了 1M 的内存
这段代码分别在 .NET Core 2.2 和 .NET Core 3.0 运行,完全相同的代码。运行的内存限制是 9mb
.NET Core 2.2 运行的结果是:
GC WorkStationGC
allocate number 1 objet
heap use 1 mb
GC occurs 0 times
allocate number 2 objet
heap use 2 mb
GC occurs 0 times
allocate number 3 objet
heap use 3 mb
GC occurs 0 times
allocate number 4 objet
heap use 1 mb
GC occurs 1 times
allocate number 5 objet
heap use 2 mb
GC occurs 1 times
allocate number 6 objet
heap use 3 mb
GC occurs 1 times
allocate number 7 objet
heap use 4 mb
GC occurs 2 times
allocate number 8 objet
heap use 5 mb
GC occurs 3 times
allocate number 9 objet
heap use 6 mb
GC occurs 4 times
allocate number 10 objet
heap use 7 mb
GC occurs 5 times
allocate number 11 objet
heap use 8 mb
GC occurs 6 times
allocate number 12 objet
heap use 9 mb
Exit
首先.NET Core 2.2默认使用 WorkStation GC ,当heap使用内存到达9mb时,程序就被docker 杀死了。
在.NET Core 3.0 中
GC WorkStationGC
allocate number 1 objet
heap use 1 mb
GC occurs 0 times
allocate number 2 objet
heap use 2 mb
GC occurs 0 times
allocate number 3 objet
heap use 3 mb
GC occurs 0 times
allocate number 4 objet
heap use 1 mb
GC occurs 1 times
allocate number 5 objet
heap use 2 mb
GC occurs 1 times
allocate number 6 objet
heap use 3 mb
GC occurs 1 times
allocate number 7 objet
heap use 1 mb
GC occurs 2 times
allocate number 8 objet
heap use 2 mb
GC occurs 2 times
allocate number 9 objet
heap use 3 mb
GC occurs 2 times
....
运行一直正常没问题。
二者的区别就是 .NET Core 2.2 GC 之后,堆内存没有减少。为什么会发生这样的现象呢?
一下是我的推测,没有具体跟踪GC的运行情况
首先定义的占用 1Mb 的对象,由于大于 85kb 都存放在LOH 中,Large Object Heap,前面提到过。 GC 是很少会处理LOH 的对象的, 除非是 GC heap真的不够用了(一个GC heap包括 Large Object Heap 和 Small Object Heap)由于.NET Core 3.0 对GC heap大小做了限制,所以当heap不够用的时候,它会清理LOH,但是.NET Core 2.2 下认为heap还有很多,所以它不清理LOH ,导致程序被docker杀死。
我也试过将分配的对象大小设置小于 85kb, .NET Core 3.0 和.NET Core2.2 在内存限制小于10mb都可以正常运行,这应该是和 GC 在 Generation 0 中的频繁清理的机制有关,因为清理几乎不消耗时间,不像 Generation 2, 所以在没有限制GC heap的情况也可以运行。
我将上述代码 发布到了 * 和Github 进行提问,
https://*.com/questions/56578084/why-doesnt-heap-memory-used-go-down-after-a-gc-in-clr
https://github.com/dotnet/coreclr/issues/25148
有兴趣可以探讨一下。
总结
.NET Core 3.0 的改动还是很大滴,以及应该根据自己具体的应用场景去配置GC ,让GC 发挥最好的作用,充分利用Microsoft 给我们的权限。比如启用Server GC 对于高吞吐量的程序有帮助,比如禁用 Concurrent GC 实际上对一个高密度计算的程序是有性能提升的。
参考文章
- https://docs.microsoft.com/en-us/dotnet/standard/garbage-collection/fundamentals
- https://devblogs.microsoft.com/premier-developer/understanding-different-gc-modes-with-concurrency-visualizer/
- https://devblogs.microsoft.com/dotnet/running-with-server-gc-in-a-small-container-scenario-part-1-hard-limit-for-the-gc-heap/
- https://devblogs.microsoft.com/dotnet/running-with-server-gc-in-a-small-container-scenario-part-0/
- https://devblogs.microsoft.com/dotnet/announcing-net-core-3-preview-3/
========================更新=========================
对于.NET Core 3.0 GC的变化,我有针对Github 上作者的Merge Request 做出了以下总结:
.NET Core3.0 对GC 改动的 Merge Request
代码就不看了,一是看不懂,二是根本没发现对内存的限制,只是添加了获取容器是否设置内存限制的代码,和HeapHardLimit的宏定义,那就意味着,GCHeadHardLimit
只是一个阈值而已。由次可见,GCHeapHardLimit
属于GC的一个小部件。
其中有一段很重要的总结,是.NET Core 3.0 GC的主要变化
// + we never need to acquire new segments. This simplies the perf
// calculations by a lot.
//
// + we now need a different definition of "end of seg" because we
// need to make sure the total does not exceed the limit.
//
// + if we detect that we exceed the commit limit in the allocator we
// wouldn't want to treat that as a normal commit failure because that
// would mean we always do full compacting GCs.
首先就是,在有内存限制的 Docker 容器中,GC不需要去问虚拟内存要新的
Segments
,因为初始化CLR的时候,把heap
和Segment
都分配好了。在Server GC
模式下,一个核心 CPU 对应一个进程,对应一个heap
, 而一个segment
大小 就是limit / number of heaps
。
所以程序启动时,如果分配CPU 是一核,那么就会分配一个heap
,一个heap
中只有一个segment
,大小就是limit
,GC 也不会再去问CLR要内存了。请注意这里的limit
和GCHeapHardLimit
不是同一个,这里的limit
应该就是容器内存限制。所以GC 堆大小是多少?就是容器的内存限制limit
特殊的判断segment结束标志,以判断是否超过
GCHeapHardLimit
-
如果发现,在
segment
中分配内存的时候超出了GCHeadHardLimit
,那么不会把这次分配看做失败的,所以就不会发生GC。结合上面两点的铺垫我们可以发现:首先从上述代码我们可以发现
GCHeapHardLimit
只是一个数字而已。它就是一个阈值。其次 GC堆的大小: 请注意,GC堆大小不是 HeapHardLimit 而是 容器内存限制 limit。GC 分配对象的时候,如果溢出了这个
GCHeapHardLimit
数字,GC 也会睁一只眼闭一只眼,否则只要溢出,它就要去整个heap
中 GC 一遍。所以GCHeadHardLimit
不是 GC堆申请的segment
的大小,而是 GC 会管住自己的手脚,不能碰的东西咱尽量不要去碰,要是真碰了,也只有那么一次。
如果你的程序使用内存超出了GCHeapHardLimit
阈值,segment 中还是有空余的,但是 GC 就是不用,它就是等着报OutOfMemoryException
错误,而且docker根本杀不死你。
但是这并不代表GCHeapHardLimit
的设置是不合理的,如果你的程序自己不能合理管理对象,或者你太抠门了,那么神仙也乏术。
但是人家说了!GCHeapHardLimit
是可以修改的!
// Users can specify a hard limit for the GC heap via GCHeapHardLimit or
// a percentage of the physical memory this process is allowed to use via
// GCHeapHardLimitPercent. This is the maximum commit size the GC heap
// can consume.
//
// The way the hard limit is decided is:
//
// If the GCHeapHardLimit config is specified that's the value we use;
// else if the GCHeapHardLimitPercent config is specified we use that
// value;
// else if the process is running inside a container with a memory limit,
// the hard limit is
// max (20mb, 75% of the memory limit on the container).
如果你觉得GCHeapHardLimit
太气人了,那么就手动修改它的数值吧。