一次apk打开时报内存溢出错误,故写下内存溢出的各种原因和解决方法
原转载:https://blog.csdn.net/cp_panda_5/article/details/79613870
正文内容:
对于jvm的内存写过的文章已经有点多了,而且有点烂了,不过说那么多大多数在解决oom的情况,于此,本文就只阐述这个内容,携带一些分析和理解和部分扩展内容,也就是jvm宕机中的一些问题,ok,下面说下oom的常见情况:
第一类内存溢出,也是大家认为最多,第一反应认为是的内存溢出,就是堆栈溢出:
那什么样的情况就是堆栈溢出呢?当你看到下面的关键字的时候它就是堆栈溢出了:
java.lang.outofmemoryerror: ......java heap space.....
也就是当你看到heap相关的时候就肯定是堆栈溢出了,此时如果代码没有问题的情况下,适当调整-xmx和-xms是可以避免的,不过一定是代码没有问题的前提,为什么会溢出呢,要么代码有问题,要么访问量太多并且每个访问的时间太长或者数据太多,导致数据释放不掉,因为垃圾回收器是要找到那些是垃圾才能回收,这里它不会认为这些东西是垃圾,自然不会去回收了;主意这个溢出之前,可能系统会提前先报错关键字为:
java.lang.outofmemoryerror:gc over head limit exceeded
这种情况是当系统处于高频的gc状态,而且回收的效果依然不佳的情况,就会开始报这个错误,这种情况一般是产生了很多不可以被释放的对象,有可能是引用使用不当导致,或申请大对象导致,但是java heap space的内存溢出有可能提前不会报这个错误,也就是可能内存就直接不够导致,而不是高频gc.
第二类内存溢出,permgen的溢出,或者permgen 满了的提示,你会看到这样的关键字:
关键信息为:
java.lang.outofmemoryerror: permgen space
原因:系统的代码非常多或引用的第三方包非常多、或代码中使用了大量的常量、或通过intern注入常量、或者通过动态代码加载等方法,导致常量池的膨胀,虽然jdk 1.5以后可以通过设置对永久带进行回收,但是我们希望的是这个地方是不做gc的,它够用就行,所以一般情况下今年少做类似的操作,所以在面对这种情况常用的手段是:增加-xx:permsize和-xx:maxpermsize的大小。
第三类内存溢出:在使用bytebuffer中的allocatedirect()的时候会用到,很多javanio的框架中被封装为其他的方法
溢出关键字:
java.lang.outofmemoryerror: direct buffer memory
如果你在直接或间接使用了bytebuffer中的allocatedirect方法的时候,而不做clear的时候就会出现类似的问题,常规的引用程序io输出存在一个内核态与用户态的转换过程,也就是对应直接内存与非直接内存,如果常规的应用程序你要将一个文件的内容输出到客户端需要通过os的直接内存转换拷贝到程序的非直接内存(也就是heap中),然后再输出到直接内存由操作系统发送出去,而直接内存就是由os和应用程序共同管理的,而非直接内存可以直接由应用程序自己控制的内存,jvm垃圾回收不会回收掉直接内存这部分的内存,所以要注意了哦。
如果经常有类似的操作,可以考虑设置参数:-xx:maxdirectmemorysize
第四类内存溢出错误:
溢出关键字:
java.lang.*error
这个参数直接说明一个内容,就是-xss太小了,我们申请很多局部调用的栈针等内容是存放在用户当前所持有的线程中的,线程在jdk 1.4以前默认是256k,1.5以后是1m,如果报这个错,只能说明-xss设置得太小,当然有些厂商的jvm不是这个参数,本文仅仅针对hotspot vm而已;不过在有必要的情况下可以对系统做一些优化,使得-xss的值是可用的。
第五类内存溢出错误:
溢出关键字:
java.lang.outofmemoryerror: unable to create new native thread
上面第四种溢出错误,已经说明了线程的内存空间,其实线程基本只占用heap以外的内存区域,也就是这个错误说明除了heap以外的区域,无法为线程分配一块内存区域了,这个要么是内存本身就不够,要么heap的空间设置得太大了,导致了剩余的内存已经不多了,而由于线程本身要占用内存,所以就不够用了,说明了原因,如何去修改,不用我多说,你懂的。
第六类内存溢出:
溢出关键字
java.lang.outofmemoryerror: request {} byte for {}out of swap
这类错误一般是由于地址空间不够而导致。
六大类常见溢出已经说明jvm中99%的溢出情况,要逃出这些溢出情况非常困难,除非一些很怪异的故障问题会发生,比如由于物理内存的硬件问题,导致了code cache的错误(在由byte code转换为native code的过程中出现,但是概率极低),这种情况内存 会被直接crash掉,类似还有swap的频繁交互在部分系统中会导致系统直接被crash掉,os地址空间不够的话,系统根本无法启动,呵呵;jni的滥用也会导致一些本地内存无法释放的问题,所以尽量避开jni;socket连接数据打开过多的socket也会报类似:ioexception: too many open files等错误信息。
jni就不用多说了,尽量少用,除非你的代码太牛b了,我无话可说,呵呵,这种内存如果没有在被调用的语言内部将内存释放掉(如c语言),那么在进程结束前这些内存永远释放不掉,解决办法只有一个就是将进程kill掉。
另外gc本身是需要内存空间的,因为在运算和中间数据转换过程中都需要有内存,所以你要保证gc的时候有足够的内存哦,如果没有的话gc的过程将会非常的缓慢。
顺便这里就提及一些新的cms gc的内容和策略(有点乱,每次写都很乱,但是能看多少看多少吧):
首先我再写一次一前博客中的已经写过的内容,就是很多参数没啥建议值,建议值是自己在现场根据实际情况科学计算和测试得到的综合效果,建议值没有绝对好的,而且默认值很多也是有问题的,因为不同的版本和厂商都有很大的区别,默认值没有永久都是一样的,就像-xss参数的变化一样,要看到你当前的java程序heap的大致情况可以这样看看(以下参数是随便设置的,并不是什么默认值):
$sudo jmap -heap `pgrep java`
attaching to process id 4280, please wait...
debugger attached successfully.
server compiler detected.
jvm version is 19.1-b02
using thread-local object allocation.
parallel gc with 8 thread(s)
heap configuration:
minheapfreeratio = 40
maxheapfreeratio = 70
maxheapsize = 1073741824 (1024.0mb)
newsize = 134217728 (128.0mb)
maxnewsize = 134217728 (128.0mb)
oldsize = 5439488 (5.1875mb)
newratio = 2
survivorratio = 8
permsize = 134217728 (128.0mb)
maxpermsize = 268435456 (256.0mb)
heap usage:
ps young generation
eden space:
capacity = 85721088 (81.75mb)
used = 22481312 (21.439849853515625mb)
free = 63239776 (60.310150146484375mb)
26.22611602876529% used
from space:
capacity = 24051712 (22.9375mb)
used = 478488 (0.45632171630859375mb)
free = 23573224 (22.481178283691406mb)
1.9894134770946867% used
to space:
capacity = 24248320 (23.125mb)
used = 0 (0.0mb)
free = 24248320 (23.125mb)
0.0% used
ps old generation
capacity = 939524096 (896.0mb)
used = 16343864 (15.586723327636719mb)
free = 923180232 (880.4132766723633mb)
1.7395896571023124% used
ps perm generation
capacity = 134217728 (128.0mb)
used = 48021344 (45.796722412109375mb)
free = 86196384 (82.20327758789062mb)
35.77868938446045% used
付:sudo是需要拿到管理员权限,如果你的系统权限很大那么就不需要了,最后的grep java那个内容如果不对,可以直接通过jps或者ps命令将和java相关的进程号直接写进去,如:java -map 4280,这个参数其实完全可以通过jstat工具来替代,而且看到的效果更加好,这个参数在线上应用中,尽量少用(尤其是高并发的应用中),可能会触发jvm的bug,导致应用挂起;在jvm 1.6u14后可以编写任意一段程序,然后在运行程序的时候,增加参数为:-xx:+printflagsfinal来输出当前jvm中运行时的参数值,或者通过jinfo来查看,jinfo是非常强大的工具,可以对部分参数进行动态修改,当然内存相关的东西是不能修改的,只能增加一些不是很相关的参数,有关jvm的工具使用,后续文章中如果有机会我们再来探讨,不是本文的重点;补充:关于参数的默认值对不同的jvm版本、不同的厂商、运行于不同的环境(一般和位数有关系)默认值会有区别。
ok,再说下反复的一句,没有必要的话就不要乱设置参数,参数不是拿来玩的,默认的参数对于这门jdk都是有好处的,关键是否适合你的应用场景,一般来讲你常规的只需要设置以下几个参数就可以了:
-server 表示为服务器端,会提供很多服务器端默认的配置,如并行回收,而服务器上一般这个参数都是默认的,所以都是可以省掉,与之对应的还有一个-client参数,一般在64位机器上,jvm是默认启动-server参数,也就是默认启动并行gc的,但是是parallelgc而不是paralleloldgc,两者算法不同(后面会简单说明下),而比较特殊的是windows 32位上默认是-client,这两个的区别不仅仅是默认的参数不一样,在jdk包下的jre包下一般会包含client和server包,下面分别对应启动的动态链接库,而真正看到的java、javac等相关命令指示一个启动导向,它只是根据命令找到对应的jvm并传入jvm中进行启动,也就是看到的java.exe这些文件并不是jvm;说了这么多,最终总结一下就是,-server和-client就是完全不同的两套vm,一个用于桌面应用,一个用于服务器的。
-xmx 为heap区域的最大值
-xms 为heap区域的初始值,线上环境需要与-xmx设置为一致,否则capacity的值会来回飘动,飘得你心旷神怡,你懂的。
-xss(或-ss) 这个其实也是可以默认的,如果你真的觉得有设置的必要,你就改下吧,1.5以后是1m的默认大小(指一个线程的native空间),如果代码不多,可以设置小点来让系统可以接受更大的内存。注意,还有一个参数是-xx:threadstacksize,这两个参数在设置的过程中如果都设置是有冲突的,一般按照jvm常理来说,谁设置在后面,就以谁为主,但是最后发现如果是在1.6以上的版本,-xss设置在后面的确都是以-xss为主,但是要是-xx:threadstacksize设置在后面,主线程还是为-xss为主,而其它线程以-xx:threadstacksize为主,主线程做了一个特殊判定处理;单独设置都是以本身为主,-xss不设置也不会采用其默认值,除非两个都不设置会采用-xss的默认值。另外这个参数针对于hotspot的vm,在ibm的jvm中,还有一个参数为-xoss,主要原因是ibm在对栈的处理上有操作数栈和方法栈等各种不同的栈种类,而hotspot不管是什么栈都放在一个私有的线程内部的,不区分是什么栈,所以只需要设置一个参数,而ibm的j9不是这样的;有关栈上的细节,后续我们有机会专门写文章来说明。
-xx:permsize与-xx:maxpermsize两个包含了class的装载的位置,或者说是方法区(但不是本地方法区),在hotspot默认情况下为64m,主意全世界的jvm只有hostpot的vm才有perm的区域,或者说只有hotspot才有对用户可以设置的这块区域,其他的jvm都没有,其实并不是没有这块区域,而是这块区域没有让用户来设置,其实这块区域本身也不应该让用户来设置,我们也没有一个明确的说法这块空间必须要设置多大,都是拍脑袋设置一个数字,如果发布到线上看下如果用得比较多,就再多点,如果用的少,就减少点,而这块区域和性能关键没有多大关系,只要能装下就ok,并且时不时会因为perm不够而导致full gc,所以交给开发者来调节这个参数不知道是怎么想的;所以oracle将在新一代jvm中将这个区域彻底删掉,也就是对用户透明,g1的如果真正稳定起来,以后jvm的启动参数将会非常简单,而且理论上管理再大的内存也是没有问题的,其实g1(garbage first,一种基于region的垃圾收集回收器)已经在hotspot中开始有所试用,不过目前效果不好,还不如cms呢,所以只是试用,g1已经作为oracle对jvm研发的最高重点,cms自现在最高版本后也不再有新功能(可以修改bug),该项目已经进行5年,尚未发布正式版,cms是四五年前发布的正式版,但是是最近一两年才开始稳定,而g1的复杂性将会远远超越cms,所以要真正使用上g1还有待考察,全世界目前只有ibm j9真正实现了g1论文中提到的思想(论文于05年左右发表),ibm已经将j9应用于websphere中,但是并不代表这是全世界最好的jvm,全世界最好的jvm是azul(无停顿垃圾回收算法和一个零开销的诊断/监控工具),几乎可以说这个jvm是没有暂停的,在全世界很多顶尖级的公司使用,不过价格非常贵,不能直接使用,目前这个jvm的主导者在研究jrockit,而目前hotspot和jrockit都是oracle的,所以他们可能会合并,所以我们应该对jvm的性能充满信心。
也就是说你常用的情况下只需要设置4个参数就ok了,除非你的应用有些特殊,否则不要乱改,那么来看看一些其他情况的参数吧:
先来看个不大常用的,就是大家都知道jvm新的对象应该说几乎百分百的在eden里面,除非eden真的装不下,我们不考虑这种变态的问题,因为线上环境eden区域都是不小的,来降低gc的次数以及全局 gc的概率;而jvm习惯将内存按照较为连续的位置进行分配,这样使得有足够的内存可以被分配,减少碎片,那么对于内存最后一个位置必然就有大量的征用问题,jvm在高一点的版本里面提出了为每个线程分配一些私有的区域来做来解决这个问题,而1.5后的版本还可以动态管理这些区域,那么如何自己设置和查看这些区域呢,看下英文全称为:thread local allocation buffer,简称就是:tlab,即内存本地的持有的buffer,设置参数有:
-xx:+usetlab 启用这种机制的意思
-xx:tlabsize=<size in kb> 设置大小,也就是本地线程中的私有区域大小(只有这个区域放不下才会到eden中去申请)。
-xx:+resizetlab 是否启动动态修改
这几个参数在多cpu下非常有用。
-xx:+printtlab 可以输出tlab的内容。
下面再闲扯些其它的参数:
如果你需要对yong区域进行并行回收应该如何修改呢?在jdk1.5以后可以使用参数:
-xx:+useparnewgc
注意: 与它冲突的参数是:-xx:+useparalleloldgc和-xx:+useserialgc,如果需要用这个参数,又想让整个区域是并行回收的,那么就使用-xx:+useconcmarksweepgc参数来配合,其实这个参数在使用了cms后,默认就会启动该参数,也就是这个参数在cms gc下是无需设置的,后面会提及到这些参数。
默认服务器上的对full并行gc策略为(这个时候yong空间回收的时候启动psyong算法,也是并行回收的):
-xx:+useparallelgc
另外,在jdk1.5后出现一个新的参数如下,这个对yong的回收算法和上面一样,对old区域会有所区别,上面对old回收的过程中会做一个全局的compact,也就是全局的压缩操作,而下面的算法是局部压缩,为什么要局部压缩呢?是因为jvm发现每次压缩后再逻辑上数据都在old区域的左边位置,申请的时候从左向右申请,那么生命力越长的对象就一般是靠左的,所以它认为左边的对象就是生命力很强,而且较为密集的,所以它针对这种情况进行部分密集,但是这两种算法mark阶段都是会暂停的,而且存活的对象越多活着的越多;而paralleloldgc会进行部分压缩算法(主意一点,最原始的copy算法是不需要经过mark阶段,因为只需要找到一个或活着的就只需要做拷贝就可以,而yong区域借用了copy算法,只是唯一的区别就是传统的copy算法是采用两个相同大小的内存来拷贝,浪费空间为50%,所以分代的目标就是想要实现很多优势所在,认为新生代85%以上的对象都应该是死掉的,所以s0和s1一般并不是很大),该算法为jdk 1.5以后对于绝大部分应用的最佳选择。
-xx:+useparalleloldgc
-xx:parallelgcthread=12:并行回收的线程数,最好根据实际情况而定,因为线程多往往存在征用调度和上下文切换的开销;而且也并非cpu越多线程数也可以设置越大,一般设置为12就再增加用处也不大,主要是算法本身内部的征用会导致其线程的极限就是这样。
设置yong区域大小:
-xmn yong区域的初始值和最大值一样大
-xx:newsize和-xx:maxnewsize如果设置以为一样大就是和-xmn,在jrockit中会动态变化这些参数,根据实际情况有可能会变化出两个yong区域,或者没有yong区域,有些时候会生出来一个半长命对象区域;这里除了这几个参数外,还有一个参数是newratio是设置old/yong的倍数的,这几个参数都是有冲突的,服务器端建议是设置-xmn就可以了,如果几个参数全部都有设置,-xmn和-xx:newsize与-xx:maxnewsize将是谁设置在后面,以谁的为准,而-xx:newsize -xx:maxnewsize与-xx:newratio时,那么参数设置的结果可能会以下这样的(jdk 1.4.1后):
min(maxnewsize,max(newsize, heap/(newratio+1)))
-xx:newratio为old区域为yong的多少倍,间接设置yong的大小,1.6中如果使用此参数,则默认会在适当时候被动态调整,具体请看下面参数useadaptivesizepollcy 的说明。
三个参数不要同时设置,因为都是设置yong的大小的。
-xx:survivorratio:该参数为eden与两个求助空间之一的比例,注意yong的大小等价于eden + s0 + s1,s0和s1的大小是等价的,这个参数为eden与其中一个s区域的大小比例,如参数为8,那么eden就占用yong的80%,而s0和s1分别占用10%。
以前的老版本有一个参数为:-xx:initialsurivivorratio,如果不做任何设置,就会以这个参数为准,这个参数的默认值就是8,不过这个参数并不是eden/survivor的大小,而是yong/survivor,所以所以默认值8,代表每一个s区域的空间大小为yong区域的12.5%而不是10%。另外顺便提及一下,每次大家看到gc日志的时候,gc日志中的每个区域的最大值,其中yong的空间最大值,始终比设置的yong空间的大小要小一点,大概是小12.5%左右,那是因为每次可用空间为eden加上一个survivor区域的大小,而不是整个yong的大小,因为可用空间每次最多是这样大,两个survivor区域始终有一块是空的,所以不会加上两个来计算。
-xx:maxtenuringthreshold=15:在正常情况下,新申请的对象在yong区域发生多少次gc后就会被移动到old(非正常就是s0或s1放不下或者不太可能出现的eden都放不下的对象),这个参数一般不会超过16(因为计数器从0开始计数,所以设置为15的时候相当于生命周期为16)。
要查看现在的这个值的具体情况,可以使用参数:-xx:+printtenuringdistribution
通过上面的jmap应该可以看出我的机器上的minheapfreeratio和maxheapfreeratio分别为40个70,也就是大家经常说的在gc后剩余空间小于40%时capacity开始增大,而大于70%时减小,由于我们不希望让它移动,所以这两个参数几乎没有意义,如果你需要设置就设置参数为:
-xx:minheapfreeratio=40
-xx:maxheapfreeratio=70
jdk 1.6后有一个动态调节板块的,当然如果你的每一个板块都是设置固定值,这个参数也没有用,不过如果是非固定的,建议还是不要动态调整,默认是开启的,建议将其关掉,参数为:
-xx:+useadaptivesizepollcy 建议使用-xx:-useadaptivesizepollcy关掉,为什么当你的参数设置了newratio、survivor、maxtenuringthreshold这几个参数如果在启动了动态更新情况下,是无效的,当然如果你设置-xmn是有效的,但是如果设置的比例的话,初始化可能会按照你的参数去运行,不过运行过程中会通过一定的算法动态修改,监控中你可能会发现这些参数会发生改变,甚至于s0和s1的大小不一样。
如果启动了这个参数,又想要跟踪变化,那么就使用参数:-xx:+printadaptivesizepolicy
上面已经提到,javanio中通过direct内存来提高性能,这个区域的大小默认是64m,在适当的场景可以设置大一些。
-xx:maxdirectmemorysize
一个不太常用的参数:
-xx:+scavengebeforefullgc 默认是开启状态,在full gc前先进行minor gc。
对于java堆中如果要设置大页内存,可以通过设置参数:
付:此参数必须在操作系统的内核支持的基础上,需要在os级别做操作为:
echo 1024 > /proc/sys/vm/nr_hugepages
echo 2147483647 > /proc/sys/kernel/shmmax
-xx:+uselargepages
-xx:largepagesizeinbytes
此时整个jvm都将在这块内存中,否则全部不在这块内存中。
javaio的临时目录设置
-djava.io.tmpdir
jstack会去寻找/tmp/hsperfdata_admin下去寻找与进程号相同的文件,32位机器上是没有问题的,64为机器的是有bug的,在jdk 1.6u23版本中已经修复了这个bug,如果你遇到这个问题,就需要升级jdk了。
还记得上次说的平均晋升大小吗,在并行gc时,如果平均晋升大小大于old剩余空间,则发生full gc,那么当小于剩余空间时,也就是平均晋升小于剩余空间,但是剩余空间小于eden + 一个survivor的空间时,此时就依赖于参数:
-xx:-handlepromotionfailure
启动该参数时,上述情况成立就发生minor gc(ygc),大于则发生full gc(major gc)。
一般默认直接分配的对象如果大于eden的一半就会直接晋升到old区域,但是也可以通过参数来指定:
-xx:pretenuresizethreshold=2m 我个人不建议使用这个参数
也就是当申请对象大于这个值就会晋升到old区域。
传说中gc时间的限制,一个是通过比例限制,一个是通过最大暂停时间限制,但是gc时间能限制么,呵呵,在增量中貌似可以限制,不过不能限制住gc总体的时间,所以这个参数也不是那么关键。
-xx:gctimeratio=
-xx:maxgcpausemillis
-xx:gctimelimit
要看到真正暂停的时间就一个是看gcdetail的日志,另一个是设置参数看:
-xx:+printgcapplicationstoppedtime
有些人,有些人就是喜欢在代码里面里头写system.gc(),耍酷,这个不是测试程序是线上业务,这样将会导致n多的问题,不多说了,你应该懂的,不懂的话看下书吧,而rmi是很不听话的一个鸟玩意,ejb的框架也是基于rmi写的,rmi为什么不听话呢,就是它自己在里面非要搞个system.gc(),哎,为了放置频繁的做,频繁的做,你就将这个命令的执行禁用掉吧,当然程序不用改,不然那些ejb都跑步起来了,呵呵:
-xx:+disableexplicitgc 默认是没有禁用掉,写成+就是禁用掉的了,但是有些时候在使用allocatedirect的时候,很多时候还真需要system.gc来强制回收这块资源。
内存溢出时导出溢出的错误信息:
-xx:+heapdumponoutofmemoryerror
-xx:heapdumppath=/home/xieyu/logs/ 这个参数指定导出时的路径,不然导出的路径就是虚拟机的目标位置,不好找了,默认的文件名是:java_pid<进程号>.hprof,这个文件可以类似使用jmap -dump:file=....,format=b <pid>来dump类似的内容,文件后缀都是hprof,然后下载mat工具进行分析即可(不过内存有多大dump文件就多大,而本地分析的时候内存也需要那么大,所以很多时候下载到本地都无法启动是很正常的),后续文章有机会我们来说明这些工具,另外jmap -dump参数也不要经常用,会导致应用挂起哦;另外此参数只会在第一次输出oom的时候才会进行堆的dump操作(java heap的溢出是可以继续运行再运行的程序的,至于web应用是否服务要看应用服务器自身如何处理,而c heap区域的溢出就根本没有dump的机会,因为直接就宕机了,目前系统无法看到c heap的大小以及内部变化,要看大小只能间接通过看jvm进程的内存大小(top或类似参数),这个大小一般会大于heap+perm的大小,多余的部分基本就可以认为是c heap的大小了,而看内部变化呢只有google perftools可以达到这个目的),如果内存过大这个dump操作将会非常长,所以hotspot如果以后想管理大内存,这块必须有新的办法出来。
最后,用dump出来的文件,通过mat分析出来的结果往往有些时候难以直接确定到底哪里有问题,可以看到的维度大概有:那个类使用的内存最多,以及每一个线程使用的内存,以及线程内部每一个调用的类和方法所使用的内存,但是很多时候无法判定到底是程序什么地方调用了这个类或者方法,因为这里只能看到最终消耗内存的类,但是不知道谁使用了它,一个办法是扫描代码,但是太笨重,而且如果是jar包中调用了就不好弄了,另一种方法是写agent,那么就需要相应的配合了,但是有一个非常好的工具就是btrace工具(jdk 1.7貌似还不支持),可以跟踪到某个类的某个方法被那些类中的方法调用过,那这个问题就好说了,只要知道开销内存的是哪一个类,就能知道谁调用过它,ok,关于btrace的不是本文重点,网上都有,后续文章有机会再探讨,
原理:
no performance impact during runtime(无性能影响)
dumping a –xmx512m heap
create a 512mb .hprof file(512m内存就dump出512m的空间大小)
jvm is “dead” during dumping(死掉时dump)
restarting jvm during this dump will cause unusable .hprof file(重启导致文件不可用)
注明的numa架构,在jvm中开始支持,当然也需要cpu和os的支持才可以,需要设置参数为:
-xx:+usenuma 必须在并行gc的基础上才有的
老年代无法分配区域的最大等待时间为(默认值为0,但是也不要去动它):
-xx:gcexpandtoallocatedelaymillis
让jvm中所有的set和get方法转换为本地代码:
-xx:+usefastaccessormethods
以时间戳输出heap的利用率
-xx:+printheapusageovertime
在64bit的os上面(其实一般达不到57位左右),由于指针会放大为8个byte,所以会导致空间使用增加,当然,如果内存够大,就没有问题,但是如果升级到64bit系统后,只是想让内存达到4g或者8g,那么就完全可以通过很多指针压缩为4byte就ok了,所以在提供以下参数(本参数于jdk 1.6u23后使用,并自动开启,所以也不需要你设置,知道就ok):
-xx:+usecompressedoops 请注意:这个参数默认在64bit的环境下默认启动,但是如果jvm的内存达到32g后,这个参数就会默认为不启动,因为32g内存后,压缩就没有多大必要了,要管理那么大的内存指针也需要很大的宽度了。
后台jit编译优化启动
-xx:+backgroundcompilation
如果你要输出gc的日志以及时间戳,相关的参数有:
-xx:+printgcdetails 输出gc的日志详情,包含了时间戳
-xx:+printgctimestamps 输出gc的时间戳信息,按照启动jvm后相对时间的每次gc的相对秒值(毫秒在小数点后面),也就是每次gc相对启动jvm启动了多少秒后发生了这次gc
-xx:+printgcdatestamps输出gc的时间信息,会按照系统格式的日期输出每次gc的时间
-xx:+printgctasktimestamps输出任务的时间戳信息,这个细节上比较复杂,后续有文章来探讨。
-xx:-traceclassloading 跟踪类的装载
-xx:-traceclassunloading 跟踪类的卸载
-xx:+printheapatgc 输出gc后各个堆板块的大小。
将常量信息gc信息输出到日志文件:
-xloggc:/home/xieyu/logs/gc.log
现在面对大内存比较流行是是cms gc(最少1.5才支持),首先明白cms的全称是什么,不是传统意义上的内容管理系统(content management system)哈,第一次我也没看懂,它的全称是:concurrent mark sweep,三个单词分别代表并发、标记、清扫(主意这里没有compact操作,其实cms gc的确没有compact操作),也就是在程序运行的同时进行标记和清扫工作,至于它的原理前面有提及过,只是有不同的厂商在上面做了一些特殊的优化,比如一些厂商在标记根节点的过程中,标记完当前的根,那么这个根下面的内容就不会被暂停恢复运行了,而移动过程中,通过读屏障来看这个内存是不是发生移动,如果在移动稍微停一下,移动过去后再使用,hotspot还没这么厉害,暂停时间还是挺长的,只是相对其他的gc策略在面对大内存来讲是不错的选择。
下面看一些cms的策略(并发gc总时间会比常规的并行gc长,因为它是在运行时去做gc,很多资源征用都会影响其gc的效率,而总体的暂停时间会短暂很多很多,其并行线程数默认为:(上面设置的并行线程数 + 3)/ 4
付:cms是目前hotspot管理大内存最好的jvm,如果是常规的jvm,最佳选择为paralleloldgc,如果必须要以响应时间为准,则选择cms,不过cms有两个隐藏的隐患:
1、cms gc虽然是并发且并行运行的gc,但是初始化的时候如果采用默认值92%(jvm 1.5的白皮书上描述为68%其实是错误的,1.6是正确的),就很容易出现问题,因为cms gc仅仅针对old区域,yong区域使用parnew算法,也就是old的cms回收和yong的回收可以同时进行,也就是回收过程中yong有可能会晋升对象old,并且业务也可以同时运行,所以92%基本开始启动cms gc很有可能old的内存就不够用了,当内存不够用的时候,就启动full gc,并且这个full gc是串行的,所以如果弄的不好,cms会比并行gc更加慢,为什么要启用串行是因为cms gc、并行gc、串行gc的继承关系决定的,简单说就是它没办法去调用并行gc的代码,细节说后续有文章来细节说明),建议这个值设置为70%左右吧,不过具体时间还是自己决定。
2、cms gc另一个大的隐患,其实不看也差不多应该清楚,看名字就知道,就是不会做compact操作,它最恶心的地方也在这里,所以上面才说一般的应用都不使用它,它只有内存垃圾非常多,多得无法分配晋升的空间的时候才会出现一次compact,但是这个是full gc,也就是上面的串行,很恐怖的,所以内存不是很大的,不要考虑使用它,而且它的算法十分复杂。
还有一些小的隐患是:和应用一起征用cpu(不过这个不是大问题,增加cpu即可)、整个运行过程中时间比并行gc长(这个也不是大问题,因为我们更加关心暂停时间而不是运行时间,因为暂停会影响非常多的业务)。
启动cms为全局gc方法(注意这个参数也不能上面的并行gc进行混淆,yong默认是并行的,上面已经说过
-xx:+useconcmarksweepgc
在并发gc下启动增量模式,只能在cms gc下这个参数才有效。
-xx:+cmsincrementalmode
启动自动调节duty cycle,即在cms gc中发生的时间比率设置,也就是说这段时间内最大允许发生多长时间的gc工作是可以调整的。
-xx:+cmsincrementalpacing
在上面这个参数设定后可以分别设置以下两个参数(参数设置的比率,范围为0-100):
-xx:cmsincrementaldutycyclemin=0
-xx:cmsincrementaldutycycle=10
增量gc上还有一个保护因子(cmsincrementalsafetyfactor),不太常用;cmsincrementaloffset提供增量gc连续时间比率的设置;cmsexpavgfactor为增量并发的gc增加权重计算。
-xx:cmsincrementalsafetyfactor=
-xx:cmsincrementaloffset=
-xx:cmsexpavgfactor=
是否启动并行cms gc(默认也是开启的)
-xx:+cmsparallelremarkenabled
要单独对cms gc设置并行线程数就设置(默认也不需要设置):
-xx:parallelcmsthreads
对perngen进行垃圾回收:
jdk 1.5在cms gc基础上需要设置参数(也就是前提是cms gc才有):
-xx:+cmsclassunloadingenabled -xx:+cmspermgensweepingenabled
1.6以后的版本无需设置:-xx:+cmspermgensweepingenabled,注意,其实一直以来full gc都会触发对perm的回收过程,cms gc需要有一些特殊照顾,虽然vm会对这块区域回收,但是perm回收的条件几乎不太可能实现,首先需要这个类的classloader必须死掉,才可以将该classloader下所有的class干掉,也就是要么全部死掉,要么全部活着;另外,这个classloader下的class没有任何object在使用,这个也太苛刻了吧,因为常规的对象申请都是通过系统默认的,应用服务器也有自己默认的classloader,要让它死掉可能性不大,如果这都死掉了,系统也应该快挂了。
cms gc因为是在程序运行时进行gc,不会暂停,所以不能等到不够用的时候才去开启gc,官方说法是他们的默认值是68%,但是可惜的是文档写错了,经过很多测试和源码验证这个参数应该是在92%的时候被启动,虽然还有8%的空间,但是还是很可怜了,当cms发现内存实在不够的时候又回到常规的并行gc,所以很多人在没有设置这个参数的时候发现cms gc并没有神马优势嘛,和并行gc一个鸟样子甚至于更加慢,所以这个时候需要设置参数(这个参数在上面已经说过,启动cms一定要设置这个参数):
-xx:cmsinitiatingoccupancyfraction=70
这样保证old的内存在使用到70%的时候,就开始启动cms了;如果你真的想看看默认值,那么就使用参数:-xx:+printcmsinitiationstatistics 这个变量只有jdk 1.6可以使用 1.5不可以,查看实际值-xx:+printcmsstatistics;另外,还可以设置参数-xx:cmsinitiatingpermoccupancyfraction来设置perm空间达到多少时启动cms gc,不过意义不大。
jdk 1.6以后有些时候启动cms gc是根据计算代价进行启动,也就是不一定按照你指定的参数来设置的,如果你不想让它按照所谓的成本来计算gc的话,那么你就使用一个参数:-xx:+usecmsinitiatingoccupancyonly,默认是false,它就只会按照你设置的比率来启动cms gc了。如果你的程序中有system.gc以及设置了explicitgcinvokesconcurrent在jdk 1.6中,这种情况使用nio是有可能产生问题的。
启动cms gc的compation操作,也就是发生多少次后做一次全局的compaction:
-xx:+usecmscompactatfullcollection
-xx:cmsfullgcsbeforecompaction:发生多少次cms full gc,这个参数最好不要设置,因为要做compaction的话,也就是真正的full gc是串行的,非常慢,让它自己去决定什么时候需要做compaction。
-xx:cmsmaxabortableprecleantime=5000 设置preclean步骤的超时时间,单位为毫秒,preclean为cms gc其中一个步骤,关于cms gc步骤比较多,本文就不细节探讨了。
并行gc在mark阶段,可能会同时发生minor gc,old区域也可能发生改变,于是并发gc会对发生了改变的内容进行remark操作,这个触发的条件是:
-xx:cmsscheduleremarkedensizethreshold
-xx:cmsscheduleremarkedenpenetration
即eden区域多大的时候开始触发,和eden使用量超过百分比多少的时候触发,前者默认是2m,后者默认是50%。
但是如果长期不做remark导致old做不了,可以设置超时,这个超时默认是5秒,可以通过参数:
-xx:cmsmaxabortableprecleantime
-xx:+explicitgcinvokesconcurrent 在显示发生gc的时候,允许进行并行gc。
-xx:+explicitgcinvokesconcurrentandunloadsclasses 几乎和上面一样,只不过多一个对perm区域的回收而已。
补充:
其实jvm还有很多的版本,很多的厂商,与其优化的原则,随便举两个例子hotspot在gc中做的一些优化(这里不说代码的编译时优化或运行时优化):
eden申请的空间对象由old区域的某个对象的一个属性指向(也就是old区域的这个空间不回收,eden这块就没有必要考虑回收),所以hotspot在cpu写上面,做了一个屏障,当发生赋值语句的时候(对内存来讲赋值就是一种写操作),如果发现是一个新的对象由old指向eden,那么就会将这个对象记录在一个卡片机里面,这个卡片机是有很多512字节的卡片组成,当在ygc过程中,就基本不会去移动或者管理这块对象(付:这种卡片机会在cms gc的算法中使用,不过和这个卡片不是放在同一个地方的,也是cms gc的关键,对于cms gc的算法细节描述,后续文章我们单独说明)。
old区域对于一些比较大的对象,jvm就不会去管理个对象,也就是compact过程中不会去移动这块对象的区域等等吧。
以上大部分参数为hotspot的自带关于性能的参数,参考版本为jdk 1.5和1.6的版本,很多为个人经验说明,不足以说明所有问题,如果有问题,欢迎探讨;另外,jdk的参数是不是就只有这些呢,肯定并不是,我知道的也不止这些,但是有些觉得没必要说出来的参数和一些数学运算的参数我就不想给出来了,比如像禁用掉gc的参数有神马意义,我们的服务器要是把这个禁用掉干个屁啊,呵呵,做测试还可以用这玩玩,让它不做gc直接溢出;还有一些什么计算因子啥的,还有很多复杂的数学运算规则,要是把这个配置明白了,就太那个了,而且一般情况下也没那个必要,jdk到现在的配置参数多达上500个以上,要知道完的话慢慢看吧,不过意义不大,而且要知道默认值最靠谱的是看源码而不是看文档,官方文档也只能保证绝大部是正确的,不能保证所有的是正确的。
本文最后追加在jdk 1.6u 24后通过上面说明的-xx:+printflagsfinal输出的参数以及默认值(还是那句话,在不同的平台上是不一样的),输出的参数如下,可以看看jvm的参数是相当的多,参数如此之多,你只需要掌握关键即可,参数还有很多有冲突的,不要纠结于每一个参数的细节:
$java -xx:+printflagsfinal
uintx adaptivepermsizeweight = 20 {product}
uintx adaptivesizedecrementscalefactor = 4 {product}
uintx adaptivesizemajorgcdecaytimescale = 10 {product}
uintx adaptivesizepausepolicy = 0 {product}
uintx adaptivesizepolicycollectioncostmargin = 50 {product}
uintx adaptivesizepolicyinitializingsteps = 20 {product}
uintx adaptivesizepolicyoutputinterval = 0 {product}
uintx adaptivesizepolicyweight = 10 {product}
uintx adaptivesizethroughputpolicy = 0 {product}
uintx adaptivetimeweight = 25 {product}
bool adjustconcurrency = false {product}
bool aggressiveopts = false {product}
intx aliaslevel = 3 {product}
intx allocateprefetchdistance = -1 {product}
intx allocateprefetchinstr = 0 {product}
intx allocateprefetchlines = 1 {product}
intx allocateprefetchstepsize = 16 {product}
intx allocateprefetchstyle = 1 {product}
bool allowjnienvproxy = false {product}
bool allowparalleldefineclass = false {product}
bool allowusersignalhandlers = false {product}
bool alwaysactasserverclassmachine = false {product}
bool alwayscompileloopmethods = false {product}
intx alwaysinflate = 0 {product}
bool alwayslockclassloader = false {product}
bool alwayspretouch = false {product}
bool alwaysrestorefpu = false {product}
bool alwaystenure = false {product}
bool anonymousclasses = false {product}
bool assertonsuspendwaitfailure = false {product}
intx atomics = 0 {product}
uintx autogcselectpausemillis = 5000 {product}
intx bceatracelevel = 0 {product}
intx backedgethreshold = 100000 {pd product}
bool backgroundcompilation = true {pd product}
uintx basefootprintestimate = 268435456 {product}
intx biasedlockingbulkrebiasthreshold = 20 {product}
intx biasedlockingbulkrevokethreshold = 40 {product}
intx biasedlockingdecaytime = 25000 {product}
intx biasedlockingstartupdelay = 4000 {product}
bool bindgctaskthreadstocpus = false {product}
bool blockoffsetarrayuseunallocatedblock = false {product}
bool bytecodeverificationlocal = false {product}
bool bytecodeverificationremote = true {product}
intx cicompilercount = 1 {product}
bool cicompilercountpercpu = false {product}
bool citime = false {product}
bool cmsabortsemantics = false {product}
uintx cmsabortableprecleanminworkperiteration = 100 {product}
intx cmsabortableprecleanwaitmillis = 100 {product}
uintx cmsbitmapyieldquantum = 10485760 {product}
uintx cmsbootstrapoccupancy = 50 {product}
bool cmsclassunloadingenabled = false {product}
uintx cmsclassunloadingmaxinterval = 0 {product}
bool cmscleanonenter = true {product}
bool cmscompactwhenclearallsoftrefs = true {product}
uintx cmsconcmarkmultiple = 32 {product}
bool cmsconcurrentmtenabled = true {product}
uintx cmscoordinatoryieldsleepcount = 10 {product}
bool cmsdumpatpromotionfailure = false {product}
uintx cmsexpavgfactor = 50 {product}
bool cmsextrapolatesweep = false {product}
uintx cmsfullgcsbeforecompaction = 0 {product}
uintx cmsincrementaldutycycle = 10 {product}
uintx cmsincrementaldutycyclemin = 0 {product}
bool cmsincrementalmode = false {product}
uintx cmsincrementaloffset = 0 {product}
bool cmsincrementalpacing = true {product}
uintx cmsincrementalsafetyfactor = 10 {product}
uintx cmsindexedfreelistreplenish = 4 {product}
intx cmsinitiatingoccupancyfraction = -1 {product}
intx cmsinitiatingpermoccupancyfraction = -1 {product}
intx cmsistoofullpercentage = 98 {product}
double cmslargecoalsurpluspercent = {product}
double cmslargesplitsurpluspercent = {product}
bool cmsloopwarn = false {product}
uintx cmsmaxabortableprecleanloops = 0 {product}
intx cmsmaxabortableprecleantime = 5000 {product}
uintx cmsoldplabmax = 1024 {product}
uintx cmsoldplabmin = 16 {product}
uintx cmsoldplabnumrefills = 4 {product}
uintx cmsoldplabreactivityceiling = 10 {product}
uintx cmsoldplabreactivityfactor = 2 {product}
bool cmsoldplabresizequicker = false {product}
uintx cmsoldplabtolerancefactor = 4 {product}
bool cmsplabrecordalways = true {product}
uintx cmsparpromoteblockstoclaim = 16 {product}
bool cmsparallelremarkenabled = true {product}
bool cmsparallelsurvivorremarkenabled = true {product}
bool cmspermgenprecleaningenabled = true {product}
uintx cmsprecleandenominator = 3 {product}
uintx cmsprecleaniter = 3 {product}
uintx cmsprecleannumerator = 2 {product}
bool cmsprecleanreflists1 = true {product}
bool cmsprecleanreflists2 = false {product}
bool cmsprecleansurvivors1 = false {product}
bool cmsprecleansurvivors2 = true {product}
uintx cmsprecleanthreshold = 1000 {product}
bool cmsprecleaningenabled = true {product}
bool cmsprintchunksindump = false {product}
bool cmsprintobjectsindump = false {product}
uintx cmsremarkverifyvariant = 1 {product}
bool cmsreplenishintermediate = true {product}
uintx cmsrescanmultiple = 32 {product}
uintx cmsrevisitstacksize = 1048576 {product}
uintx cmssamplinggrain = 16384 {product}
bool cmsscavengebeforeremark = false {product}
uintx cmsscheduleremarkedenpenetration = 50 {product}
uintx cmsscheduleremarkedensizethreshold = 2097152 {product}
uintx cmsscheduleremarksamplingratio = 5 {product}
double cmssmallcoalsurpluspercent = {product}
double cmssmallsplitsurpluspercent = {product}
bool cmssplitindexedfreelistblocks = true {product}
intx cmstriggerpermratio = 80 {product}
intx cmstriggerratio = 80 {product}
bool cmsuseolddefaults = false {product}
intx cmswaitduration = 2000 {product}
uintx cmsworkqueuedrainthreshold = 10 {product}
bool cmsyield = true {product}
uintx cmsyieldsleepcount = 0 {product}
intx cmsyounggenperworker = 16777216 {product}
uintx cms_flspadding = 1 {product}
uintx cms_flsweight = 75 {product}
uintx cms_sweeppadding = 1 {product}
uintx cms_sweeptimerthresholdmillis = 10 {product}
uintx cms_sweepweight = 75 {product}
bool checkjnicalls = false {product}
bool classunloading = true {product}
intx clearfpuatpark = 0 {product}
bool clipinlining = true {product}
uintx codecacheexpansionsize = 32768 {pd product}
uintx codecacheflushingminimumfreespace = 1536000 {product}
uintx codecacheminimumfreespace = 512000 {product}
bool collectgen0first = false {product}
bool compactfields = true {product}
intx compilationpolicychoice = 0 {product}
intx compilationrepeat = 0 {c1 product}
ccstrlist compilecommand = {product}
ccstr compilecommandfile = {product}
ccstrlist compileonly = {product}
intx compilethreshold = 1500 {pd product}
bool compilerthreadhintnopreempt = true {product}
intx compilerthreadpriority = -1 {product}
intx compilerthreadstacksize = 0 {pd product}
uintx concgcthreads = 0 {product}
bool convertsleeptoyield = true {pd product}
bool convertyieldtosleep = false {product}
bool dtraceallocprobes = false {product}
bool dtracemethodprobes = false {product}
bool dtracemonitorprobes = false {product}
uintx defaultmaxramfraction = 4 {product}
intx defaultthreadpriority = -1 {product}
intx deferpollingpageloopcount = -1 {product}
intx deferthrsuspendloopcount = 4000 {product}
bool deoptimizerandom = false {product}
bool disableattachmechanism = false {product}
bool disableexplicitgc = false {product}
bool displayvmoutputtostderr = false {product}
bool displayvmoutputtostdout = false {product}
bool dontcompilehugemethods = true {product}
bool dontyieldalot = false {pd product}
bool dumpsharedspaces = false {product}
bool eagerxruninit = false {product}
intx emitsync = 0 {product}
uintx ergoheapsizelimit = 0 {product}
ccstr errorfile = {product}
bool estimateargescape = true {product}
intx eventloglength = 2000 {product}
bool explicitgcinvokesconcurrent = false {product}
bool explicitgcinvokesconcurrentandunloadsclasses = false {produ
bool extendeddtraceprobes = false {product}
bool flsalwayscoalescelarge = false {product}
uintx flscoalescepolicy = 2 {product}
double flslargestblockcoalesceproximity = {product}
bool failovertooldverifier = true {product}
bool fasttlabrefill = true {product}
intx fenceinstruction = 0 {product}
intx fieldsallocationstyle = 1 {product}
bool filterspuriouswakeups = true {product}
bool forcefullgcjvmtiepilogues = false {product}
bool forcenuma = false {product}
bool forcesharedspaces = false {product}
bool forcetimehighresolution = false {product}
intx freqinlinesize = 325 {pd product}
intx g1concrefinementgreenzone = 0 {product}
intx g1concrefinementredzone = 0 {product}
intx g1concrefinementserviceintervalmillis = 300 {product}
uintx g1concrefinementthreads = 0 {product}
intx g1concrefinementthresholdstep = 0 {product}
intx g1concrefinementyellowzone = 0 {product}
intx g1confidencepercent = 50 {product}
uintx g1heapregionsize = 0 {product}
intx g1markregionstacksize = 1048576 {product}
intx g1rsetregionentries = 0 {product}
uintx g1rsetscanblocksize = 64 {product}
intx g1rsetsparseregionentries = 0 {product}
intx g1rsetupdatingpausetimepercent = 10 {product}
intx g1reservepercent = 10 {product}
intx g1satbbuffersize = 1024 {product}
intx g1updatebuffersize = 256 {product}
bool g1useadaptiveconcrefinement = true {product}
bool g1usefixedwindowmmutracker = false {product}
uintx gcdrainstacktargetsize = 64 {product}
uintx gcheapfreelimit = 2 {product}
bool gclockerinvokesconcurrent = false {product}
bool gcoverheadreporting = false {product}
intx gcoverheadreportingperiodms = 100 {product}
intx gcpauseintervalmillis = 500 {product}
uintx gctasktimestampentries = 200 {product}
uintx gctimelimit = 98 {product}
uintx gctimeratio = 99 {product}
ccstr hpilibpath = {product}
bool handlepromotionfailure = true {product}
uintx heapbaseminaddress = 2147483648 {pd product}
bool heapdumpafterfullgc = false {manageable}
bool heapdumpbeforefullgc = false {manageable}
bool heapdumponoutofmemoryerror = false {manageable}
ccstr heapdumppath = {manageable}
uintx heapfirstmaximumcompactioncount = 3 {product}
uintx heapmaximumcompactioninterval = 20 {product}
bool ignoreunrecognizedvmoptions = false {product}
uintx initialcodecachesize = 163840 {pd product}
uintx initialheapsize := 16777216 {product}
uintx initialramfraction = 64 {product}
uintx initialsurvivorratio = 8 {product}
intx initialtenuringthreshold = 7 {product}
uintx initiatingheapoccupancypercent = 45 {product}
bool inline = true {product}
intx inlinesmallcode = 1000 {pd product}
intx interpreterprofilepercentage = 33 {product}
bool jnidetachreleasesmonitors = true {product}
bool javamonitorsinstacktrace = true {product}
intx javapriority10_to_ospriority = -1 {product}
intx javapriority1_to_ospriority = -1 {product}
intx javapriority2_to_ospriority = -1 {product}
intx javapriority3_to_ospriority = -1 {product}
intx javapriority4_to_ospriority = -1 {product}
intx javapriority5_to_ospriority = -1 {product}
intx javapriority6_to_ospriority = -1 {product}
intx javapriority7_to_ospriority = -1 {product}
intx javapriority8_to_ospriority = -1 {product}
intx javapriority9_to_ospriority = -1 {product}
bool lirfilldelayslots = false {c1 pd product}
uintx largepageheapsizethreshold = 134217728 {product}
uintx largepagesizeinbytes = 0 {product}
bool lazybootclassloader = true {product}
bool managementserver = false {product}
uintx markstacksize = 32768 {product}
uintx markstacksizemax = 4194304 {product}
intx marksweepalwayscompactcount = 4 {product}
uintx marksweepdeadratio = 5 {product}
intx maxbceaestimatelevel = 5 {product}
intx maxbceaestimatesize = 150 {product}
intx maxdirectmemorysize = -1 {product}
bool maxfdlimit = true {product}
uintx maxgcminorpausemillis = 4294967295 {product}
uintx maxgcpausemillis = 4294967295 {product}
uintx maxheapfreeratio = 70 {product}
uintx maxheapsize := 268435456 {product}
intx maxinlinelevel = 9 {product}
intx maxinlinesize = 35 {product}
intx maxjavastacktracedepth = 1024 {product}
uintx maxliveobjectevacuationratio = 100 {product}
uintx maxnewsize = 4294967295 {product}
uintx maxpermheapexpansion = 4194304 {product}
uintx maxpermsize = 67108864 {pd product}
uint64_t maxram = 1073741824 {pd product}
uintx maxramfraction = 4 {product}
intx maxrecursiveinlinelevel = 1 {product}
intx maxtenuringthreshold = 15 {product}
intx maxtrivialsize = 6 {product}
bool methodflushing = true {product}
intx mincodecacheflushinginterval = 30 {product}
uintx minheapdeltabytes = 131072 {product}
uintx minheapfreeratio = 40 {product}
intx mininliningthreshold = 250 {product}
uintx minpermheapexpansion = 262144 {product}
uintx minramfraction = 2 {product}
uintx minsurvivorratio = 3 {product}
uintx mintlabsize = 2048 {product}
intx monitorbound = 0 {product}
bool monitorinuselists = false {product}
bool mustcallloadclassinternal = false {product}
intx numachunkresizeweight = 20 {product}
intx numapagescanrate = 256 {product}
intx numaspaceresizerate = 1073741824 {product}
bool numastats = false {product}
intx nativemonitorflags = 0 {product}
intx nativemonitorspinlimit = 20 {product}
intx nativemonitortimeout = -1 {product}
bool needsdeoptsuspend = false {pd product}
bool neveractasserverclassmachine = true {pd product}
bool nevertenure = false {product}
intx newratio = 2 {product}
uintx newsize = 1048576 {product}
uintx newsizethreadincrease = 4096 {pd product}
intx nmethodsweepfraction = 4 {product}
uintx oldplabsize = 1024 {product}
uintx oldplabweight = 50 {product}
uintx oldsize = 4194304 {product}
bool omitstacktraceinfastthrow = true {product}
ccstrlist onerror = {product}
ccstrlist onoutofmemoryerror = {product}
intx onstackreplacepercentage = 933 {pd product}
uintx plabweight = 75 {product}
bool pschunklargearrays = true {product}
intx pargcarrayscanchunk = 50 {product}
uintx pargcdesiredobjsfromoverflowlist = 20 {product}
bool pargctrimoverflow = true {product}
bool pargcuselocaloverflow = false {product}
intx parallelgcbufferwastepct = 10 {product}
bool parallelgcretainplab = true {product}
uintx parallelgcthreads = 0 {product}
bool parallelgcverbose = false {product}
uintx parallelolddeadwoodlimitermean = 50 {product}
uintx parallelolddeadwoodlimiterstddev = 80 {product}
bool parallelrefprocbalancingenabled = true {product}
bool parallelrefprocenabled = false {product}
uintx pausepadding = 1 {product}
intx perbytecoderecompilationcutoff = 200 {product}
intx perbytecodetraplimit = 4 {product}
intx permethodrecompilationcutoff = 400 {product}
intx permethodtraplimit = 100 {product}
bool perfallowatexitregistration = false {product}
bool perfbypassfilesystemcheck = false {product}
intx perfdatamemorysize = 32768 {product}
intx perfdatasamplinginterval = 50 {product}
ccstr perfdatasavefile = {product}
bool perfdatasavetofile = false {product}
bool perfdisablesharedmem = false {product}
intx perfmaxstringconstlength = 1024 {product}
uintx permgenpadding = 3 {product}
uintx permmarksweepdeadratio = 20 {product}
uintx permsize = 12582912 {pd product}
bool postspinyield = true {product}
intx preblockspin = 10 {product}
intx preinflatespin = 10 {pd product}
bool prespinyield = false {product}
bool preferinterpreternativestubs = false {pd product}
intx prefetchcopyintervalinbytes = -1 {product}
intx prefetchfieldsahead = -1 {product}
intx prefetchscanintervalinbytes = -1 {product}
bool preserveallannotations = false {product}
uintx preservemarkstacksize = 1024 {product}
uintx pretenuresizethreshold = 0 {product}
bool printadaptivesizepolicy = false {product}
bool printcmsinitiationstatistics = false {product}
intx printcmsstatistics = 0 {product}
bool printclasshistogram = false {manageable}
bool printclasshistogramafterfullgc = false {manageable}
bool printclasshistogrambeforefullgc = false {manageable}
bool printcommandlineflags = false {product}
bool printcompilation = false {product}
bool printconcurrentlocks = false {manageable}
intx printflscensus = 0 {product}
intx printflsstatistics = 0 {product}
bool printflagsfinal := true {product}
bool printflagsinitial = false {product}
bool printgc = false {manageable}
bool printgcapplicationconcurrenttime = false {product}
bool printgcapplicationstoppedtime = false {product}
bool printgcdatestamps = false {manageable}
bool printgcdetails = false {manageable}
bool printgctasktimestamps = false {product}
bool printgctimestamps = false {manageable}
bool printheapatgc = false {product rw}
bool printheapatgcextended = false {product rw}
bool printheapatsigbreak = true {product}
bool printjnigcstalls = false {product}
bool printjniresolving = false {product}
bool printoldplab = false {product}
bool printplab = false {product}
bool printparalleloldgcphasetimes = false {product}
bool printpromotionfailure = false {product}
bool printreferencegc = false {product}
bool printrevisitstats = false {product}
bool printsafepointstatistics = false {product}
intx printsafepointstatisticscount = 300 {product}
intx printsafepointstatisticstimeout = -1 {product}
bool printsharedspaces = false {product}
bool printtlab = false {product}
bool printtenuringdistribution = false {product}
bool printvmoptions = false {product}
bool printvmqwaittime = false {product}
uintx processdistributionstride = 4 {product}
bool profileinterpreter = false {pd product}
bool profileintervals = false {product}
intx profileintervalsticks = 100 {product}
intx profilematuritypercentage = 20 {product}
bool profilevm = false {product}
bool profilerprintbytecodestatistics = false {product}
bool profilerrecordpc = false {product}
uintx promotedpadding = 3 {product}
intx queuedallocationwarningcount = 0 {product}
bool rangecheckelimination = true {product}
intx readprefetchinstr = 0 {product}
intx readspiniterations = 100 {product}
bool reducesignalusage = false {product}
intx refdiscoverypolicy = 0 {product}
bool reflectionwrapresolutionerrors = true {product}
bool registerfinalizersatinit = true {product}
bool relaxaccesscontrolcheck = false {product}
bool requiresharedspaces = false {product}
uintx reservedcodecachesize = 33554432 {pd product}
bool resizeoldplab = true {product}
bool resizeplab = true {product}
bool resizetlab = true {pd product}
bool restoremxcsronjnicalls = false {product}
bool rewritebytecodes = false {pd product}
bool rewritefrequentpairs = false {pd product}
intx safepointpolloffset = 256 {c1 pd product}
intx safepointspinbeforeyield = 2000 {product}
bool safepointtimeout = false {product}
intx safepointtimeoutdelay = 10000 {product}
bool scavengebeforefullgc = true {product}
intx selfdestructtimer = 0 {product}
uintx shareddummyblocksize = 536870912 {product}
uintx sharedmisccodesize = 4194304 {product}
uintx sharedmiscdatasize = 4194304 {product}
uintx sharedreadonlysize = 10485760 {product}
uintx sharedreadwritesize = 12582912 {product}
bool showmessageboxonerror = false {product}
intx softreflrupolicymspermb = 1000 {product}
bool splitifblocks = true {product}
intx stackredpages = 1 {pd product}
intx stackshadowpages = 3 {pd product}
bool stacktraceinthrowable = true {product}
intx stackyellowpages = 2 {pd product}
bool startattachlistener = false {product}
intx starvationmonitorinterval = 200 {product}
bool stressldcrewrite = false {product}
bool stresstieredruntime = false {product}
bool suppressfatalerrormessage = false {product}
uintx survivorpadding = 3 {product}
intx survivorratio = 8 {product}
intx suspendretrycount = 50 {product}
intx suspendretrydelay = 5 {product}
intx syncflags = 0 {product}
ccstr syncknobs = {product}
intx syncverbose = 0 {product}
uintx tlaballocationweight = 35 {product}
uintx tlabrefillwastefraction = 64 {product}
uintx tlabsize = 0 {product}
bool tlabstats = true {product}
uintx tlabwasteincrement = 4 {product}
uintx tlabwastetargetpercent = 1 {product}
bool taggedstackinterpreter = false {product}
intx targetplabwastepct = 10 {product}
intx targetsurvivorratio = 50 {product}
uintx tenuredgenerationsizeincrement = 20 {product}
uintx tenuredgenerationsizesupplement = 80 {product}
uintx tenuredgenerationsizesupplementdecay = 2 {product}
intx threadprioritypolicy = 0 {product}
bool threadpriorityverbose = false {product}
uintx threadsafetymargin = 52428800 {product}
intx threadstacksize = 0 {pd product}
uintx thresholdtolerance = 10 {product}
intx tier1bytecodelimit = 10 {product}
bool tier1optimizevirtualcallprofiling = true {c1 product}
bool tier1profilebranches = true {c1 product}
bool tier1profilecalls = true {c1 product}
bool tier1profilecheckcasts = true {c1 product}
bool tier1profileinlinedcalls = true {c1 product}
bool tier1profilevirtualcalls = true {c1 product}
bool tier1updatemethoddata = false {product}
intx tier2backedgethreshold = 100000 {pd product}
intx tier2compilethreshold = 1500 {pd product}
intx tier3backedgethreshold = 100000 {pd product}
intx tier3compilethreshold = 2500 {pd product}
intx tier4backedgethreshold = 100000 {pd product}
intx tier4compilethreshold = 4500 {pd product}
bool tieredcompilation = false {pd product}
bool timelinearscan = false {c1 product}
bool tracebiasedlocking = false {product}
bool traceclassloading = false {product rw}
bool traceclassloadingpreorder = false {product}
bool traceclassresolution = false {product}
bool traceclassunloading = false {product rw}
bool tracegen0time = false {product}
bool tracegen1time = false {product}
ccstr tracejvmti = {product}
bool traceloaderconstraints = false {product rw}
bool tracemonitorinflation = false {product}
bool traceparalleloldgctasks = false {product}
intx traceredefineclasses = 0 {product}
bool tracesafepointcleanuptime = false {product}
bool tracesuspendwaitfailures = false {product}
intx typeprofilemajorreceiverpercent = 90 {product}
intx typeprofilewidth = 2 {product}
intx unguardonexecutionviolation = 0 {product}
bool use486instrsonly = false {product}
bool useadaptivegcboundary = false {product}
bool useadaptivegenerationsizepolicyatmajorcollection = true {p
bool useadaptivegenerationsizepolicyatminorcollection = true {p
bool useadaptivenumachunksizing = true {product}
bool useadaptivesizedecaymajorgccost = true {product}
bool useadaptivesizepolicy = true {product}
bool useadaptivesizepolicyfootprintgoal = true {product}
bool useadaptivesizepolicywithsystemgc = false {product}
bool useaddressnop = false {product}
bool usealtsigs = false {product}
bool useautogcselectpolicy = false {product}
bool usebiasedlocking = true {product}
bool useboundthreads = true {product}
bool usecmsbestfit = true {prod