2024年1月

你好呀,我是歪歪。

先给大家道个歉:

上周不是发布了这篇文章嘛:
《三个烂怂八股文,变成两个场景题,打得我一脸懵逼。》

其中第一个关于线程池的场景,经过读者提醒可能有问题,我又一次用尽浑身解数分析了一波,发现之前确实分析的不对。

这个案例真的是再一次深入的刷新了我对于线程池运行过程的认知。

而由于我之前写过太多关于线程池的文章,对于线程池的运行过程太过于熟悉,基本熟悉到了源码信手拈来的地步。

所以我再次分析的时候,一度曾怀疑这个问题现象可能是 JDK 的 BUG,在 JDK BUG 库里面翻了一圈也没有发现有人提到过这个问题,我甚至想要发起这个问题。

最后阴差阳错的,还是定位到了问题的原因是线程池使用方面的问题,而问题的原因,最终说起来,极其简单,一点就透。

这一篇文章,歪师傅再次带大家盘一下这个问题。


问题再现

先给大家上代码:

这个问题最开始是一个读者提出来,发给我的一个 Demo,这个代码已经是我精简过的了。

这个代码运行起来会触发线程池的拒绝策略:

重点看一下我们的线程池定义:

private static final ThreadPoolExecutor threadPoolExecutor = new ThreadPoolExecutor(64, 64, 0, TimeUnit.MINUTES, new ArrayBlockingQueue<>(32));

该线程池核心大小数和最大线程数都是 64,队列长度为 32,也就是说这个线程池同时能容纳的任务数是 64+32=96。

但是从代码可以看出,由于有 countDownLatch 的存在,可以确认 for 循环一次一定只会放 34 个任务进来。

JDK 线程池的运行原理,大家应该都是背的滚瓜烂熟了:先启用核心线程,然后任务进队列,如果队列满了,再启用最大线程数。最大线程数也满了,就触发拒绝策略。

那么按照我个人的理解,因为我们的核心线程数就是 64 个,已经完全大于 34 个任务了,所以线程池完全可以吃下这 34 个任务。

完全没有理由触发拒绝策略啊?

所以,我在之前的文章中给出的结论是:

线程池里面的任务执行完成了,核心线程就一定会释放出来等着接受下一波循环的任务,但是不会立马释放出来。从释放到就绪之间,有一个时间差的存在,导致线程池核心线程数不够用,从而导致触发拒绝策略。

老实说,这个结论从纯理论的角度来说,是真的有可能的。所以我才写了一篇文章去论证它。

而且我还通过重写线程池的 afterExecute 方法,延长了“核心线程收尾的时间”来确保问题复现。

也确实复现了。

但是很遗憾,这个结论在这个案例中是错误的。

之前的文章说了:

“线程池两个工作”和“主线程继续往线程池里面扔任务的动作”之间,没有先后逻辑控制。

我的验证方式是通过延长了“核心线程收尾的时间”来确保问题复现。

但是这里有两个条件,所以其实还有一个验证方式:让“主线程继续往线程池里面扔任务的动作”足够的慢,让线程池有足够的事件去收尾,这样问题就一定不会出现。

然而我忽略了这个验证方式,一心只是想着复现问题。

所以,当读者给我这样的一个代码片段的时候,我直接就是一整个愣住了:

他在主线程中睡了 2s,目的是为了让“主线程继续往线程池里面扔任务的动作”足够的慢:

如果按照我之前的推测,那么线程池是完全足够时间让线程就绪的。

我自己也进行了验证,而且我甚至把时间拉长到 10s,这样也确实是会触发拒绝策略:

看到这个运行结果的时候,我本能上是抗拒的,因为这一行代码的加入,运行结果和我预测的完全相反,相当于直接推翻了我前面的结论。

但是歪师傅写文章这么多年了,还是见过一些大场面的。

于是迅速开始思考原因。

最开始我怀疑这里面的 sleep 动作有问题,于是我直接改成了这样,相当于模拟线程空跑一趟,什么动作都没有做:

但是还是会抛出异常。

然后我又开始怀疑 CountDownLatch,于是我直接去掉了相关的代码,整个代码变成了这样:

public class MyTest {
    private static final ThreadPoolExecutor threadPoolExecutor =
            new ThreadPoolExecutor(64, 64,
                    0, TimeUnit.MINUTES,
                    new ArrayBlockingQueue<>(32));
    public static void main(String[] args) throws InterruptedException {
        for (int i = 0; i < 100; i++) {
            Thread.sleep(100);
            for (int j = 0; j < 34; j++) {
                threadPoolExecutor.execute(() -> {
                    int a = 0;
                });
            }
            System.out.println("===============>  详情任务 - 任务处理完成");
        }
        System.out.println("都执行完成了");
    }
}

这个代码可以说已经非常简单了,除了线程池之外,没有其他的任何干扰项了。

但是,你直接粘过去跑,你会发现,还是会抛出异常:

核心线程数64,队列长度 32,每次往线程池里面扔 34 个任务,对应的任务完全没有任何耗时操作。

这样居然会触发线程池的拒绝策略?

又想起了几年前写文章时由于 idea “bug”遇到的诡异问题,甚至怀疑起了是“质子作祟”。

不知道你看到这里的时候有没有看出什么破绽,或者说新的思路。

反正我对着这份代码盯了一整天,调试了无数次,线程池的问题是真的难以调试,而且是在线程数比较多,没有排查思路的情况下,所以基本上没有什么进展。


峰回路转

事情的转机出现在我实在没有思路,然后开始重新复盘整个问题的时候。

再次翻看和提出这个问题的读者的聊天记录,这句话引起了我的注意:

解决问题的办法就是提高队列的容量。

我也不知道为什么,反正也没有思路,逮着个方向就顺便看看吧。

于是我直接把队列的长度从 32 提升到了 320:

程序立马就正常了:

32 不行,320 就行。

那么会不会存在一个临界值 x,当队列的长度小于 x 的时候,就会出问题,大于等于 x 的时候就一切正常呢?

按照这个思路,我用二分法,很快就定位到了这个 x= 34。

等于 34 啊,朋友,当时我都快兴奋的跳起来了。

34 和我们 for 循环一次往线程池里面扔的任务数是一样的,这里面一定是有内在联系的,虽然我现在还不知道是什么,但是至少也有一条线索了。

然后我又在队列的长度为 33 和 34 之间反复运行了很多次,确认在我的机器上运行, 33 的时候问题会必现,34 的时候程序就能正常完成。

基于这个现象,我得出了一个结论:队列长度小于 for 循环中一次放进来的任务数的时候,就会触发这个现象。

于是我一步步的多次调整参数,最终把参数修改为了这样:

线程池核心线程数还是 64,但是把队列长度修改为一,for 循环一次放两个任务进来。目的是最小程度的减少干扰项,然后神奇的事情就出现。

我现在把这个线程池定义单独拎出来:

来,你说,站在你的认知里面,隔 100ms 往这个线程池中扔两个任务进来。

会触发线程池的拒绝策略吗?

至少在我的认知里面是不可能的。

但是,它真的触发了:

而当我把核心线程数设置为 63,最大线程数保持为 64。或者核心线程数保持为 64,最大线程数修改为 65 时,其他代码都不动,程序均能正常运行。

匪夷所思,太匪夷所思了。

看到这个现象的时候,我直接开始怀疑是 JDK 的 BUG,当核心线程数和最大线程数一致的时候可能会触发,于是我用各种姿势搜了一圈,然而并没有什么收获。

同时我发现,当我保持核心线程数和最大线程数个数一致时,不管这个“个数”是 1 还是 100,都会触发拒绝策略。

虽然不知道原因,但是经过我对各种参数进行的调整,目前我有两个线索,只有当这两个线索同时满足的时候,就会触发拒绝策略:

  1. 队列长度小于 for 循环中一次放进来的任务数。
  2. 核心线程数和最大线程数个数一致。

虽然还是不知道具体的原因,但是我可以基于上面这两个线索,把参数的值取小一点,把 Demo 再简化一下,变成这样:

核心线程数等于最大线程数,都是 2,队列长度为 1,按理说这个队列最大可以容纳 3 个任务运行,但是一次性扔 2 个任务进去,会触发拒绝策略。

为什么?

我不知道,但是现在我有一个问题必现的 Demo,而且线程池里面的线程并不多,调试起来会轻松很多。


调试一波

首先我还是怀疑线程池里面的线程在下一次任务到来之前,没有进入到就绪状态。

也就是对应到 getTask 的这个部分:

java.util.concurrent.ThreadPoolExecutor#getTask

如果线程能运行到标号为 ③ 的地方,那么说明一定是就绪了,可以从队列中获取任务。

标号为 ① 的地方又是一个死循环的写法。会不会是在标号为 ② 的这一坨代码里面,有什么问题呢?

怎么验证呢?多线程场景下用 debug 还是很难定位到问题的。

我们可以用一种古老但有效的方法来进行验证:打足够多的日志。

只要我在标号为 ② 的地方,加入足够多的日志,就能帮助我分析代码到底是怎么运行的。

那么问题就来了:这个是 JDK 的源码,我怎么去加日志呢?

在我之前的这篇文章中提到过:
《这篇文章关于一个源码调试方法,短小精悍,简单粗暴,但足够好用。》

把源码拷贝一份出来,原模原样的放一份到自己的项目中即可。

就像是这样:

为了区分,我把类粘过来之后,仅仅是修改了一个名字。但是你会发现有些报错的地方.

比如这里有个类型不匹配:

一看,是执行拒绝策略的方法。

不影响我们主要流程,直接参考默认的拒绝策略,抛出异常就行了:

然后就是这些拒绝策略也在报错,直接全部删除就完事了:

最后,你把程序里面的线程池换成你自己的,搞定:

现在,你就可以在 MyThreadPoolExecutor 随便加代码了:

通过控制台可以看到这个地方并没有在循环中多次循环,两个线程直接都运行到了“开始从队列中获取任务”的地方:

也就是都运行到了这个方法:

java.util.concurrent.ArrayBlockingQueue#take

这个方法很关键,指出我前一篇文章有问题的读者,也提到了这个方法:

我也想在这个 take 方法里面加点日志观察一下,同理我也把代码原模原样的粘一份出来,作为我的 MyArrayBlockingQueue,并替换线程池里面的队列:

因为可以确定线程是直接运行到 take 方法了,所以为了减少日志输出干扰,之前加的输出语句全部清除。

然后在 take 里面加这样的输出语句:

take 是消费者,对应的生产者在这个地方:

com.example.tomcatdemo.MyThreadPoolExecutor#execute

同理,我们在生产者这里加几行输出:

最终程序运行起来可以看到这样的日志输出:

线程池里面两个线程在等着队列里面来任务。

然后主线程在往队列里面提交任务。

相当于两个消费者,一个生产者。生产者生产一个,消费者立马就消费了。

这样就不会有任何毛病。

但是,还能看到这样的日志输出:

虽然两个消费者都就绪了,但是主线程往队列里面放了任务之后,任务并没有被及时消费,导致主线程放下一个任务的时候,队列满了。

对于线程池来说,队列满了意味着需要使用最大线程数了。

而在我们的案例里面,最大线程数等于核心线程数。所以没有线程拿来新增了,addWorker(command, false) 方法就会返回 false,所以触发了拒绝策略:

好,现在我再拿着 Demo 给你捋一下啊:

首先线程池的运行逻辑是:先启用核心线程,然后任务进队列,如果队列满了,再启用最大线程数。最大线程数也满了,就触发拒绝策略。

所以,当外层的第一次 for 循环的时候,提交的两个任务会直接启用最大线程数,和队列没有任何关系。

第二次 for 循环开始之后,提交的任务是先进队列,然后线程从队列里面取数据消费。

如果队列的长度只有 1,但是 for 循环一次要提交两个任务的时候,能否放成功,取决于核心线程从队列中拿(take)任务的动作,和主线程往队列里面放(offer)任务的动作,这两个动作之间的先后顺序。

如果核心线程先从队列中拿到任务,那么队列又有空间了,主线程可以继续往队列里面放任务,程序一切正常。

如果主线程往队列里面放任务的动作很快,放完第一个后,还没被消费,立马就开始放第二个,那么队列满了,即使我们知道,核心线程其实是在空闲状态,但是按照线程池的逻辑,会去开启最大线程数,发现最大线程数也没有了,所以触发了拒绝策略。

这个时候,你再回去看我们的“两个线索”的时候,你就明白过来是怎么回事了:

  1. 队列长度小于 for 循环中一次放进来的任务数。
  2. 核心线程数和最大线程数个数一致。

背后的逻辑,就这么简单,可以说是一点就透。

你看到这里,可能只花了五分钟时间。

但是当我定位到这个原因的时候,距离读者提出问题,已经过去了差不多三天时间,这期间,我走了很多弯路。

你看到的,是众多弯路中,唯一正确的一条路线。

而这一切的原因都在于我先入为主的认为,核心线程数大于提交的任务数,所以任务一定能找到对应的线程来进行处理,疏忽了任务是要先进队列的。


验证一波

我们还是简单验证一把。

在我们的场景下,队列长度为 1,每次放两个任务进来。

既然现在的核心问题在于 offer 和 take 这两个动作的先后顺序上。

如果核心线程的 take 动作,先于主线程第二次 offer 的动作,那么队列有空间,就不会触发拒绝策略。

为了验证这一点,我们需要在 offer 里面加点睡眠时间,拖慢它的处理速度:

也就是这样,在 offer 方法里面,往队列里面放任务的时候,睡一下:

按照我们前面的推理,这样理论上可以达到主线程 offer 一个进去,核心线程就 take 一个出去的效果,程序一定就会正常运行结束。

对不对?

对个头,不对啊!

你运行起来还是会抛出异常:

为什么,是我们又分析错了吗?

分析没错,只是临门一脚的时候,睡的地方不对。

你来看看这是一个什么宝贝:

offer 和 take 方法都要拿到锁之后才能进行入队、出队的动作。

所以睡一秒的动作,应该发在释放锁之后,否则主线程抱着着锁睡,核心线程只有干着急了:

这样,程序一定能正常运行结束。

同时,吸取了前一篇文章的教训,另外一个方向我也需要验证一下:

在 take 释放锁之后也睡一秒,模拟 take 操作慢,offer 塞满队列的情况。

这个情况,按照我们前面的分析,一定就会抛出异常:

至此,问题得到解决。

通过这次问题排除,也让我对于线程池参数的设置有了新的认知。

尽量不要把线程池的核心线程数和最大线程数设置的一样,把阻塞队列的长度设置得大一些,至少保证阻塞队列本身的长度大于一次提交进来的任务数,而不要做出线程数加上队列长度才勉强容纳单批次任务数,这么极端的长度参数。

另外,我也突然想到了线程池的 newFixedThreadPool 方法,不就是核心线程数等于最大线程数吗,它怎么没有问题呢?

看一下源码:

人家的队列用的是无参的 LinkedBlockingQueue,队列长度是 Integer.MAX_VALUE,当然不会有问题了。

另外,线程池里面还有这样的一个方法 newCachedThreadPool:

把核心线程数设置为 0,最大线程数放的无线大,超过 60s 空闲则回收线程,通过这个方式防止线程膨胀。

但是我的关注点其实在于它的队列,用的是 SynchronousQueue。

这个队列很有意思,它的工作过程是放一个进去之后,必须要拿走,才能放下一个。你可以理解它是一个通道,不存储任何元素,只是负责传递数据,它的队列长度是 0。

所以回到我们的场景中,如果我们的队列用的是它:

也不会触发到拒绝策略,程序也能正常运行结束。

现在我们知道的问题的原因,站在纯技术的角度,我们有非常多的方法来规避这个问题。但是具体怎么使用,还是得结合业务场景来看。


回顾

左边是最开始的代码,右边是最后定位问题的代码:

从左边到右边,我写了两篇文章,付出了很多的时间,经过了无数次的调试,一直在思维定时里面没有走出来,所以走了很多的弯路。

其实回顾整个问题的原因,一句话就能说清楚:

一次性提交的任务数量大于队列长度就有可能会触发。因为线程池核心线程都启动之后,任务提交都是先进队列。当你把最大线程数设置等于核心线程数时,根本就没有最大线程数可以用,所以会触发拒绝策略。当你把最大线程数设置大于核心线程数时,在最大线程数用完了的情况下,会触发拒绝策略。

但是,朋友,其实原因一点都不重要,当然定位到原因的时候我其实挺开心的。

我开心并不是因为找到了问题的原因,而是我觉得我在这个过程中付出的时间和无数次的调试,包括在这个过程中走过的所有弯路都是有意义的。

我写这篇文章是因为有读者读了我前一篇文章,发现有问题,告诉了我,让我有机会知道自己分析的有问题。

我写下这篇文章来记录找到问题的过程并分享出去,告诉大家我前一篇文章写的不对。

找问题的过程、方式和思考比最终的结论重要的多。这是一个相互学习,共同进步的过程,这比找到问题的原因,让我觉得更加有意义。

解决问题不厉害,因为当一个问题提出来的时候,它就已经被解决了。厉害的是带着怀疑的态度去看文章,结合自己的思考,然后提出问题。

带着质疑的眼光看代码,带着求真的态度去探索,与君共勉之。

好啦,本文的技术部分就到这里了。

下面这个环节叫做[荒腔走板],技术文章后面我偶尔会记录、分享点生活相关的事情,和技术毫无关系。我知道看起来很突兀,但是我喜欢,因为这是一个普通博主的生活气息。


荒腔走板

成都有个地方叫做崇州,崇州有个景点叫做街子古镇,街子古镇在山脚,山上 5km 远的地方有一个禅院,叫做严光禅院。

读大学的时候我骑自行车去过一次,印象比较深刻,因为盘山路,上山的路很陡,骑车很费劲,有些发卡弯,得站起来骑。

街子古镇人山人海,严光禅院香火不旺。

当年好不容易骑上去,就随便再佛祖面前许了个愿:希望 Max 同学能顺利考上研究生。

后来我给她说起这个事情的时候,她问:那你后来去还愿了没?

我说坡太陡了,难得骑,就没有再去过了。

这个周末和 Max 同学以练车的名义跑了一趟,许愿的人带着当年被许愿的人一起来一趟,就当是还愿了。

去的路上还特意拐到西财,吃了 Max 同学极力推荐的特色万州烤鱼,她说只是在读书的时候吃到过这个味道。

我当时不以为然,不就是万州烤鱼吗,到处都有啊?吃了第一口之后才发现,确实是只有在温江才能吃到的改良版的味道,好吃。

吃饱之后慢悠悠的往目的地开,山上温度还是很低的,山上的雪还没完全化掉。游客也非常得少,站在山路上停下,没有一点杂音,只能听到虫鸣鸟叫,还有雪化之后,从屋檐滴到水池里面的声音,唯一的不是大自然的声音,只有偶然冒出的一声僧人击钵的空灵而悠远的声音。

很多人都说买车之后生活半径会扩大无数倍,提升生活质量,当时我不以为意,现在看来,确实是至理名言。

久在樊笼里,复得返自然。

介绍

在开发现代应用程序时,数据验证是确保用户输入的正确性和应用程序数据完整性的关键方面。Spring Boot 提供了强大的数据验证机制,使开发者能够轻松地执行验证操作。本文将深入介绍 Spring Boot 中的 Validation,以及如何在应用程序中正确使用它。

为什么使用数据验证?

  • 1.
    用户输入的正确性
    :数据验证是确保用户输入的正确性的一种重要手段。通过验证用户输入的数据,可以防止无效或错误的数据进入应用程序,提高数据的质量。例如:系统中的备注字段数据库中对应的长度是256,如果用户输入的备注超过这个长度值,那么就会导致mysql报
    Data too long

    1. 数据完整性:
      数据完整性是指数据在存储和传输过程中的准确性和一致性。数据验证有助于确保数据满足特定的格式、长度、范围等要求,从而提高数据的完整性。
  1. 安全性:
    数据验证也是保障应用程序安全性的关键因素。通过验证用户输入,可以防范一些潜在的安全威胁,例如 SQL 注入、跨站脚本攻击等。

  2. 业务规则的执行:
    在应用程序中,通常存在一些业务规则,例如某个字段不能为空、日期范围必须在某个特定范围内等。通过数据验证,可以确保这些业务规则在应用程序中得到正确执行。

手动数据校验的痛点

日常开发中,有些写项目可能没有采用Spring Validator,采用的是在代码中手动校验数据。但是手动校验数据会带来代码冗余、错误处理的一致性以及业务规则的维护的一些痛点。

  • 代码冗余的手动校验逻辑,导致代码中大量的if-else
public ResponseEntity<String> registerUser(UserRegistrationRequest request) {
    if (request == null) {
        return ResponseEntity.badRequest().body("Request cannot be null");
    }

    if (StringUtils.isBlank(request.getUsername())) {
        return ResponseEntity.badRequest().body("Username cannot be blank");
    }

    if (StringUtils.length(request.getPassword()) < 6) {
        return ResponseEntity.badRequest().body("Password must be at least 6 characters long");
    }

    // 处理用户注册逻辑
    return ResponseEntity.ok("User registered successfully");
}

  • 缺乏统一的错误处理机制

  • 业务规则维护的困难
    随着业务规则的增加,手动编写的校验逻辑可能变得庞大且难以维护。修改和扩展校验规则可能需要修改多个地方,增加了维护成本。

  • 缺乏验证组的支持
    手动校验通常不支持验证组的概念,难以根据不同场景执行不同的验证规则。

  • 不易于集成前端验证
    手动校验不易与前端验证框架集成,导致前后端验证逻辑可能不一致。

通过引入 Spring Validator,我们能够有效解决这些痛点,提高代码的可读性、可维护性,并确保校验逻辑的一致性。

Spring Boot 中的 Validation 概述

因Springboot的
spring-boot-starter-web
默认内置了
Hibernate-Validator
(Spring boot 2.3以前版本),虽然
Hibernate-Validator
也能做到数据校验,但是考虑到
spring-boot-starter-validation
是一个抽象层,使得验证框架的具体实现变得可插拔。这意味着,除了
Hibernate Validator
,开发者可以选择其他符合 Bean Validation 规范的实现。所以我们可以手动引入
spring-boot-starter-validation
实现数据验证。

<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-validation</artifactId>
</dependency>

<dependency>  
	<groupId>org.springframework.boot</groupId>  
	<artifactId>spring-boot-starter-web</artifactId>  
</dependency>

spring-boot-starter-validation
不仅支持 JSR-303(Bean Validation 1.0)规范,还提供了对 JSR-380(Bean Validation 2.0)规范的全面支持。这使得开发者可以利用 Bean Validation 2.0 的新特性,更灵活地定义验证规则,包括对集合、嵌套对象的验证等。

通过在实体类的字段上使用标准的 Bean Validation 注解(如
@NotBlank

@Size

@Email
等),我们能够直观地定义数据的验证规则。这些验证规则会在应用程序的不同层次(如控制器层)生效,确保输入数据的正确性。

基本用法

Spring Boot Validation 提供了一系列注解,用于在实体类中定义验证规则。以下是一些常用的校验相关的注解及其功能以及用法:
1.
@NotNull

校验元素值不能为 null。如果元素为null,则验证失败。通常用于字段级别的验证。

@NotNull(message = "Name cannot be null")
private String name;

2.
@NotBlank

校验字符串元素值不能为 null 或空字符串。必须包含至少一个非空格字符(即执行trim()之后不为'')。如果元素为null或者‘‘,则验证失败。通常用于
String
类型的字段校验。

@NotBlank(message = "Username cannot be blank")
private String username;

3.
NotEmpty

校验集合元素或数组元素或者字符串是否非空。通常作用于集合字段或数组字段,此时需要集合或者数字的元素个数大于0。也可以作用于字符串,此时校验字符串不能为null或空串(可以是一个空格)。注意与
@NotBlank
的使用区别。

@NotEmpty(message = "List cannot be empty")
private List<String> items;

4.
@Length

校验字符串元素的长度。作用于字符串。
注:
Hibernate-Validator
中注解,等同于
spring-boot-starter-validation
中的
@Size

@Length(min = 5, max = 20, message = "Length must be between 5 and 20 characters")
private String username;

5.
@Size

校验集合元素个数或字符串的长度在指定范围内。在集合或字符串字段上添加
@Size
注解。

@Size(min = 1, max = 10, message = "Number of items must be between 1 and 10")
private List<String> items;

@Size(min = 5, max = 20, message = "Length must be between 5 and 20 characters")
private String username;

6.
@Min

校验数字元素的最小值。

@Min(value = 18, message = "Age must be at least 18")
private int age;

7.
@Max

校验数字元素的最大值。

@Max(value = 100, message = "Age must not exceed 100")
private int age;

9.
@DecimalMax

作用于
BigDecimal
类型字段, 校验字段的最大值,支持比较的值为字符串表示的十进制数。通常搭配它的
inclusive()
使用,区别边界问题。
value
属性表示最大值,inclusive 属性表示是否包含最大值。

@DecimalMax(value = "100.00", inclusive = true, message = "Value must be less than or equal to 100.00")
private BigDecimal amount;

10.
@DecimalMin

作用于
BigDecimal
类型字段, 校验字段的最小值,支持比较的值为字符串表示的十进制数。通常搭配它的
inclusive()
使用,区别边界问题。
value
属性表示最小值,inclusive 属性表示是否包含最小值。

@DecimalMin(value = "0.00", inclusive = false, message = "Value must be greater than 0.00")
private BigDecimal amount;

11.
@Email

校验字符串元素是否为有效的电子邮件地址。可以通过
regexp
自定义邮箱匹配正则。

@Email(message = "Invalid email address")
private String email;

12.
@Pattern

根据正则表达式校验字符串元素的格式。

@Pattern(regexp = "[a-zA-Z0-9]+", message = "Only alphanumeric characters are allowed")
private String username;

13.
@Digits

校验数字元素的整数部分和小数部分的位数。作用于
BigDecimal

BigInteger
,字符串,以及
byte
,
short
,
int
,
long
以及它们的包装类型。

@Digits(integer = 5, fraction = 2, message = "Number must have up to 5 integer digits and 2 fraction digits")
private BigDecimal amount;

14.
@Past

校验日期或时间元素是否在当前时间之前。即是否是过去时间。作用于Date相关类型的字段。

@Past(message = "Date must be in the past")
private LocalDate startDate;

15.
@Future

校验日期或时间元素是否在当前时间之后。即是否是未来时间。作用于Date相关类型的字段。

@Future(message = "Date must be in the future")
private LocalDate endDate;

注:以上只罗列部分注解以及它们的功能,其余他们的字段属性并没有详细说明,其他注解以及详细的说明需要去看源码。

用法示例

1.定义接口入参请求参数
/**  
* @version 1.0  
* @description: <p></p >  
* @author: 码农Academy  
* @create: 2024/1/8 16:46  
*/  
@Data  
public class UserCreateRequestVO {  
  
	@NotBlank(message = "请输入用户名")  
	@Size(max = 128, message = "用户名长度最大为128个字符")  
	private String userName;  
	  
	@Email(message = "请填写正确的邮箱地址")  
	private String email;  
	  
	@Min(value = 18, message = "用户年龄必须大于18岁")  
	@Max(value = 60, message = "用户年龄必须小于60岁")  
	private Integer age;  
	  
	@NotEmpty(message = "请输入你的兴趣爱好")  
	@Size(max = 5, message = "兴趣爱好最多可以输入5个")  
	private List<String> hobbies;  
	  
	@DecimalMin(value = "50", inclusive = false, message = "体重必须大于50KG")  
	private BigDecimal weight;  

	@Validated
	@NotNull(message = "请输入地址信息")  
	private UserAddressRequestVO address;  
}
2.定义请求接口
@RestController  
@RequestMapping("user")  
@Validated  
@Slf4j  
public class UserController {  
  
	/**  
	* 创建用户  
	* @param requestVO  
	* @return  
	*/  
	@PostMapping("create")  
	public ResultResponse<Void> createUser(@Validated @RequestBody UserCreateRequestVO requestVO){  
	return ResultResponse.success(null);  
	}  

	/**  
	* 校验用户邮箱是否合法  
	* @param email  
	* @return  
	*/  
	@GetMapping("email")  
	public ResultResponse<Void> validUserEmail(@Email(message = "邮箱格式不正确") String email){  
	return ResultResponse.success(null);  
	}
}
3.测试
  • 创建用户校验,Json请求体校验
    image.png

我们需要捕获一下
MethodArgumentNotValidException
。该部分内容请参考文章:
SpringBoot统一异常处理

  • 校验邮箱,单参数校验
    image.png

注:单参数校验时我们需要,在方法的类上加上
@Validated
注解,否则校验不生效。

嵌套对象的校验


UserCreateRequestVO
中增加一个
address
的校验,即需要对嵌套对象进行校验

/**  
* @version 1.0  
* @description: <p></p >  
* @author: 码农Academy  
* @create: 2024/1/8 19:45  
*/  
@Data  
public class UserAddressRequestVO {  
	@Size(max = 16, message = "地址信息中国家长度不能超过16个字符")  
	@NotBlank(message = "地址信息国家不能为空")  
	private String country;  
	  
	private String city;  
	  
	@Size(max = 128, message = "详细地址长度不能超过128个字符")  
	private String address1;  
}


UserAddressRequestVO
中增加
address
属性

@Data  
public class UserCreateRequestVO {
	@NotNull(message = "请输入地址信息")  
	private UserAddressRequestVO address;
}

解决办法,要在嵌套对象上使用 @Valid 注解

@Data  
public class UserCreateRequestVO {

	@NotNull(message = "请输入地址信息")  
	@Valid  
	private UserAddressRequestVO address;
}

image.png

试了一些其他的方式,好像都不行,有知道其他方式的,欢迎评论区留言探讨

自定义验证注解

在项目开发中,我们也可以自定义注解去完成我们的字段校验,比如某些枚举值的传递,需要校验枚举值是否合法。在创建自定义注解之前,我们需要了解一下
ConstraintValidator
以及实现自定义验证注解的原理

1.ConstraintValidator 接口

ConstraintValidator
是 Java Bean Validation (JSR 380) 规范中用于自定义验证逻辑的接口。它允许你定义针对特定自定义注解的验证规则。它是一个泛型接口,需要提供两个类型参数:

  • A
    :是你的自定义注解的类型。
  • T
    :是被验证的元素类型,通常是字段类型。
public interface ConstraintValidator<A extends Annotation, T> {

    void initialize(A constraintAnnotation);

    boolean isValid(T value, ConstraintValidatorContext context);
}

其中:

  • initialize
    方法:在验证器初始化时被调用,可以用于获取约束注解中的配置信息。
  • isValid
    方法:执行实际的验证逻辑,返回
    true
    表示验证通过,
    false
    表示验证失败。

以下为枚举校验注解的校验规则实现

/**  
* @version 1.0  
* <p> </p>  
* @author: 码农Academy  
* @create: 2024/01/09 3:11 下午  
*/  
public class EnumValidator implements ConstraintValidator<EnumValid, Object> {  
  
	private Class clazz;  
	  
	private String validField;  
	  
	@Override  
	public void initialize(EnumValid constraintAnnotation) {  
		clazz = constraintAnnotation.enumClass();  
		validField = constraintAnnotation.field();  
	}  
	  
	@SneakyThrows  
	@Override  
		public boolean isValid(Object object, ConstraintValidatorContext constraintValidatorContext) {  
		if (object == null || "".equals(object)){  
			return true;  
		}  
		  
		if (!clazz.isEnum()){  
			return false;  
		}  
		  
		Class<Enum> enumClass = (Class<Enum>)clazz;  
		//获取所有枚举实例  
		Enum[] enumConstants = enumClass.getEnumConstants();  
		  
		// 需要比对的字段  
		Field field = enumClass.getDeclaredField(validField);  
		field.setAccessible(true);  
		  
		for(Enum constant : enumConstants){  
			// 取值final修饰  
			Object validValue = field.get(constant);  
			if (validValue == null){  
				Method method = enumClass.getMethod(validField);  
				validValue = method.invoke(constant);  
			}  
			  
			if(validValue instanceof Number) {  
				validValue = ((Number)validValue).intValue();  
				object = ((Number) object).intValue();  
			}  
			if (Objects.equals(validValue,object)){  
				return true;  
			}  
		}  
		return false;  
	}  
}

2.创建自定义注解

在 Java Bean Validation 中,约束注解(Constraint Annotation)是通过元注解
@Constraint
来定义的。这个注解包含了以下关键元素:

  • validatedBy
    : 指定用于执行验证的
    ConstraintValidator
    实现类。

以校验枚举值的合法行为例,我们创建一个
EnumValid
约束注解

@Constraint(validatedBy = {EnumValidator.class})  
@Target({ METHOD, FIELD, ANNOTATION_TYPE, CONSTRUCTOR, PARAMETER })  
@Retention(RUNTIME)  
public @interface EnumValid {  
	  
	/**  
	* 不合法时 抛出异常信息  
	*/  
	String message() default "值不合法";  
	  
	/**  
	* 校验的枚举类  
	* @return  
	*/  
	Class enumClass() default Enum.class;  
	  
	/**  
	* 对应枚举类中需要比对的字段  
	* @return  
	*/  
	String field() default "code";  
	  
	Class<?>[] groups() default { };  
	  
	Class<? extends Payload>[] payload() default { };  
}

3.注册 ConstraintValidator

在大多数情况下,不需要手动注册
ConstraintValidator
。当你使用
@Constraint(validatedBy = EnumValidator.class)
注解时,Java Bean Validation 的实现框架会自动发现并注册相应的验证器。但在一些特殊情况下,你可能需要将验证器注册为 Spring 组件或手动配置。比如

  • 需要使用 Spring 管理的组件:
    如果你的验证器需要依赖于 Spring 管理的组件(例如,使用
    @Autowired
    注解注入其他 bean),那么你可能需要将验证器注册为 Spring bean。这确保了验证器能够正确地使用 Spring 的依赖注入机制。

  • 需要通过属性文件进行配置:
    如果你的验证器需要配置属性,而这些属性需要从 Spring 的
    application.properties

    application.yml
    文件中获取,那么将验证器注册为 Spring bean 可以更容易地实现这一点。

  • 需要在验证器中使用 Spring AOP:
    如果你希望在验证逻辑中使用 Spring AOP 切面,以便添加额外的逻辑或跟踪行为,那么将验证器注册为 Spring bean 可以让你更容易集成这些方面。
    这种方式可以运用到一些业务校验中,比如账户注册时用户名称不能重复。定义一个校验用户唯一的注解
    @UniqueUser

@Constraint(validatedBy = {UniqueUserValidator.class})  
@Target({ METHOD, FIELD, ANNOTATION_TYPE, CONSTRUCTOR, PARAMETER })  
@Retention(RUNTIME)  
public @interface UniqueUser {  
	  
	/**  
	* 不合法时 抛出异常信息  
	*/  
	String message() default "值不合法";  
	  
	Class<?>[] groups() default { };  
	  
	Class<? extends Payload>[] payload() default { };  
}

然后定义一个业务的
Validator

@Slf4j  
@Component  
public class UniqueUserValidator implements ConstraintValidator<UniqueUser, UserCreateRequestVO> {  
  
	private UserRepository userRepository;  
	  
	@Override  
	public boolean isValid(UserCreateRequestVO value, ConstraintValidatorContext context) {  
		final String userName = value.getUserName();  
		final UserDO userDO = userRepository.selectUserByName(userName);  
		final String userId = value.getUserId();  
		if (StringUtils.isBlank(userId)){  
			return userDO == null;  
		}  
	  
		return userDO == null || Objects.equals(userDO.getUserId(), userId);  
	}  
	  
	@Autowired  
	public void setUserRepository(UserRepository userRepository) {  
		this.userRepository = userRepository;  
	}  
}

在创建用户的接口中使用
@UniqueUser

@RestController  
@RequestMapping("user")  
@Validated  
@Slf4j  
public class UserController {  
  
	/**  
	* 创建用户  
	* @param requestVO  
	* @return  
	*/  
	@PostMapping("create")  
	public ResultResponse<Void> createUser(@Validated @UniqueUser(message = "用户名称已存在") @RequestBody UserCreateRequestVO requestVO){  
			return ResultResponse.success(null);  
		}
}

模拟当用户名存在时,校验不通过

image.png

此时会抛出
javax.validation.ConstraintViolationException
。异常统一处理请参考:
SpringBoot统一异常处理

4.自定义校验注解使用

我们创建一个性别的枚举类:

/**  
* @version 1.0  
* @description: <p></p >  
* @author: 码农Academy  
* @create: 2024/1/9 16:07  
*/  
@AllArgsConstructor  
public enum SexEnum {  
  
	MAN(1, "男"),  
	WOMAN(2,"女");  
	  
	public final Integer code;  
	  
	public final String desc;  
  
}

然后我们在入参中增加
sex
字段,并使用
@EmunValid
注解

@Data  
public class UserCreateRequestVO {  
  
	@NotBlank(message = "请输入用户名")  
	@Size(max = 128, message = "用户名长度最大为128个字符")  
	private String userName;  
	  
	@Email(message = "请填写正确的邮箱地址")  
	private String email;  
	  
	@Min(value = 18, message = "用户年龄必须大于18岁")  
	@Max(value = 60, message = "用户年龄必须小于60岁")  
	private Integer age;  
	  
	@NotNull(message = "请输入性别")  
	@EnumValid(enumClass = SexEnum.class, message = "输入性别不合法")  
	private Integer sex;  
	  
	@NotEmpty(message = "请输入你的兴趣爱好")  
	@Size(max = 5, message = "兴趣爱好最多可以输入5个")  
	private List<String> hobbies;  
	  
	@DecimalMin(value = "50", inclusive = false, message = "体重必须大于50KG")  
	private BigDecimal weight;  
}

测试结果如下:

image.png

分组验证

在一个应用中,同一个实体类可能会被用于不同的场景,比如用户创建、用户更新、用户删除等。每个场景对于字段的要求可能不同,有些字段在某个场景下需要验证,而在另一个场景下不需要。不同的业务操作可能对同一实体的验证有不同的需求。例如,在用户创建时可能强调用户名和密码的合法性,而在用户更新时可能更关心其他信息的完整性。

开发中我们针对这种情况,在不知道分组校验的知识时,通常采取的都是对应不同的场景或者业务创建不同的入参实体,比如创建用户
UserCreateRequestVO
,更新用户
UserUpdateRequestVO
,删除用户
UserDeleteRuquestVO
,在不同的实体中根据业务场景设置不同的校验规则。这样做虽然也可以,但是会造成类的膨胀,业务的重复实现。

而实际上用分组校验可以让你根据场景以及业务的差异性,有选择地执行特定组的验证规则。

1.定义验证分组接口

我们定义两个分组接口
CreateUserGroup
(用户创建组),
UpdateUserGroup
(用户更新组),分别继承
javax.validation.groups.Default
,标识不同的业务场景。

public interface CreateUserGroup extends Default {  
}

public interface UpdateUserGroup extends Default {  
}

2.分组校验的使用

在 Bean Validation 中,分组校验是通过在验证注解上指定
groups
属性来实现的。这个属性允许你为验证规则分配一个或多个验证组。我们设定用户创建时不传递用户ID,其余的参数必传,用户更新接口必须传递用户ID,可以不传递用户名,其他参数必须传递。

@Data  
public class UserCreateRequestVO {  
  
	@NotBlank(message = "请选择用户", groups = UpdateUserGroup.class)  
	private String userId;  
	  
	@NotBlank(message = "请输入用户名", groups = CreateUserGroup.class)  
	@Size(max = 128, message = "用户名长度最大为128个字符")  
	private String userName;  
	  
	@Email(message = "请填写正确的邮箱地址")  
	private String email;  
	  
	@Min(value = 18, message = "用户年龄必须大于18岁")  
	@Max(value = 60, message = "用户年龄必须小于60岁")  
	private Integer age;  
	  
	@NotNull(message = "请输入性别")  
	@EnumValid(enumClass = SexEnum.class, message = "输入性别不合法")  
	private Integer sex;  
	  
	@NotEmpty(message = "请输入你的兴趣爱好")  
	@Size(max = 5, message = "兴趣爱好最多可以输入5个")  
	private List<String> hobbies;  
	  
	@DecimalMin(value = "50", inclusive = false, message = "体重必须大于50KG")  
	private BigDecimal weight;  
}

指定了分组的校验规则,分别在对应的分组校验中生效,没有指定分组使用默认分组
Default
,即对所有的校验都生效。

3.在接口中使用分组

使用
@Validated
注解,并指定要执行的验证组。

@RestController  
@RequestMapping("user")  
@Validated  
@Slf4j  
public class UserController {  
  
	/**  
	* 创建用户  
	* @param requestVO  
	* @return  
	*/  
	@PostMapping("create")  
	public ResultResponse<Void> createUser(@Validated(value = CreateUserGroup.class) @RequestBody UserCreateRequestVO requestVO){  
		return ResultResponse.success(null);  
	}  
	  
	/**  
	* 更新用户  
	* @param requestVO  
	* @return  
	*/  
	@PostMapping("update")  
	public ResultResponse<Void> updateUser(@Validated(value = UpdateUserGroup.class) @RequestBody UserCreateRequestVO requestVO){  
		return ResultResponse.success(null);  
	}
}

我们指定create接口指定CreateUserGroup分组,update接口指定UpdateUserGroup

测试接口如下:

  • 创建用户
    create
    接口
    因为
    userId
    可以不传递,接口可以校验通过
    image.png

  • 更新用户
    update
    接口
    因为必须传递
    userId
    , 我们不传时校验不通过,提示选择用户
    image.png

传递
userId
,不传递
userName
时,校验通过
image.png

处理验证错误

由上述测试结果中,可以看出接口抛出的一场结果并不是很友好,我们需要统一的处理一下异常以及返回结果,给予用户友好提示。具体实现,在这里不再赘述,可以移步:
SpringBoot统一异常处理

总结

Spring Boot Validation通过简化验证流程、集成Bean Validation规范、支持分组验证以及提供友好的错误处理,为Java应用开发者提供了强大而灵活的数据验证机制。最佳实践包括在控制器层使用
@Validated
注解、合理利用各种验证注解、使用自定义验证注解解决特定业务需求,确保代码清晰简洁、符合规范,并提高系统的可维护性和用户体验。

本文已收录于我的个人博客:
码农Academy,专注分享Java技术干货,包括Java基础、Spring Boot、Spring Cloud、Mysql、Redis、Elasticsearch、中间件、架构设计、面试题、程序员攻略等

今天我们要介绍的是Python的内置库——小海龟(turtle),它是一个非常实用的绘画工具,不仅可以帮助我们绘制图形,还能让我们查看整个绘画过程。即使对绘画一窍不通的人也能够使用它来创作出生动、形象的gif动图。现在正是龙年即将到来,距离过年也只有几天的时间了。因此,我今天的主要目的就是使用小海龟这个工具,画一副我心目中的拜年gif,提前向大家拜个早年!

turtle

我也可以简单地介绍一下turtle这个工具库。简而言之,turtle允许我们通过控制一个小海龟来绘制图形。这只海龟的起点坐标为(0,0),根据我们的指令,它可以按照我们给出的方向进行移动,并在移动过程中留下轨迹。最后,海龟会将轨迹显示出来,从而形成我们想要的图形。坐标的显示方式是按照严格的四象限来划分的。

image

当然,你有能力通过调整小海龟的速度来控制绘画的速度。默认情况下,小海龟的速度设置为最快的0,最慢的是1。你可以通过增加速度设置的数值来加快绘画的速度,数值越接近10,绘画速度就会越快。当速度设置超过10时,小海龟将会以0的速度进行绘画。

另外,值得一提的是,使用这个小海龟工具时,你可以随时将它重置到初始位置。此外,你还可以自由控制小海龟是否与绘图区域接触。换句话说,如果你不希望小海龟留下路径,可以将它抬起,就像我们使用中性笔时抬起笔尖一样。除此之外,其他方面没有什么特别需要强调的了。

确实,使用这个小海龟工具进行绘图确实需要花费一些精力。你需要逐步修改坐标、选择颜色、改变方向等等。这整个过程的难度甚至比前端开发还要高。。

首先,我认为每逢过年,福字是必不可少的元素。因此,在我的绘图中,福字是一个至关重要的元素,所以我首先会画一个福字,然后再进行其他绘图内容。

相关api

turtle.bgcolor
:设置背景颜色。主要是先练习,你自己选择一个好看的颜色就行。

turtle.color
:同时设置画笔和填充颜色

turtle.speed
:控制小海龟的速度

turtle.penup
:抬笔的动作,这样的话,你再怎么动小海龟也不会有轨迹出现

turtle.pendown
:放笔的动作,再动就要出现轨迹了

turtle.home
:直接回到原点

turtle.forward
:让小海龟换方向

turtle.write
:简单的开始写字,当然了,如果你不用这个api的话,按照你的提示轨迹,可以一笔一划的写出来一个字,这个api不会一笔一划,就是简单的把你想要的字放上去而已。

done
:全部完成。不写这个api的话,做完图后,整个窗口会自动关闭。

让我们先来欣赏一下我所创作的效果图吧。

image

我很乐意与大家分享我所创作的效果图,并附上源码,供大家参考和学习。请看下方源码:

import turtle              # 导入turtle库(模块)
turtle.bgcolor("#ffffff")  # 设置背景颜色为
turtle.speed(7)
# turtle.speed(10)        # 可减慢画正方形和写字的速度

### ②画灰色阴影
turtle.color("#404040")   # 同时设置画笔和填充颜色都为#404040,一种深灰色。
a=100                     # 正方形内等腰直角三角形的直角边为a
b=2**0.5*a                # 斜边为b ,等腰直角三角形的斜边=√2倍的直角边

turtle.penup()
turtle.goto(-210,180)             # 步骤1光束画完后,让海龟返回原点,即海龟移动至坐标(0,0),并设置朝向为初始方向(向右)。
turtle.forward(a)
turtle.pendown()

turtle.begin_fill()
turtle.left(135)
turtle.forward(b)
turtle.left(90)
turtle.forward(b)
turtle.left(90)
turtle.forward(b)
turtle.left(90)
turtle.forward(b)
turtle.end_fill()

### ③ 画正方形红纸
turtle.color("#ea182a")   # 同时设置画笔和填充颜色都为#ea182a,一种红色。
a=100
b=2**0.5*a

turtle.penup()
turtle.home()     # 第2步灰色阴影画完后,让海龟返回原点,即海龟移动至坐标(0,0),并设置朝向为初始方向(向右)。
turtle.goto(-205,180)
turtle.forward(a)
turtle.pendown()

turtle.begin_fill()
turtle.left(135)
turtle.forward(b)
turtle.left(90)
turtle.forward(b)
turtle.left(90)
turtle.forward(b)
turtle.left(90)
turtle.forward(b)
turtle.end_fill()

### ④ 写文字“福”
turtle.color("black")
turtle.penup()
turtle.goto(-210,175)            # 让海龟返回原点
turtle.setheading(-90)   # 让海龟头部朝下
turtle.forward(50)      # 让海龟向下移动150个像素。这个数字需要不断调试。
turtle.pendown()
turtle.write("福", align="center",font=("黑体",90,"bold"))

### 海龟绘图结束,隐藏海龟
turtle.hideturtle()
turtle.done()

赋诗一首

在这个喜庆的新年时刻,作为作者我承认自己的语文水平有限,并不擅长写春联。不过,我想简单地为大家奉上一首诗作《元日》,以表达我的祝福。希望大家喜欢,祝愿大家新年快乐!

涉及api

turtle.pensize
:就是我们要使用多大号的笔。越大线条越粗。

turtle.shape
:显示一下小海龟的形状

turtle.hideturtle
:隐藏小海龟的形状,因为作画的时候 ,默认时显示小海龟的,如果你不想看见他直接隐藏即可。

首先,让我们一起观看一下我所准备的效果图吧。在此我想强调一点,效果图中的小箭头是由于生成gif时产生的,实际效果并没有这些箭头存在。

image

同样源码附上,给大家一个参考:

# 海龟写古诗《元日》
### 程序初始化设置
import turtle
turtle.bgcolor("#b1352b")     # 设置背景颜色为#b1352b,一种红色。ffffff为白色
turtle.speed(0)               # 设置海龟绘图的速度,参数为0时最快
turtle.pensize(1)             # 设置画笔粗细,即竖线的粗线为1
turtle.pencolor("#f2ea99")    # 设置画笔颜色,即竖线和书法的颜色为#f2ea99,一种黄色。000000为黑色

fontname="黑体"                # 字体名称
fontsize=35                   # 字体大小
column1="爆竹声中一岁除"        # column是列的英文单词
column2="春风送暖入屠苏"
column3="千门万户曈曈日"
column4="总把新桃换旧符"
column5="宋王安石元日"
column6="努力的小雨书"
colwidth=100                  # 设置列宽colwidth

### ① 画竖线
x=245                         # 确定第一条竖线顶端的横坐标
y=230                         # 确定第一条竖线顶端的纵坐标
for i in range(6):            # 循环6次,画6根竖线
    turtle.penup()            # 海龟抬笔,没有移动(绘画)痕迹
    turtle.goto(x,y)          # 海龟移动至坐标(x,y)
    turtle.pendown()          # 海龟落笔,移动(绘画)有痕迹
    turtle.setheading(-90)    # 让海龟的头部朝下
    turtle.forward(460)       # 让海龟前进460个像素,即竖线的长度是460像素
    x=x-colwidth              # 将横坐标重新赋值为原横坐标减去列宽colwidth

### ② 海龟写诗《元日》
turtle.speed(5)               # 重新设置海龟写字的速度
# 写第1列
x=200                         # 设置第1列文字第1个字的横坐标
y=160                         # 设置第1列文字第1个字的纵坐标
for i in range(7):            # 第1列共显示7个字,所以循环7次
    turtle.penup()            # 海龟抬笔,没有移动(绘画)痕迹
    turtle.goto(x,y)          # 海龟移动至坐标(x,y)
    turtle.pendown()          # 海龟落笔,移动(绘画)有痕迹
    turtle.write(column1[i], align="center",font=(fontname,fontsize,"normal"))
    y=y-60                    # 每个字间隔60个像素

# 写第2列
x=x-colwidth
y=160
for i in range(7):             # 第2列共显示7个字,所以循环7次
    turtle.penup()
    turtle.goto(x,y)
    turtle.pendown()
    turtle.write(column2[i], align="center",font=(fontname,fontsize))  #第3个参数省略时默认为"normal"
    y=y-60

# 写第3列
x=x-colwidth
y=160
for i in range(7):
    turtle.penup()
    turtle.goto(x,y)
    turtle.pendown()
    turtle.write(column3[i], align="center",font=(fontname,fontsize))
    y=y-60

# 写第4列
x=x-colwidth
y=160
for i in range(7):
    turtle.penup()
    turtle.goto(x,y)
    turtle.pendown()
    turtle.write(column4[i], align="center",font=(fontname,fontsize))
    y=y-60

### ③ 写落款
# 写第5列
x=x-80                       # 设置第5列第一个字的横坐标位置
y=100                        # 设置第5列第一个字的纵坐标位置
for i in range(6):           # 第5列共显示6个字,所以循环6次
    turtle.penup()
    turtle.goto(x,y)
    turtle.pendown()
    turtle.write(column5[i], align="center",font=(fontname,20,))
    y=y-30                   # 落款每个字的间隔是30。字小间隔也要小

# 写第6列
x=x-40
y=100
for i in range(6):           # 第6列共显示9个字,所以循环9次
    turtle.penup()
    turtle.goto(x,y)
    turtle.pendown()
    turtle.write(column6[i], align="center",font=(fontname,20))
    y=y-30

turtle.penup()
turtle.forward(10)
turtle.pendown()
turtle.setheading(0)         # 让海龟的头部朝右
turtle.color("#e1f4d6")      # 设置海龟显示的颜色
turtle.shape("classic")       # 设置海龟显示的形状

# 海龟写完水印文字后,返回原点
turtle.penup()    
turtle.home()              
turtle.pendown()
turtle.done()

烟花

在过年期间,若是不放烟花,咋都说不过去。然而,单独谈论烟花确实很难创作,因为它是一种行动,与福字和诗歌不同。烟花必须要有动势,也不能忽略烟花自身需要逐渐消失的特点。这其中存在着许多难题,因为一旦消失了,我之前写的诗句和文字都会消失,就白费功夫了。

一顿搜索下才查找到了回滚这么一个动作。但是回滚这个动作不能让人看见啊,一个烟花放完了总不能自己还能再缩回去啊,所以又继续查,发现了类似于快进这样一个功能,让你看不见中间的流程直接输出结果。

终于,我期盼已久的烟火终于来临。然而,我不愿让它自行燃放,我想亲自参与其中,为大家拜个早年。因此,我决定将烟花的燃放变得更有趣,设计成只有在点击鼠标后才能绽放。

设计api

turtle.tracer
:是否显示轨迹

turtle.getscreen()
:获取整个屏幕,因为我们要鼠标的点击事件。

turtle.undo()
:这个就是做回滚操作的,但是如果你不想看见动作,你需要和下一个api连用。

turtle.tracer
:这个方法里面有一个delay,可以在几毫秒中跳过多少个步骤。这个需要你计算。

src.onclick(follow)
:发送点击事件,注意这个follow函数自动传入两个参数也就是x,y两个坐标值。

让我们先来欣赏一下效果图吧。尽管它的外观可能不是非常出色,但总体而言,我对它还是比较满意的。

image

同样的源码附上,给大家一个参考:

import turtle
import time
import random
from turtle import *

colors = ['red', 'blue', 'yellow', 'white',
            'green', 'orange', 'purple', 'seagreen',
            'indigo', 'cornflowerblue']

turtle.tracer(False)
turtle.ht()
src = turtle.getscreen() 

def draw_firework(count, dis, ang):
    for c in range(count):
        forward(dis)
        left(ang)        
        
def follow(startx,starty):
    need_list = [] 
    ccol = random.choice(colors)
    dist = random.randint(50, 80)
    if dist <= 60:
        angle = 171
    else:
        angle = random.choice([174, 175, 176])
    add = (dist - 30) / 10
    count = int(360 / (180 - angle))
    need_list.append([startx, starty, ccol, dist, angle, add, count])
    draw(need_list)

def draw(lis):
    pensize(2)
    for t in range(5):
        for li in lis:
            x, y, col, dis, ang, add, count = li
            penup(), goto(x - t * add / 2, y), pendown()
            color('#b1352b', col)
            begin_fill()
            setheading(0)
            draw_firework(count, t * add + 30, ang)
            end_fill()
        update()
        time.sleep(0.015)
        print('tracer-',tracer())
        print('count-',count)
        turtle.tracer(count*2+8,1)
        for i in range(count*2+8):
            undo()
    turtle.ht() 
    pensize(5)
    for t in range(10):
        for li in lis:
            x, y, col, dis, ang, add, count = li
            count = int(count / 4)
            penup(), goto(x - add * 5 + 10, y), pendown()
            setheading(-90)
            stara = dis / 2 - 10
            penup(), left(90), backward(2 * t), right(90)
            for i in range(count):
                penup()
                pencolor(col)
                circle(stara + t * 2, 360 / count - 1)
                pendown()
                circle(stara + t * 2, 1)
        update()
        time.sleep(0.03)
        # clear()
        turtle.tracer(count*4,1)
        for i in range(count*4):
            undo()

turtle.ht()
src.onclick(follow)
turtle.done()

龙年快乐

所有的元素都已经完成,剩下的只需拼装在一起。我觉得这里的背景显得过于单一,所以我决定直接使用一张图作为背景。当然,如果你有时间,完全可以自己单独制作一张背景图。不多说了,祝福大家龙年快乐!愿你们的生活像龙一样充满力量和勇气,愿你们在新的一年里,追逐梦想,勇往直前,不断超越自我。愿你们的家庭幸福美满,团圆和谐。愿你们的事业蒸蒸日上,财源广进。愿你们的身体健康强壮,心灵充实。让我们一起庆祝龙年,共同创造美好的未来!

image

各位上午/下午/晚上好呀!

今天在写bug的时候发现一个这样的问题:

AOP抛出的异常竟然没有被@RestControllerAdvice注解修饰的异常统一处理类处理。

需求是这样子滴:对某些加了自定义注解的方法进行切面处理,通过条件判断是否有权限执行该方法。

伪代码大概长这个样子:

@Around("pointcut()")public Object aroundScheduledMethod(ProceedingJoinPoint joinPoint) throwsThrowable {if (!isAccess()) {throw newPException();
}
joinPoint.proceed();
}

其中,PException就是个Exception的子类,没什么特别的:

public class PException extendsException {
}

在@RestControllerAdvice的统一异常处理类中处理了这个异常:

@ExceptionHandler({PException.class})publicObject handleAuthFailedException(PException e, HttpServletResponse response) {
response.setStatus(HttpStatus.UNAUTHORIZED.value());
return "Permission denied";
}

到这里应该一切正常吧?讲道理@ExceptionHandler({PException.class})会处理AOP抛出的PException,并返回401

可是啪一跑,就不出意外的出意外了。

执行发现当权限不足时,也就是满足if条件时,主动抛出的异常并没有被@ExceptionHandler({PException.class})方法处理,而是返回了Internal Server Error。

Internal Server Error是哪里来的?别急,@RestControllerAdvice注解修饰的统一异常处理类中确实有这个,是用来捕获Exception类的,就是给整个Controller的异常处理兜底。代码如下:

@ExceptionHandler({Exception.class})publicObject handleException(Exception e, HttpServletResponse response) {
response.setStatus(HttpStatus.INTERNAL_SERVER_ERROR.value());
log.error(
"Internal Server Error", e);return "Internal Server Error";
}

虽然我觉得上面这个东西的出现并不合理:

这个异常兜底可能会导致部分由Spring框架本身处理的异常被屏蔽掉,比如当接口返回的HttpRequestMethodNotSupportedException异常,实际上的response code是由Spring来设置成405的。如果在@RestControllerAdvice中没有处理HttpRequestMethodNotSupportedException,就会由兜底返回Internal Server Error。

不过有的项目确实希望把所有的异常控制在一定的范围内,不对外暴露,比如像下面这样:

@ExceptionHandler({Exception.class})publicObject handleException(Exception e, HttpServletResponse response) {
response.setStatus(HttpStatus.BAD_REQUEST.value());
log.error(
"Internal Server Error", e);return "Bad Request";
}

日志中会完整的输出Exception信息,但是对外只会报错400 Bad Request来隐藏服务的异常。

扯远了,我们在这里不讨论兜底处理Exception的合理性,只讨论PException到底哪里去了,为什么没有被@ExceptionHandler({PException.class})方法处理,反而被@ExceptionHandler({Exception.class})方法处理了

问题分析:

首先看日志:

发现我们定义的PException信息确实打印出来了,不过抛出了一个UndeclaredThrowableException,嗯?这样异常哪里来的呢?跟我们定义的PException之间又是什么关系?

Debug断点看看到底什么时候处理了PException这个异常:

继续

然后就会走到这么一个地方,好像看到日志中那个UndeclaredThrowableException异常了,继续

哎,确实走到了throw new UndeclaredThrowableException这行代码,而且我们本身的PException被作为一个参数传进去了。

追踪这个方法,发现传入的PException被赋值给了一个
undeclaredThrowable变量
,这个变量有什么用,我们一会儿再说,
先记下它

也就是说,在AOP中抛出的异常最终被包装成了一个UndeclaredThrowableException,但是有一个前提:

通过反射判断是否属于切点执行方法的声明的Exception,如果不是且不属于RuntimeException,那么将会使用UndeclaredThrowableException包装原始的Exception。

判断方法如下:

抛出UndeclaredThrowableException后由@ExceptionHandler({Exception.class})方法捕获处理。

问题已经定位到了,解决方案也显而易见:

1.让PException继承RuntimeException,不过在某些情况下未必合理。根据业务来。

2.在切点执行方法中声明抛出PException,即使在该方法中根本不会抛出该异常,但只要在AOP中可以抛出,那就需要声明。

3.去掉兜底的@ExceptionHandler({Exception.class}),让SpringBoot处理。

到这,问题已经解决了。吗?

你难道一点儿都不好奇?

SpringBoot
为什么
可以正常的处理PException?

具体调试流程就不展开了,最终在SpringBoot的ExceptionHandlerExceptionResolver中找到了答案,看下面的422和423行代码,cause调用了Throwable的getCause()方法:

看下这个方法在UndeclaredThrowableException中的实现:

到这是不是都说的通了呀?还记得之前提到的undeclaredThrowable变量吗?

JVM整体结构

本文主要说的是HotSpot虚拟机,

JVM 全称是 Java Virtual Machine,中文译名:Java虚拟机

JVM-framework

简化一下:

image-20236666660204142543

Java字节码文件

Class文件本质上是一个以8位字节为基础单位的二进制流,各个数据项目严格按照顺序紧凑的排列在Class文件中,JVM根据其特定的规则解析该二进制数据,从而得到相关信息

Class文件采用一种伪结构来存储数据,它有两种类型:无符号数和表

首先从整体上看一下Java字节码文件所包含的内容:

image-20231031215759601

初识Class文件、基础信息

package com.zixieqing;

public class KnowClass {
    static int a = 0;

    public static void main(String[] args) {
        int b = a++;

        System.out.println("b = " + b);
    }
}

通过以下命令, 可以在当前所在路径下生成一个 .Class 文件

javac KnowClass.java

使用NotePad++的十六进制插件(HEX-Editor)打开编译后的Class文件,部分截图如下:

image-20231031223852875

其中:

  • 左边Address这一列:是当前文件中的地址
  • 中间部分:是整个十六进制数据
  • 右边Dump这一列:是编码之后的结果

对于中间部分数据:

  1. 文件开头的4个字节(“cafe babe”)就是所谓的“magic魔数”。唯有以"cafe babe"开头的Class文件方可被虚拟机所接受,这4个字节就是字节码文件的身份识别

文件是无法通过文件扩展名来确定文件类型的,文件扩展名可以随意修改,不影响文件的内容

软件使用文件的头几个字节(文件头)去校验文件的类型,如果软件不支持该种类型就会出错

Java字节码文件中,将文件头称为magic魔数

image-20231031214631078

  1. 0000是编译器JDK版本的次版本号0,0034转化为十进制是52,是主版本号

主次版本号指的是编译字节码文件的JDK版本号

主版本号用来标识大版本号

JDK1.0-1.1使用了45.0-45.3,JDK1.2是46之后每升级一个大版本就加1;副版本号是当主版本号相同时作为区分不同

版本的标识,一般只需要关心主版本号

1.2之后大版本号计算方法就是:
主版本号 – 44
比如主版本号52就是52 - 44 = 8,即JDK8

以前用的 Java -version 命令也就可以验证
PS C:\Users\zixq\Desktop> java -version
java version "1.8.0_221"
Java(TM) SE Runtime Environment (build 1.8.0_221-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.221-b11, mixed mode)

版本号的作用主要是判断当前字节码的版本和运行时的JDK是否兼容

主版本号不兼容导致的错误的两种解决方案:
1.升级JDK版本													(容易引发其他的兼容性问题,并且需要大量的测试)
2.将第三方依赖的版本号降低或者更换依赖,以满足JDK版本的要求			√ 建议采用

反编译Class文件

使用Java内置的一个反编译工具Javap可以反编译字节码文件, 用法:
Javap <options> <Classes>

其中
<options>
选项包括:

-help  --help  -?        输出此用法消息
-version                 版本信息
-v  -verbose             输出附加信息
-l                       输出行号和本地变量表
-public                  仅显示公共类和成员
-protected               显示受保护的/公共类和成员
-package                 显示程序包/受保护的/公共类和成员 (默认)
-p  -private             显示所有类和成员
-c                       对代码进行反汇编
-s                       输出内部类型签名
-sysinfo                 显示正在处理的类的系统信息 (路径, 大小, 日期, MD5 散列)
-constants               显示最终常量
-Classpath <path>        指定查找用户类文件的位置
-cp <path>               指定查找用户类文件的位置
-bootClasspath <path>    覆盖引导类文件的位置

输入命令
Javap -verbose -p KnowClass.Class
查看输出内容:

Classfile /E:/Study/JVM-Demo/out/production/JVM-Demo/com/zixieqing/KnowClass.class			// Class文件当前所在位置
  Last modified 2023-10-31; size 862 bytes													// 最后修改时间、文件大小
  MD5 checksum 1b6100d02bb70d920adceac139839609												// MD5值
  Compiled from "KnowClass.java"															// 编译自哪个文件
public class com.zixieqing.KnowClass														// 类全限定名
  minor version: 0																			// 次版本号
  major version: 52																			// 主版本号
  flags: ACC_PUBLIC, ACC_SUPER																// 该类的访问标志	一会儿单独说明有哪些
Constant pool:																				// 常量池
   #1 = Methodref          #12.#30        // java/lang/Object."<init>":()V
   #2 = Fieldref           #11.#31        // com/zixieqing/KnowClass.a:I
   #3 = Fieldref           #32.#33        // java/lang/System.out:Ljava/io/PrintStream;
   #4 = Class              #34            // java/lang/StringBuilder
   #5 = Methodref          #4.#30         // java/lang/StringBuilder."<init>":()V
   #6 = String             #35            // b =
   #7 = Methodref          #4.#36         // java/lang/StringBuilder.append:(Ljava/lang/String;)Ljava/lang/StringBuilder;
   #8 = Methodref          #4.#37         // java/lang/StringBuilder.append:(I)Ljava/lang/StringBuilder;
   #9 = Methodref          #4.#38         // java/lang/StringBuilder.toString:()Ljava/lang/String;
  #10 = Methodref          #39.#40        // java/io/PrintStream.println:(Ljava/lang/String;)V
  #11 = Class              #41            // com/zixieqing/KnowClass
  #12 = Class              #42            // java/lang/Object
  #13 = Utf8               a
  #14 = Utf8               I
  #15 = Utf8               <init>
  #16 = Utf8               ()V
  #17 = Utf8               Code
  #18 = Utf8               LineNumberTable
  #19 = Utf8               LocalVariableTable
  #20 = Utf8               this
  #21 = Utf8               Lcom/zixieqing/KnowClass;
  #22 = Utf8               main
  #23 = Utf8               ([Ljava/lang/String;)V
  #24 = Utf8               args
  #25 = Utf8               [Ljava/lang/String;
  #26 = Utf8               b
  #27 = Utf8               <clinit>
  #28 = Utf8               SourceFile
  #29 = Utf8               KnowClass.java
  #30 = NameAndType        #15:#16        // "<init>":()V
  #31 = NameAndType        #13:#14        // a:I
  #32 = Class              #43            // java/lang/System
  #33 = NameAndType        #44:#45        // out:Ljava/io/PrintStream;
  #34 = Utf8               java/lang/StringBuilder
  #35 = Utf8               b =
  #36 = NameAndType        #46:#47        // append:(Ljava/lang/String;)Ljava/lang/StringBuilder;
  #37 = NameAndType        #46:#48        // append:(I)Ljava/lang/StringBuilder;
  #38 = NameAndType        #49:#50        // toString:()Ljava/lang/String;
  #39 = Class              #51            // java/io/PrintStream
  #40 = NameAndType        #52:#53        // println:(Ljava/lang/String;)V
  #41 = Utf8               com/zixieqing/KnowClass
  #42 = Utf8               java/lang/Object
  #43 = Utf8               java/lang/System
  #44 = Utf8               out
  #45 = Utf8               Ljava/io/PrintStream;
  #46 = Utf8               append
  #47 = Utf8               (Ljava/lang/String;)Ljava/lang/StringBuilder;
  #48 = Utf8               (I)Ljava/lang/StringBuilder;
  #49 = Utf8               toString
  #50 = Utf8               ()Ljava/lang/String;
  #51 = Utf8               java/io/PrintStream
  #52 = Utf8               println
  #53 = Utf8               (Ljava/lang/String;)V
{
  static int a;
    descriptor: I
    flags: ACC_STATIC

  public com.zixieqing.KnowClass();				// 方法表集合,就是前面看Class整体中说的“方法”
    descriptor: ()V
    flags: ACC_PUBLIC
    Code:
      stack=1, locals=1, args_size=1
         0: aload_0
         1: invokespecial #1                  // Method java/lang/Object."<init>":()V
         4: return
      LineNumberTable:
        line 12: 0
      LocalVariableTable:
        Start  Length  Slot  Name   Signature
            0       5     0  this   Lcom/zixieqing/KnowClass;

  public static void main(java.lang.String[]);	// 方法表集合		一会儿说明
    descriptor: ([Ljava/lang/String;)V
    flags: ACC_PUBLIC, ACC_STATIC
    Code:
      stack=3, locals=2, args_size=1
         0: getstatic     #2                  // Field a:I
         3: dup
         4: iconst_1
         5: iadd
         6: putstatic     #2                  // Field a:I
         9: istore_1
        10: getstatic     #3                  // Field java/lang/System.out:Ljava/io/PrintStream;
        13: new           #4                  // class java/lang/StringBuilder
        16: dup
        17: invokespecial #5                  // Method java/lang/StringBuilder."<init>":()V
        20: ldc           #6                  // String b =
        22: invokevirtual #7                  // Method java/lang/StringBuilder.append:(Ljava/lang/String;)Ljava/lang/StringBuilder;
        25: iload_1
        26: invokevirtual #8                  // Method java/lang/StringBuilder.append:(I)Ljava/lang/StringBuilder;
        29: invokevirtual #9                  // Method java/lang/StringBuilder.toString:()Ljava/lang/String;
        32: invokevirtual #10                 // Method java/io/PrintStream.println:(Ljava/lang/String;)V
        35: return
      LineNumberTable:
        line 16: 0
        line 18: 10
        line 19: 35
      LocalVariableTable:
        Start  Length  Slot  Name   Signature
            0      36     0  args   [Ljava/lang/String;
           10      26     1     b   I

  static {};
    descriptor: ()V
    flags: ACC_STATIC
    Code:
      stack=1, locals=0, args_size=0
         0: iconst_0
         1: putstatic     #2                  // Field a:I
         4: return
      LineNumberTable:
        line 13: 0
}
SourceFile: "KnowClass.java"				// 资源文件名	即源代码的文件名

上面提到了类的访问标志:ACC_PUBLIC, ACC_SUPER,访问标志的含义如下:

标志名称 标志值 含义
ACC_PUBLIC 0x0001 是否为Public类型
ACC_FINAL 0x0010 是否被声明为final,只有类可以设置
ACC_SUPER 0x0020 是否允许使用invokespecial字节码指令的新语义.
ACC_INTERFACE 0x0200 标志这是一个接口
ACC_ABSTRACT 0x0400 是否为abstract类型,对于接口或者抽象类来说,次标志值为真,其他类型为假
ACC_SYNTHETIC 0x1000 标志这个类并非由用户代码产生
ACC_ANNOTATION 0x2000 标志这是一个注解
ACC_ENUM 0x4000 标志这是一个枚举

常量池

Constant pool
意为常量池

常量池中的数据都有一个编号,编号从1开始。在字段或者字节码指令中通过编号可以快速的找到对应的数据

字节码指令中通过编号引用到常量池的过程称之为“符号引用”

常量池可以理解成Class文件中的资源仓库,主要存放的是两大类常量:字面量(Literal)和符号引用(Symbolic References),字面量类似于Java中的常量概念,如文本字符串,final常量等,而符号引用则属于编译原理方面的概念,包括以下三种:

  • 类和接口的全限定名(Fully Qualified Name)
  • 字段的名称和描述符号(Descriptor)
  • 方法的名称和描述符

不同于C/C++,,JVM是在加载Class文件的时候才进行的动态链接,也就是说这些字段和方法符号引用只有在运行期转换后才能获得真正的内存入口地址,当虚拟机运行时,需要从常量池获得对应的符号引用,再在类创建或运行时解析并翻译到具体的内存地址中。如上一节反编译的文件中的常量池:

Constant pool:							  // 常量池
   #1 = Methodref          #12.#30        // java/lang/Object."<init>":()V
   #2 = Fieldref           #11.#31        // com/zixieqing/KnowClass.a:I
   #3 = Fieldref           #32.#33        // java/lang/System.out:Ljava/io/PrintStream;
   #4 = Class              #34            // java/lang/StringBuilder
   #5 = Methodref          #4.#30         // java/lang/StringBuilder."<init>":()V
   #6 = String             #35            // b =
   #7 = Methodref          #4.#36         // java/lang/StringBuilder.append:(Ljava/lang/String;)Ljava/lang/StringBuilder;
   #8 = Methodref          #4.#37         // java/lang/StringBuilder.append:(I)Ljava/lang/StringBuilder;
   #9 = Methodref          #4.#38         // java/lang/StringBuilder.toString:()Ljava/lang/String;
  #10 = Methodref          #39.#40        // java/io/PrintStream.println:(Ljava/lang/String;)V
  #11 = Class              #41            // com/zixieqing/KnowClass
  #12 = Class              #42            // java/lang/Object
  #13 = Utf8               a
  #14 = Utf8               I
  #15 = Utf8               <init>
  #16 = Utf8               ()V
  #17 = Utf8               Code
  #18 = Utf8               LineNumberTable
  #19 = Utf8               LocalVariableTable
  #20 = Utf8               this
  #21 = Utf8               Lcom/zixieqing/KnowClass;
  #22 = Utf8               main
  #23 = Utf8               ([Ljava/lang/String;)V
  #24 = Utf8               args
  #25 = Utf8               [Ljava/lang/String;
  #26 = Utf8               b
  #27 = Utf8               <clinit>
  #28 = Utf8               SourceFile
  #29 = Utf8               KnowClass.java
  #30 = NameAndType        #15:#16        // "<init>":()V
  #31 = NameAndType        #13:#14        // a:I
  #32 = Class              #43            // java/lang/System
  #33 = NameAndType        #44:#45        // out:Ljava/io/PrintStream;
  #34 = Utf8               java/lang/StringBuilder
  #35 = Utf8               b =
  #36 = NameAndType        #46:#47        // append:(Ljava/lang/String;)Ljava/lang/StringBuilder;
  #37 = NameAndType        #46:#48        // append:(I)Ljava/lang/StringBuilder;
  #38 = NameAndType        #49:#50        // toString:()Ljava/lang/String;
  #39 = Class              #51            // java/io/PrintStream
  #40 = NameAndType        #52:#53        // println:(Ljava/lang/String;)V
  #41 = Utf8               com/zixieqing/KnowClass
  #42 = Utf8               java/lang/Object
  #43 = Utf8               java/lang/System
  #44 = Utf8               out
  #45 = Utf8               Ljava/io/PrintStream;
  #46 = Utf8               append
  #47 = Utf8               (Ljava/lang/String;)Ljava/lang/StringBuilder;
  #48 = Utf8               (I)Ljava/lang/StringBuilder;
  #49 = Utf8               toString
  #50 = Utf8               ()Ljava/lang/String;
  #51 = Utf8               java/io/PrintStream
  #52 = Utf8               println
  #53 = Utf8               (Ljava/lang/String;)V

第一个常量
是一个方法定义,指向了第12和第30个常量。以此类推查看第12和第30个常量最后可以拼接成第一个常量右侧的注释内容:

// java/lang/Object."<init>":()V

这段可以理解为该类的实例构造器的声明,由于Main类没有重写构造方法,所以调用的是父类的构造方法。此处也说明了Main类的直接父类是Object,该方法默认返回值是V, 也就是void,无返回值

第二个常量
同理可得:

  #2 = Fieldref           #11.#31        // com/zixieqing/KnowClass.a:I
  #11 = Class              #41            // com/zixieqing/KnowClass
  #13 = Utf8               a
  #14 = Utf8               I
  #41 = Utf8               com/zixieqing/KnowClass
  #31 = NameAndType        #13:#14        // a:I

此处声明了一个字段a,类型为I,I即为int类型。关于字节码的类型对应如下:

标识字符 含义 备注
B 基本类型byte
C 基本类型char
D 基本类型double
F 基本类型float
I 基本类型int
J 基本类型long 特殊记
S 基本类型short
Z 基本类型boolean 特殊记
V 特殊类型void
L 对象类型,以分号结尾,如LJava/lang/Object; 特殊记

对于数组类型,每一位使用一个前置的
[
字符来描述,如定义一个
Java.lang.String[][]
类型的二维数组,将被记录为
[[LJava/lang/String;

方法表集合

在常量池之后的是对类内部的方法描述,在字节码中以表的集合形式表现,暂且不管字节码文件的16进制文件内容如何,我们直接看反编译后的内容

  static int a;
    descriptor: I
    flags: ACC_STATIC

此处声明了一个static的变量a,类型为int

  public com.zixieqing.KnowClass();				// 方法表集合,就是前面看Class整体中说的“方法”
    descriptor: ()V
    flags: ACC_PUBLIC
    Code:
      stack=1, locals=1, args_size=1
         0: aload_0
         1: invokespecial #1                  // Method java/lang/Object."<init>":()V
         4: return
      LineNumberTable:
        line 12: 0
      LocalVariableTable:
        Start  Length  Slot  Name   Signature
            0       5     0  this   Lcom/zixieqing/KnowClass;

这里是构造方法:KnowClass(),返回值为void, 权限修饰符为public

code内的主要属性为:

  • stack
    ::最大操作数栈,JVM运行时会根据这个值来分配栈帧(Frame)中的操作栈深度,此处为1
  • locals
    ::局部变量所需的存储空间,单位为Slot, Slot是虚拟机为局部变量分配内存时所使用的最小单位,为4个字节大小,方法参数(包括实例方法中的隐藏参数this),显示异常处理器的参数(try catch中的catch块所定义的异常),方法体中定义的局部变量都需要使用局部变量表来存放。值得一提的是,locals的大小并不一定等于所有局部变量所占的Slot之和,因为局部变量中的Slot是可以重用的
  • args_size
    ::方法参数的个数,这里是1,因为每个实例方法都会有一个隐藏参数this
  • attribute_info
    ::方法体内容,0,1,4为字节码"行号",该段代码的意思是将第一个引用类型本地变量推送至栈顶,然后执行该类型的实例方法,也就是常量池存放的第一个变量,也就是注释里的
    Java/lang/Object."":()V
    , 然后执行返回语句,结束方法
  • LineNumberTable
    ::该属性的作用是描述源码行号与字节码行号(字节码偏移量)之间的对应关系。可以使用
    -g:none

    -g:lines
    选项来取消或要求生成这项信息,如果选择不生成LineNumberTable,当程序运行异常时将无法获取到发生异常的源码行号,也无法按照源码的行数来调试程序
  • LocalVariableTable
    :该属性的作用是描述帧栈中局部变量与源码中定义的变量之间的关系。可以使用
    -g:none

    -g:vars
    来取消或生成这项信息,如果没有生成这项信息,那么当别人引用这个方法时,将无法获取到参数名称,取而代之的是arg0, arg1这样的占位符
start		    表示该局部变量在哪一行开始可见
length		    表示可见行数	start和length也可以称之为变量的作用域。从字节码的start 到 length行这个作用域里该变量一直有效/可见
Slot		    代表所在帧栈位置/变量槽的索引
Name		    变量名称
Signature		类型签名/变量类型		就是前面“常量池”中说的字节码的类型

上面Code中有一个小东西:
0: aload_0
,这里的
aload_0
叫做虚拟机字节码指令

关于更多虚拟机字节码指令,也可以在《深入理解Java虚拟机 :JVM高级特性与最佳实践-附录B》中获取

这里说几个最基本的虚拟机字节码指令:

image-20231031231839977

再来个示例:

image-20231031231919319

字节码常用工具

javap命令

这个命令前面已经玩过

javap是JDK自带的反编译工具,可以通过控制台查看字节码文件的内容。
适合在服务器上查看字节码文件内容

直接输入javap查看所有参数

输入
javap -v 字节码文件名称
查看具体的字节码信息。(如果jar包需要先使用 jar –xvf 命令解压)

image-20231031233150816

jclasslib工具

  1. exe方式安装:
    https://github.com/ingokegel/jclasslib
  2. IDEA集成插件:直接在IDEA的plugins中搜索jclasslib即可

image-20231031233459824

image-20231031233844283

注意点:
源代码改变之后需要重编译,然后刷新jclasslib,否则看到的就是旧的class文件

image-20231031234134747

附加:遇到不会的虚拟机字节码指令时,可以通过jclasslib中右键对应指令,跳入官方文档查看描述

image-20231031234427465

阿里Arthas

Arthas 是一款线上监控诊断产品,通过全局视角实时查看应用 load、内存、gc、线程的状态信息,并能在不修改应用代码的情况下,对业务问题进行诊断,大大提升线上问题排查效率

官网:
https://arthas.aliyun.com/doc/

image-20231031234559729

  1. 下载jar包,运行jar包:本地查看就下载jar包到本地,Linux中查看线上代码就丢在Linux中即可
java -jar xxx.jar

image-20231104213439088

进入后使用示例:更多命令参考官网
https://arthas.aliyun.com/doc/commands.html

dump 类的全限定名		命令含义:dump已加载类的字节码文件到特定目录
					场景:线上查看Class文件,就可选择将此Class文件整到自己规定的目录中去
					
jad 类的全限定名		命令含义:反编译已加载类的源码			
					场景:BUG修复,然后上线,但BUG还在,就可选择此命令将Class文件反编译为源代码(即xxxx.java文件)
						 然后看部署的是修复好BUG的代码 还是 旧代码

字节码增强技术

声明:本章节内容转载于
https://www.pdai.tech/md/java/jvm/java-jvm-class-enhancer.html

字节码增强技术

在上文中,着重介绍了字节码的结构,这为我们了解字节码增强技术的实现打下了基础。字节码增强技术就是一类对现有字节码进行修改或者动态生成全新字节码文件的技术。接下来,我们将从最直接操纵字节码的实现方式开始深入进行剖析

img

ASM

对于需要手动操纵字节码的需求,可以使用ASM,它可以直接生产 .Class字节码文件,也可以在类被加载入JVM之前动态修改类行为(如下图所示)ASM的应用场景有AOP(Cglib就是基于ASM)、热部署、修改其他jar包中的类等。当然,涉及到如此底层的步骤,实现起来也比较麻烦。接下来,本文将介绍ASM的两种API,并用ASM来实现一个比较粗糙的AOP。但在此之前,为了让大家更快地理解ASM的处理流程,强烈建议读者先对访问者模式进行了解。简单来说,访问者模式主要用于修改或操作一些数据结构比较稳定的数据,而通过第一章,我们知道字节码文件的结构是由JVM固定的,所以很适合利用访问者模式对字节码文件进行修改

img

ASM API

核心API

ASM Core API可以类比解析XML文件中的SAX方式,不需要把这个类的整个结构读取进来,就可以用流式的方法来处理字节码文件,好处是非常节约内存,但是编程难度较大。然而出于性能考虑,一般情况下编程都使用Core AP。I在Core API中有以下几个关键类:

  • ClassReader:用于读取已经编译好的.Class文件
  • ClassWriter:用于重新构建编译后的类,如修改类名、属性以及方法,也可以生成新的类的字节码文件
  • 各种Visitor类:如上所述,Core API根据字节码从上到下依次处理,对于字节码文件中不同的区域有不同的Visitor,比如用于访问方法的MethodVisitor、用于访问类变量的FieldVisitor、用于访问注解的AnnotationVisitor等。为了实现AOP,重点要使用的是MethodVisitor
树形API

ASM Tree API可以类比解析XML文件中的DOM方式,把整个类的结构读取到内存中,缺点是消耗内存多,但是编程比较简单。Tree Api不同于Core API,Tree API通过各种Node类来映射字节码的各个区域,类比DOM节点,就可以很好地理解这种编程方式

直接利用ASM实现AOP

利用ASM的Core API来增强类,这里不纠结于AOP的专业名词如切片、通知,只实现在方法调用前、后增加逻辑,通俗易懂且方便理解,首先定义需要被增强的Base类:其中只包含一个process()方法,方法内输出一行“process”。增强后,我们期望的是,方法执行前输出“start”,之后输出”end”

public Class Base {
    public void process(){
        System.out.println("process");
    }
}

为了利用ASM实现AOP,需要定义两个类:一个是MyClassVisitor类,用于对字节码的visit以及修改;另一个是Generator类,在这个类中定义ClassReader和ClassWriter,其中的逻辑是,ClassReader读取字节码,然后交给MyClassVisitor类处理,处理完成后由ClassWriter写字节码并将旧的字节码替换掉,Generator类较简单,我们先看一下它的实现,如下所示,然后重点解释MyClassVisitor类

import org.objectweb.asm.ClassReader;
import org.objectweb.asm.ClassVisitor;
import org.objectweb.asm.ClassWriter;

public Class Generator {
    public static void main(String[] args) throws Exception {
		// 读取
        ClassReader ClassReader = new ClassReader("meituan/bytecode/asm/Base");
        ClassWriter ClassWriter = new ClassWriter(ClassWriter.COMPUTE_MAXS);
        // 处理
        ClassVisitor ClassVisitor = new MyClassVisitor(ClassWriter);
        ClassReader.accept(ClassVisitor, ClassReader.SKIP_DEBUG);
        byte[] data = ClassWriter.toByteArray();
        // 输出
        File f = new File("operation-server/target/Classes/meituan/bytecode/asm/Base.Class");
        FileOutputStream fout = new FileOutputStream(f);
        fout.write(data);
        fout.close();
        System.out.println("now generator cc success!!!!!");
    }
}

MyClassVisitor继承自ClassVisitor,用于对字节码的观察,它还包含一个内部类MyMethodVisitor,继承自MethodVisitor,用于对类内方法的观察,它的整体代码如下:

import org.objectweb.asm.ClassVisitor;
import org.objectweb.asm.MethodVisitor;
import org.objectweb.asm.Opcodes;

public Class MyClassVisitor extends ClassVisitor implements Opcodes {
    
    public MyClassVisitor(ClassVisitor cv) {
        super(ASM5, cv);
    }
    
    @Override
    public void visit(int version, int access, String name, String signature,
                      String superName, String[] interfaces) {
        cv.visit(version, access, name, signature, superName, interfaces);
    }
    
    @Override
    public MethodVisitor visitMethod(int access, String name, String desc, String signature, String[] exceptions) {
        
        MethodVisitor mv = cv.visitMethod(access, name, desc, signature,exceptions);
        // Base类中有两个方法:无参构造以及process方法,这里不增强构造方法
        if (!name.equals("<init>") && mv != null) {
            mv = new MyMethodVisitor(mv);
        }
        return mv;
    }
    
    Class MyMethodVisitor extends MethodVisitor implements Opcodes {
        public MyMethodVisitor(MethodVisitor mv) {
            super(Opcodes.ASM5, mv);
        }

        @Override
        public void visitCode() {
            super.visitCode();
            mv.visitFieldInsn(GETSTATIC, "Java/lang/System", "out", "LJava/io/PrintStream;");
            mv.visitLdcInsn("start");
            mv.visitMethodInsn(INVOKEVIRTUAL, "Java/io/PrintStream", "println", "(LJava/lang/String;)V", false);
        }
        @Override
        public void visitInsn(int opcode) {
            if ((opcode >= Opcodes.IRETURN && opcode <= Opcodes.RETURN)
                    || opcode == Opcodes.ATHROW) {
                // 方法在返回之前,打印"end"
                mv.visitFieldInsn(GETSTATIC, "Java/lang/System", "out", "LJava/io/PrintStream;");
                mv.visitLdcInsn("end");
                mv.visitMethodInsn(INVOKEVIRTUAL, "Java/io/PrintStream", "println", "(LJava/lang/String;)V", false);
            }
            mv.visitInsn(opcode);
        }
    }
}

利用这个类就可以实现对字节码的修改详细解读其中的代码,对字节码做修改的步骤是:

  • 首先通过MyClassVisitor类中的visitMethod方法,判断当前字节码读到哪一个方法了跳过构造方法
    <init>
    后,将需要被增强的方法交给内部类MyMethodVisitor来进行处理
  • 接下来,进入内部类MyMethodVisitor中的visitCode方法,它会在ASM开始访问某一个方法的Code区时被调用,重写visitCode方法,将AOP中的前置逻辑就放在这里,MyMethodVisitor继续读取字节码指令,每当ASM访问到无参数指令时,都会调用MyMethodVisitor中的visitInsn方法,我们判断了当前指令是否为无参数的“return”指令,如果是就在它的前面添加一些指令,也就是将AOP的后置逻辑放在该方法中
  • 综上,重写MyMethodVisitor中的两个方法,就可以实现AOP了,而重写方法时就需要用ASM的写法,手动写入或者修改字节码,通过调用methodVisitor的visitXXXXInsn()方法就可以实现字节码的插入,XXXX对应相应的操作码助记符类型,比如mv.visitLdcInsn(“end”)对应的操作码就是ldc “end”,即将字符串“end”压入栈 完成这两个visitor类后,运行Generator中的main方法完成对Base类的字节码增强,增强后的结果可以在编译后的target文件夹中找到Base.Class文件进行查看,可以看到反编译后的代码已经改变了然后写一个测试类MyTest,在其中new Base(),并调用base.process()方法,可以看到下图右侧所示的AOP实现效果:

img

ASM工具

利用ASM手写字节码时,需要利用一系列visitXXXXInsn()方法来写对应的助记符,所以需要先将每一行源代码转化为一个个的助记符,然后通过ASM的语法转换为visitXXXXInsn(),这种写法第一步将源码转化为助记符就已经够麻烦了,不熟悉字节码操作集合的话,需要我们将代码编译后再反编译,才能得到源代码对应的助记符;第二步利用ASM写字节码时,如何传参也很令人头疼,ASM社区也知道这两个问题,所以提供了工具
ASM Byte Code Outline

安装后,右键选择“Show Bytecode Outline”,在新标签页中选择“ASMified”这个tab,如下图所示,就可以看到这个类中的代码对应的ASM写法了,图中上下两个红框分别对应AOP中的前置逻辑与后置逻辑,将这两块直接复制到visitor中的visitMethod()以及visitInsn()方法中,就可以了

img

Javassist

ASM是在指令层次上操作字节码的,阅读上文后,我们的直观感受是在指令层次上操作字节码的框架实现起来比较晦涩,故除此之外,我们再简单介绍另外一类框架:强调源代码层次操作字节码的框架Javassist

利用Javassist实现字节码增强时,可以无须关注字节码刻板的结构,其优点就在于编程简单直接使用Java编码的形式,而不需要了解虚拟机指令,就能动态改变类的结构或者动态生成类,其中最重要的是ClassPool、CtClass、CtMethod、CtField这四个类:

  • CtClass(compile-time Class):编译时类信息,它是一个Class文件在代码中的抽象表现形式,可以通过一个类的全限定名来获取一个CtClass对象,用来表示这个类文件
  • ClassPool:从开发视角来看,ClassPool是一张保存CtClass信息的HashTable,key为类名,value为类名对应的CtClass对象,当我们需要对某个类进行修改时,就是通过pool.getCtClass(“ClassName”)方法从pool中获取到相应的CtClass
  • CtMethod、CtField:这两个比较好理解,对应的是类中的方法和属性

了解这四个类后,我们可以写一个小Demo来展示Javassist简单、快速的特点,我们依然是对Base中的process()方法做增强,在方法调用前后分别输出”start”和”end”,实现代码如下,我们需要做的就是从pool中获取到相应的CtClass对象和其中的方法,然后执行method.insertBefore和insertAfter方法,参数为要插入的Java代码,再以字符串的形式传入即可,实现起来也极为简单

import com.meituan.mtrace.agent.Javassist.*;

public Class JavassistTest {
    public static void main(String[] args) throws NotFoundException, CannotCompileException, IllegalAccessException, InstantiationException, IOException {
        ClassPool cp = ClassPool.getDefault();
        CtClass cc = cp.get("meituan.bytecode.Javassist.Base");
        CtMethod m = cc.getDeclaredMethod("process");
        m.insertBefore("{ System.out.println(\"start\"); }");
        m.insertAfter("{ System.out.println(\"end\"); }");
        Class c = cc.toClass();
        cc.writeFile("/Users/zen/projects");
        Base h = (Base)c.newInstance();
        h.process();
    }
}

运行时类的重载

问题引出

上一章重点介绍了两种不同类型的字节码操作框架,且都利用它们实现了较为粗糙的AOP。其实,为了方便大家理解字节码增强技术,在上文中我们避重就轻将ASM实现AOP的过程分为了两个main方法:第一个是利用MyClassVisitor对已编译好的Class文件进行修改,第二个是new对象并调用,这期间并不涉及到JVM运行时对类的重加载,而是在第一个main方法中,通过ASM对已编译类的字节码进行替换,在第二个main方法中,直接使用已替换好的新类信息,另外在Javassist的实现中,我们也只加载了一次Base类,也不涉及到运行时重加载类

如果我们在一个JVM中,先加载了一个类,然后又对其进行字节码增强并重新加载会发生什么呢?模拟这种情况,只需要我们在上文中Javassist的Demo中main()方法的第一行添加Base b=new Base(),即在增强前就先让JVM加载Base类,然后在执行到c.toClass()方法时会抛出错误,如下图20所示跟进c.toClass()方法中,我们会发现它是在最后调用了ClassLoader的native方法defineClass()时报错,也就是说,JVM是不允许在运行时动态重载一个类的

img

显然,如果只能在类加载前对类进行强化,那字节码增强技术的使用场景就变得很窄了。我们期望的效果是:在一个持续运行并已经加载了所有类的JVM中,还能利用字节码增强技术对其中的类行为做替换并重新加载,为了模拟这种情况,我们将Base类做改写,在其中编写main方法,每五秒调用一次process()方法,在process()方法中输出一行“process”

我们的目的就是,在JVM运行中的时候,将process()方法做替换,在其前后分别打印“start”和“end”,也就是在运行中时,每五秒打印的内容由”process”变为打印”start process end”。那如何解决JVM不允许运行时重加载类信息的问题呢?为了达到这个目的,我们接下来一一来介绍需要借助的Java类库

import Java.lang.management.ManagementFactory;

public Class Base {
    public static void main(String[] args) {
        String name = ManagementFactory.getRuntimeMXBean().getName();
        String s = name.split("@")[0];
        // 打印当前Pid
        System.out.println("pid:"+s);
        while (true) {
            try {
                Thread.sleep(5000L);
            } catch (Exception e) {
                break;
            }
            process();
        }
    }

    public static void process() {
        System.out.println("process");
    }
}

Instrument

instrument是JVM提供的一个可以修改已加载类的类库,专门为Java语言编写的插桩服务,提供支持它需要依赖JVMTI的Attach API机制实现,JVMTI这一部分,我们将在下一小节进行介绍,在JDK 1.6以前,instrument只能在JVM刚启动开始加载类时生效,而在JDK 1.6之后,instrument支持了在运行时对类定义的修改,要使用instrument的类修改功能,我们需要实现它提供的ClassFileTransformer接口,定义一个类文件转换器,接口中的transform()方法会在类文件被加载时调用,而在transform方法里,我们可以利用上文中的ASM或Javassist对传入的字节码进行改写或替换,生成新的字节码数组后返回

我们定义一个实现了ClassFileTransformer接口的类TestTransformer,依然在其中利用Javassist对Base类中的process()方法进行增强,在前后分别打印“start”和“end”,代码如下:

import Java.lang.instrument.ClassFileTransformer;

public Class TestTransformer implements ClassFileTransformer {
    @Override
    public byte[] transform(ClassLoader loader, String ClassName, Class<?> ClassBeingRedefined, ProtectionDomain protectionDomain, byte[] ClassfileBuffer) {
        System.out.println("Transforming " + ClassName);
        try {
            ClassPool cp = ClassPool.getDefault();
            CtClass cc = cp.get("meituan.bytecode.JVMti.Base");
            CtMethod m = cc.getDeclaredMethod("process");
            m.insertBefore("{ System.out.println(\"start\"); }");
            m.insertAfter("{ System.out.println(\"end\"); }");
            return cc.toBytecode();
        } catch (Exception e) {
            e.printStackTrace();
        }
        return null;
    }
}

现在有了Transformer,那么它要如何注入到正在运行的JVM呢?还需要定义一个Agent,借助Agent的能力将Instrument注入到JVM中,我们将在下一小节介绍Agent,现在要介绍的是Agent中用到的另一个类Instrumentation,在JDK 1.6之后,Instrumentation可以做启动后的Instrument、本地代码(Native Code)的Instrument,以及动态改变Classpath等等。我们可以向Instrumentation中添加上文中定义的Transformer,并指定要被重加载的类,代码如下所示这样,当Agent被Attach到一个JVM中时,就会执行类字节码替换并重载入JVM的操作

import Java.lang.instrument.Instrumentation;

public Class TestAgent {
    public static void agentmain(String args, Instrumentation inst) {
        //指定我们自己定义的Transformer,在其中利用Javassist做字节码替换
        inst.addTransformer(new TestTransformer(), true);
        try {
            //重定义类并载入新的字节码
            inst.retransformClasses(Base.Class);
            System.out.println("Agent Load Done.");
        } catch (Exception e) {
            System.out.println("agent load failed!");
        }
    }
}

JVMTI & Agent & Attach API

上一小节中,我们给出了Agent类的代码,追根溯源需要先介绍JPDA(Java Platform Debugger Architecture)如果JVM启动时开启了JPDA,那么类是允许被重新加载的,在这种情况下,已被加载的旧版本类信息可以被卸载,然后重新加载新版本的类。正如JDPA名称中的Debugger,JDPA其实是一套用于调试Java程序的标准,任何JDK都必须实现该标准

JPDA定义了一整套完整的体系,它将调试体系分为三部分,并规定了三者之间的通信接口,三部分由低到高分别是Java 虚拟机工具接口(JVMTI),Java 调试协议(JDWP)以及 Java 调试接口(JDI),三者之间的关系如下图所示:

img

现在回到正题,我们可以借助JVMTI的一部分能力,帮助动态重载类信息JVM TI(JVM TOOL INTERFACE,JVM工具接口)是JVM提供的一套对JVM进行操作的工具接口通过JVMTI,可以实现对JVM的多种操作,它通过接口注册各种事件勾子,在JVM事件触发时,同时触发预定义的勾子,以实现对各个JVM事件的响应,事件包括类文件加载、异常产生与捕获、线程启动和结束、进入和退出临界区、成员变量修改、GC开始和结束、方法调用进入和退出、临界区竞争与等待、VM启动与退出等等

而Agent就是JVMTI的一种实现,Agent有两种启动方式,一是随Java进程启动而启动,经常见到的Java -agentlib就是这种方式;二是运行时载入,通过attach API,将模块(jar包)动态地Attach到指定进程id的Java进程内

Attach API 的作用是提供JVM进程间通信的能力,比如说我们为了让另外一个JVM进程把线上服务的线程Dump出来,会运行jstack或jmap的进程,并传递pid的参数,告诉它要对哪个进程进行线程Dump,这就是Attach API做的事情在下面,我们将通过Attach API的loadAgent()方法,将打包好的Agent jar包动态Attach到目标JVM上具体实现起来的步骤如下:

  • 定义Agent,并在其中实现AgentMain方法,如上一小节中定义的代码块7中的TestAgent类;
  • 然后将TestAgent类打成一个包含MANIFEST.MF的jar包,其中MANIFEST.MF文件中将Agent-Class属性指定为TestAgent的全限定名,如下图所示;

img

  • 最后利用Attach API,将我们打包好的jar包Attach到指定的JVM pid上,代码如下:
import com.sun.tools.attach.VirtualMachine;

public Class Attacher {
    public static void main(String[] args) throws AttachNotSupportedException, IOException, AgentLoadException, AgentInitializationException {
        // 传入目标 JVM pid
        VirtualMachine vm = VirtualMachine.attach("39333");
        vm.loadAgent("/Users/zen/operation_server_jar/operation-server.jar");
    }
}
  • 由于在MANIFEST.MF中指定了Agent-Class,所以在Attach后,目标JVM在运行时会走到TestAgent类中定义的agentmain()方法,而在这个方法中,我们利用Instrumentation,将指定类的字节码通过定义的类转化器TestTransformer做了Base类的字节码替换(通过Javassist),并完成了类的重新加载由此,我们达成了“在JVM运行时,改变类的字节码并重新载入类信息”的目的

以下为运行时重新载入类的效果:先运行Base中的main()方法,启动一个JVM,可以在控制台看到每隔五秒输出一次”process”接着执行Attacher中的main()方法,并将上一个JVM的pid传入此时回到上一个main()方法的控制台,可以看到现在每隔五秒输出”process”前后会分别输出”start”和”end”,也就是说完成了运行时的字节码增强,并重新载入了这个类

img

使用场景

至此,字节码增强技术的可使用范围就不再局限于JVM加载类前了。通过上述几个类库,我们可以在运行时对JVM中的类进行修改并重载了。通过这种手段,可以做的事情就变得很多了:

  • 热部署:不部署服务而对线上服务做修改,可以做打点、增加日志等操作
  • Mock:测试时候对某些服务做Mock
  • 性能诊断工具:比如bTrace就是利用Instrument,实现无侵入地跟踪一个正在运行的JVM,监控到类和方法级别的状态信息

总结

字节码增强技术相当于是一把打开运行时JVM的钥匙,利用它可以动态地对运行中的程序做修改,也可以跟踪JVM运行中程序的状态。此外,我们平时使用的动态代理、AOP也与字节码增强密切相关,它们实质上还是利用各种手段生成符合规范的字节码文件。综上所述,掌握字节码增强后可以高效地定位并快速修复一些棘手的问题(如线上性能问题、方法出现不可控的出入参需要紧急加日志等问题),也可以在开发中减少冗余代码,大大提高开发效率

类的生命周期

整个流程如下:

image-20231109171701801

注意:
加载

验证

准备

初始化
这四个阶段发生的顺序是确定的,

解析
阶段则不一定,它在某些情况下可以在初始化阶段之后开始,这是为了支持Java语言的运行时绑定(也称为动态绑定或晚期绑定)

。另外:这里的几个阶段是按顺序开始,而不是按顺序进行或完成,因为这些阶段通常都是互相交叉地混合进行的,通常在一个阶段执行的过程中调用或激活另一个阶段

加载:查找并加载类的二进制数据

加载是类加载过程的第一个阶段,在加载阶段,虚拟机需要完成以下三件事情:

  1. 类加载器根据类的全限定名通过不同的渠道以二进制流的方式获取字节码信息。如下列的不同渠道:
  • 从本地系统中直接加载
  • 通过网络下载.Class文件
  • 从zip,jar等归档文件中加载.Class文件
  • 从专有数据库中提取.Class文件
  • 将Java源文件动态编译为.Class文件
  1. 将这个字节流所代表的静态存储结构转化为
    方法区
    的运行时数据结构,
    生成一个InstanceKlass对象
    ,保存类的所有信息,里边还包含实现特定功能比如多态的信息。

image-20231107180858869

  1. Java虚拟机会在
    堆中生成
    一份与方法区中数据“类似”的
    java.lang.Class对象
    ,作为对方法区中相关数据的访问入口。

作用:在Java代码中去获取类的信息以及存储静态字段的数据(这里的静态字段是说的JDK8及之后的Java虚拟机的设计)

PS:堆中生成的java.lang.Class对象信息是方法区中生成的InstanceKlass对象信息的浓缩版,也就是将方法区InstanceKlass中程序员不需要的信息剔除就成为堆中的java.lang.Class对象信息

对于开发者来说,只需要访问堆中的Class对象而不需要访问方法区中所有信息。这样Java虚拟机就能很好地控制开发者访问数据的范围

image-20231107181729831

注意:
类加载器并不需要等到某个类被“首次主动使用”时再加载它,JVM规范允许类加载器在预料某个类将要被使用时就预先加载它,如果在预先加载的过程中遇到了 .Class文件 缺失或存在错误,类加载器必须在程序首次主动使用该类时才报告错误(LinkageError错误),如果这个类一直没有被程序主动使用,那么类加载器就不会报告错误

既然要加载类,那是怎么加载的就得了解了,而这就不得不了解“JVM类加载机制”了

JVM类加载机制

类加载器的分类

类加载器(ClassLoader)是Java虚拟机提供给应用程序去实现获取类和接口字节码数据的技术。

类加载器只参与加载过程中的字节码获取并加载到内存这一部分。

类加载器分为两类,一类是Java代码中实现的,一类是Java虚拟机底层源码实现的

image-20231107201850757

类加载器的设计JDK8和8之后的版本差别较大,JDK8及之前的版本中默认的类加载器有如下几种:

image-20231107201956280

查找类加载器
  1. Arthas关于中类加载器的详细信息的查看方式

    Arthas之classloader命令官网说明
classloader		# 查看 classloader 的继承树,urls,类加载信息,使用 classloader 去获取资源

参数说明:

参数名称 参数说明
[l] 按类加载实例进行统计
[t] 打印所有 ClassLoader 的继承树
[a] 列出所有 ClassLoader 加载的类,请谨慎使用
[c:] ClassLoader 的 hashcode
[classLoaderClass:] 指定执行表达式的 ClassLoader 的 class name
[c: r:] 用 ClassLoader 去查找 resource
[c: load:] 用 ClassLoader 去加载指定的类

示例:

PS:下图那些数量指的是我进入的当前这个线程相关的,不是说所有的数量就是那些,根据进程会发生改变

image-20231107203154937

另外:Arthas也可以查看 JVM 已加载的”某个类“的类信息,
Arthas之sc命令官网说明

sc命令,即“Search-Class” 的简写,这个命令能搜索出所有已经加载到 JVM 中的 Class 信息,这个命令支持的参数有
[d]

[E]

[f]

[x:]
,参数说明如下:

参数名称 参数说明
class-pattern 类名表达式匹配
method-pattern 方法名表达式匹配
[d] 输出当前类的详细信息,包括这个类所加载的原始文件来源、类的声明、加载的 ClassLoader 等详细信息。 如果一个类被多个 ClassLoader 所加载,则会出现多次
[E] 开启正则表达式匹配,默认为通配符匹配
[f] 输出当前类的成员变量信息(需要配合参数-d 一起使用)
[x:] 指定输出静态变量时属性的遍历深度,默认为 0,即直接使用
toString
输出
[c:] 指定 class 的 ClassLoader 的 hashcode
[classLoaderClass:] 指定执行表达式的 ClassLoader 的 class name
[n:] 具有详细信息的匹配类的最大数量(默认为 100)
[cs <arg>] 指定 class 的 ClassLoader#toString() 返回值。长格式
[classLoaderStr <arg>]

示例:

image-20231107210759606

  1. 自己写代码查看
package com.zixieqing;

import java.io.IOException;

/**
 * <p>
 * 查找类加载器
 * </p>
 *
 * <p>@author     : ZiXieqing</p>
 */

public class FindClassLoader {
    public static void main(String[] args) throws IOException {
        // 获取当前类的类加载器   即应用程序类加载器
        ClassLoader classLoader = FindClassLoader.class.getClassLoader();
        System.out.println("classLoader = " + classLoader);
        // 获取父类加载器  即扩展类加载器
        ClassLoader parentclassLoader = classLoader.getParent();
        System.out.println("parentclassLoader = " + parentclassLoader);
        // 获取启动类加载器     C语言实现,所以结果为 null	目的:出于安安全考虑,所以不许操作此类加载器
        ClassLoader loader = parentclassLoader.getParent();
        System.out.println("loader = " + loader);

        System.in.read();
    }
}

image-20231107204233782

还有几种获取类加载器的方式:

// 获取当前 ClassLoader
clazz.getClassLoader();

// 获取当前线程上下文的 ClassLoader
Thread.currentThread().getContextClassLoader();

// 获取系统的 ClassLoader
ClassLoader.getSystemClassLoader();

// 获取调用者的 ClassLoader
DriverManager.getCallerClassLoader();

通过这个代码查看之后,也可以说三个类加载器的层次关系长下面这个鸟样儿:

注:
这几个类加载器并不是继承关系,而是组合,或者可说是层级/上下级关系,只是源码中用的是ClassLoader类型的Parent字段来实现“双亲委派机制”(后续会上源码)。

image

启动类加载器

启动类加载器(Bootstrap ClassLoader)是由Hotspot虚拟机提供的、使用C++编写的类加载器。

启动类加载器是无法被Java程序直接引用的。

默认加载Java安装目录/jre/lib
下的类文件,比如rt.jar(Java的核心类库,如java.lang.String),tools.jar,resources.jar等。

image-20231107204704719

启动类加载器加载用户jar包的方式
  1. 放入
    JDK安装目录/jre/lib
    下进行扩展。
    不推荐

尽可能不要去更改JDK安装目录中的内容,会出现即时放进去由于文件名不匹配的问题也不会正常地被加载

  1. 使用虚拟机参数
    -Xbootclasspath/a:jar包目录/jar包名
    命令扩展。
    推荐

PS:此命令中有一个 “a” 即add的意思,意为添加一个“jar包目录/jar包名”的jar包

IDEA中示例:

-Xbootclasspath/a:E:/Study/JVM-Demo/jar/FindClassLoader.jar

image-20231107212412442

扩展 与 应用程序类加载器

扩展类加载器和应用程序类加载器都是JDK中提供的、使用Java编写的类加载器。

它们的源码都位于sun.misc.Launcher中,是一个静态内部类。继承自URLClassLoader。具备通过目录或者指定jar包将字节码文件加载到内存中。

扩展类加载器
:加载
Java安装目录/jre/lib/ext
下的类文件

应用程序类加载器
:加载
classpath
下的类文件,此classpath包括“自己项目中编写的类或接口中的文件 和 第三方jar包中的类或接口中的文件(如:maven依赖中的)”

image-20231107213415977

Arthas验证上述目录:

classloader -l						# 查看所有类加载器的hash码

classloader –c 类加载器的hash码		# 查看当前类加载器的加载路径

image-20231107215446666667

扩展类加载器加载用户jar包的方式
  1. 放入
    JDK安装目录/jre/lib/ext
    下进行扩展。
    不推荐

尽可能不要去更改JDK安装目录中的内容

  1. 使用虚拟机参数
    -Djava.ext.dirs=jar包目录
    进行扩展。
    推荐

注意:此种方式会覆盖掉扩展类加载器原始加载的目录。Windows可以使用
;
分号,macos/Linux可以使用
:
冒号隔开,从而将原始目录添加在后面

# Windows中示例
-Djava.ext.dirs=E:/Study/JVM-Demo/jar/ext;D:/Install/JDK/JDK8/jre/lib/ext

双亲委派机制

若是前面查看了应用程序类加载器的加载路径的话,会发现一个有意思的地方:

image-20231107224848371

查看应用程序类加载器的加载路径,发现启动类加载器的加载路径也有,为什么?

要搞清楚这个问题,就需要知道“双亲委派机制”了。

双亲委派机制:

image-20231108204546605

  1. 当一个类加载器加载某个类的时候,会
    自底向上查找是否加载过
    ;若加载过直接返回,若一直到最顶层的类加载器都没有加载,再
    自顶向下进行加载
  2. 应用程序类加载器的父类加载器是扩展类加载器,扩展类加载器的父类加载器是启动类加载器
  • PS:严谨点来说,
    扩展类加载器没有父类加载器,只是会“委派”给启动类加载器
    ,即如果类加载的parent为null,则会提交给启动类加载器处理。
  1. 双亲委派机制的好处:一是避免恶意代码替换JDK中的核心类库(如:java.lang.String),确保核心类库得到完整性和安全性;二是避免一个类重复被加载

双亲委派机制的作用:

  1. 避免类被重复加载
    :若一个类重复出现在三个类加载器的加载位置,应该由谁加载?

启动类加载器加载,根据双亲委派机制,它的优先级是最高的。

双亲委派机制可以避免同一个类被多次加载,上层的类加载器如果加载过该类,就会直接返回该类,避免重复加载。

  1. 保证类加载的安全性
    :如在自己的项目中创建一个java.lang.String类,会被加载吗?

不能,会交由启动类加载器加载在rt.jar包中的String类。

通过双亲委派机制,让顶层的类加载器去加载核心类,
避免恶意代码替换JDK中的核心类库
(这个也叫
沙箱安全机制
),如:上述的java.lang.String,确保核心类库的完整性和安全性。

同时底层源码中建包“禁止”以
java.
开头

image-20236666660195922678

上面定义中第一点说“类加载器加载某个类的时候”,那在Java中怎么加载一个类?这就需要知道Java中类加载的方式了。

Java中类加载的方式

在Java中如何使用代码的方式去主动加载一个类?Java中类加载有两种方式:

  1. 通过
    Class.forName()
    方法动态加载

  2. 通过
    ClassLoader.loadClass()
    方法动态加载

public Class loaderTest { 
        public static void main(String[] args) throws ClassNotFoundException { 
                ClassLoader loader = HelloWorld.Class.getClassLoader(); 
                System.out.println(loader); 
                // 使用ClassLoader.loadClass()来加载类,不会执行初始化块 
                loader.loadClass("Test2"); 
                // 使用Class.forName()来加载类,默认会执行初始化块 
			    // Class.forName("Test2"); 
                // 使用Class.forName()来加载类,并指定ClassLoader,初始化时不执行静态块 
			    // Class.forName("Test2", false, loader); 
        } 
}

public Class Test2 { 
        static { 
                System.out.println("静态初始化块执行了!"); 
        } 
}

分别切换加载方式,会有不同的输出结果

Class.forName() 和 ClassLoader.loadClass()区别?

  • Class.forName()::将类的.Class文件加载到JVM中之外,还会对类进行解释,执行类中的static块;
  • ClassLoader.loadClass()::只干一件事情,就是将.Class文件加载到JVM中,不会执行static中的内容,只有在newInstance才会去执行static块
  • Class.forName(name, initialize, loader)带参函数也可控制是否加载static块并且只有调用了newInstance()方法采用调用构造函数,创建类的对象
Java中查看双亲委派机制的实现
package java.lang;


public abstract class ClassLoader {
    
    // 每个Java实现的类加载器中保存了一个成员变量叫“父”(Parent)类加载器,可以理解为它的上级,并不是继承关系
    private final ClassLoader parent;
    
    
	public Class<?> loadClass(String name) throws ClassNotFoundException {
        // 第二个参数 会决定着是否要开始类的生命周期的解析阶段,实质执行的是"类生命周期中的连接阶段"
        return loadClass(name, false);
    }
    
	protected Class<?> loadClass(String name, boolean resolve) throws ClassNotFoundException {
        synchronized (getClassLoadingLock(name)) {
            // 首先判断该类型是否已经被加载
            Class<?> c = findLoadedClass(name);
            if (c == null) {
                long t0 = System.nanoTime();
                try {
                    // 如果没有被加载,就委托给父类加载或者委派给启动类加载器加载
                    if (parent != null) {
                        // 如果存在父类加载器,就委派给父类加载器加载
                        c = parent.loadClass(name, false);
                    } else {
                        // 如果不存在父类加载器,就检查是否是由启动类加载器加载的类,
                        // 通过调用本地方法native Class findBootstrapClass(String name)
                        c = findBootstrapClassOrNull(name);
                    }
                } catch (ClassNotFoundException e) {
                    // ClassNotFoundException thrown if class not found
                    // from the non-null parent class loader
                }

                // 如果父类加载器和启动类加载器都不能完成加载任务
                if (c == null) {
                    // If still not found, then invoke findClass in order
                    // to find the class.
                    long t1 = System.nanoTime();
                    // 调用自身的加载功能
                    c = findClass(name);

                    // this is the defining class loader; record the stats
                    sun.misc.PerfCounter.getParentDelegationTime().addTime(t1 - t0);
                    sun.misc.PerfCounter.getFindClassTime().addElapsedTimeFrom(t1);
                    sun.misc.PerfCounter.getFindClasses().increment();
                }
            }
            // 是否开始解析,此处resolve = false
            if (resolve) {
                // 最终调用 private native void resolveClass0(Class<?> c);
                resolveClass(c);
            }
            return c;
        }
    }
}
自定义类加载器

通常情况下,我们都是直接使用系统类加载器,但是,有的时候,我们也需要自定义类加载器,比如应用是通过网络来传输 Java 类的字节码,为保证安全性,这些字节码经过了加密处理,这时系统类加载器就无法对其进行加载,此时就需要我们自定义类加载器。

而需要自定义类加载器,就需要了解几个API:

package java.lang;


public abstract class ClassLoader {

    /**
     * 类加载的入口,提供双亲委派机制,调用了 findClass(String name)
     */
    protected Class<?> loadClass(String name, boolean resolve) {
        // .............
    }
    
    /**
     * 由类加载器子类实现获取二进制数据,
     * 调用 defineClass(String name, byte[] b, int off, int len) 如:URLClassLoader 会根据文件路径获取类文件中的二进制数据
     */
	protected Class<?> findClass(String name) {
        throw new ClassNotFoundException(name);
    }
}


/**
 * 做一些类名的校验,然后调用虚拟机底层的方法将字节码信息加载到虚拟机内存中
 */
protected final Class<?> defineClass(String name, byte[] b, int off, int len){
    // .........
}


/**
 * 执行类生命周期中的连接阶段
 */
protected final void resolveClass(Class<?> c){
    // .........
}

从上对 loadClass 方法来分析来看:想要自定义类加载器,那么继承 ClassLoader 类,重写 findClass() 即可,示例如下:

JDK1.2之前是重写loadClass方法,但JDK1.2之后就建议自定义类加载器最好重写findClass方法而不要重写loadClass方法,因为这样容易破坏双亲委托模式。

package com.zixieqing;

import java.io.*;

/**
 * <p>
 * 自定义类加载器:核心在于对字节码文件的获取
 * </p>
 *
 * <p>@author     : ZiXieqing</p>
 */

public class MyClassLoader extends ClassLoader {

    private String root;

    @Override
    protected Class<?> findClass(String name) throws ClassNotFoundException {
        // 获取二进制数据
        byte[] ClassData = loadClassData(name);

        if (ClassData == null) {
            throw new ClassNotFoundException();
        } else {
            // 校验,将字节码信息加载进虚拟机内存
            return defineClass(name, ClassData, 0, ClassData.length);
        }
    }

    /**
     * 加载二进制数据
     * @param className Class全限定名
     */
    private byte[] loadClassData(String className) {

        // 得到Class字节码文件名
        String fileName = root + File.separatorChar + className.replace('.', File.separatorChar) + ".Class";

        try {
            InputStream ins = new FileInputStream(fileName);
            ByteArrayOutputStream baos = new ByteArrayOutputStream();
            int bufferSize = 1024;
            byte[] buffer = new byte[bufferSize];
            int length = 0;
            while ((length = ins.read(buffer)) != -1) {
                baos.write(buffer, 0, length);
            }
            return baos.toByteArray();
        } catch (IOException e) {
            e.printStackTrace();
        }
        return null;
    }

    public void setRoot(String root) {
        this.root = root;
    }

    public static void main(String[] args) throws ClassNotFoundException {

        MyClassLoader myClassLoader = new MyClassLoader();
        // 设置此类加载器的加载目录
        myClassLoader.setRoot("E:\\lib\\");

        // 要加载哪个类
        // 传递的文件名是类的全限定名,以 "." 隔开,因为 defineClass() 是按这种格式进行处理的
        Class<?> testClass = myClassLoader.loadClass("com.zixq.FindClassLoader");
        System.out.println(testClass.getClassLoader());
        System.out.println(testClass.getClassLoader().getParent());
    }
}

结果如下:

om.zixieqing.MyClassLoader@1b6d3586
sun.misc.Launcher$AppClassLoader@18b4aac2
  1. 问题:
    自定义类加载器父类怎么是AppClassLoader

以Jdk8为例,ClassLoader类中提供了构造方法设置parent的内容:

image-20231109146666668395

这个构造方法由另外一个构造方法调用,其中父类加载器由getSystemClassLoader方法设置,该方法返回的是AppClassLoader。

image-20231109145801435

  1. 问题:
    两个自定义类加载器加载相同限定名的类,会不会冲突?

不会冲突,在同一个Java虚拟机中,只有“相同类加载器+相同的类限定名”才会被认为是同一个类。

# 在Arthas中使用下列方式查看具体的情况
sc –d 类的全限定名

Java9之后的类加载器

JDK8及之前的版本中,扩展类加载器和应用程序类加载器的源码位于rt.jar包中的s
un.misc.Launcher.java

image-20231109202530496

DK9引入了module的概念,类加载器在设计上发生了变化:

  1. 启动类加载器使用Java编写,位于
    jdk.internal.loader.ClassLoaders
    类中。

Java中的BootClassLoader继承自BuiltinClassLoader实现从模块中找到要加载的字节码资源文件。

启动类加载器依然无法通过Java代码获取到,返回的仍然是null,保持了统一。

  1. 扩展类加载器被替换成了平台类加载器(Platform Class Loader)。

平台类加载器遵循模块化方式加载字节码文件,所以继承关系从URLClassLoader变成了BuiltinClassLoader,BuiltinClassLoader实现了从模块中加载字节码文件。平台类加载器的存在更多的是为了与老版本的设计方案兼容,自身没有特殊的逻辑。

连接

image-20231109171701801

验证:验证被加载的类是否满足Java虚拟机规范

验证是连接阶段的第一步,这一阶段的目的是为了确保Class文件的字节流中包含的信息遵守《Java虚拟机规范》中的约束,并且不会危害虚拟机自身的安全。

这个阶段一般不需要程序员参与
。验证阶段大致会完成4个阶段的检验动作:

  • 文件格式验证
    ::验证字节流是否符合Class文件格式的规范;例如: 是否以
    0xCAFEBABE
    开头、主次版本号是否在当前虚拟机的处理范围之内、常量池中的常量是否有不被支持的类型
  • 元数据验证
    ::对字节码描述的信息进行语义分析(注意: 对比
    Javac
    编译阶段的语义分析),以保证其描述的信息符合Java语言规范的要求;例如: 这个类是否有父类,除了
    Java.lang.Object
    之外
  • 字节码验证
    ::通过数据流和控制流分析,确定程序语义是合法的、符合逻辑的
  • 符号引用验证
    :确保解析动作能正确执行

验证阶段是非常重要的,但不是必须的,它对程序运行期没有影响,

如果所引用的类经过反复验证,那么可以考虑采用
-Xverifynone
参数来关闭大部分的类验证措施,以缩短虚拟机类加载的时间

准备:为静态变量分配内存 并 为其设置默认值

准备阶段是为静态变量(static)分配内存并设置默认值。
这些内存都将在方法区中分配

对于该阶段有以下几点需要注意:

  1. 这时候进行内存分配的
    仅包括静态变量( static )
    ,而不包括实例变量,实例变量会在对象实例化时随着对象一块分配在Java堆中。
  2. 这里所设置的默认值通常情况下是数据类型默认的零值,而不是在Java代码中被显式地赋予的值。
数据类型 默认值
byte 0
short 0
int 0
long 0L
boolean false
double 0.0
char ‘\u0000’
引用数据类型 null
  • 对基本数据类型来说,静态变量(static)和全局变量,如果不显式地对其赋值而直接使用,则系统会为其赋予默认的零值;而对于局部变量来说,在使用前必须显式地为其赋值,否则编译时不通过。
  • 只被
    final
    修饰的常量则既可以在声明时显式地为其赋值,也可以在类初始化时显式地为其赋值,总之,在使用前必须为其显式地赋值,系统不会为其赋予默认零值。
  • 同时被
    static

    final
    修饰的基本数据类型的常量,准备阶段直接会将代码中的值进行赋值(即必须在声明的时候就为其显式地赋值,否则编译时不通过)。

image-20231109181449857

解析:将常量池中的符号引用 替换为 指向内存的直接引用

解析阶段主要是将常量池中的符号引用替换为直接引用。

解析动作主要针对


接口

字段

类方法

接口方法

方法类型

方法句柄

调用点
限定符7类符号引。

符号引用就是在字节码文件中使用编号来访问常量池中的内容。

image-20231109183303764

直接引用不在使用编号,而是使用内存中地址进行访问具体的数据。

image-20231109183445217

初始化:为类的静态变量赋正确值,对类进行初始化

初始化:为类的静态变量赋予正确的初始值,JVM负责对类进行初始化(主要对类变量进行初始化)。

初始化阶段会执行字节码文件中
clinit
(若是有)部分的字节码指令。clinit就是class init,即类构造方法,此类构造方法不是我们说的构造方法,不是一回事。

image-20231109201248802

clinit
指令在特定情况下不会出现

注:

  1. 子类的初始化clinit调用之前,会先调用父类的clinit初始化方法。
  2. 虚拟机会保证一个类的clinit方法在多线程下被同步加锁,即一个类的clinit方法只会被加载一次。
  1. 无静态代码块且无静态变量赋值语句。
  2. 有静态变量的声明,但是没有赋值语句。
  3. 静态变量的定义使用final关键字,这类变量会在准备阶段直接进行初始化。

在Java中对类变量进行初始值设定有两种方式

  • 声明类变量时指定初始值
  • 使用静态代码块为类变量指定初始值

JVM初始化步骤:

  1. 若这个类还没有被加载和连接,则程序先加载并连接该类。
  2. 若该类的父类还没有被初始化,则先初始化其父类。
  3. 若类中有初始化语句,则系统依次执行这些初始化语句。

关于第3点:原因是在链接阶段的准备中,已经将静态变量加载到内存中了,只是初始值是数据类型的默认值而已,而这里初始化就是重新赋正确值,而这顺序就按代码顺序赋值。

如下图,虚拟机指令是按顺序执行初始化语句

image-20231109205004723

类初始化时机
:只有当对类的主动使用的时候才会导致类的初始化。类的主动使用包括以下六种:

添加
-XX:+TraceClassLoading
虚拟机参数可以打印出加载并初始化的类。

  1. 创建类的对象,也就是new的方式。
  2. 访问某个类或接口的静态变量,或者对该静态变量赋值。注:变量是
    final
    修饰且等号右边是常量不会触发初始化。
/**
 * 变量是 final 修饰且等号右边是常量不会触发初始化
 */

public class Initialization {
    public static final int value = 8;

    static {
        System.out.println("Initialization类被初始化了");
    }
}

class Test {
    public static void main(String[] args) {
        System.out.println(Initialization.value);
    }
}
  1. 调用类的静态方法。
  2. 反射。如:
    Class.forName("com.zixieqing.JVM.Test"))
    。若使用的是下面这个API,则是否初始化取决于程序员。
public static Class<?> forName(String name, boolean initialize, ClassLoader loader) {
    
}
  1. 初始化某个类的子类,则其父类也会被初始化。
  2. Java虚拟机启动时被标明为启动类的类,直接使用
    Java.exe
    命令来运行某个主类。

使用

类访问方法区内的数据结构的接口, 对象是Heap(堆)区的数据。

卸载

这个玩意儿在垃圾回收还会整。

Java虚拟机将结束生命周期的几种情况:

  • 调用 Runtime 类或 system 类的 exit 方法,或 Runtime 类的 halt 方法,并且 Java 安全管理器也允许这次 exit 或 halt 操作。
  • 程序正常执行结束。
  • 程序在执行过程中遇到了异常或错误而异常终止。
  • 由于操作系统出现错误而导致Java虚拟机进程终止。

JVM内存结构

注:不要和Java内存模型混淆了。

运行时数据区

Java虚拟机在运行Java程序过程中管理的内存区域,称之为运行时数据区

Java 虚拟机定义了若干种程序运行期间会使用到的运行时数据区,其中有一些会随着虚拟机启动而创建,随着虚拟机退出而销毁,另外一些则是与线程一 一对应的,这些与线程一 一对应的数据区域会随着线程开始和结束而创建和销毁。

线程不共享:

  • 程序计数器
  • 本地方法栈
  • Java虚拟机栈

线程共享:

  • 方法区

image-20236666660204142543

程序计数器

程序计数器(
Program Counter Register
)也叫
PC
寄存器,
用来存储指向下一条字节码指令的地址,即将要执行的指令代码由执行引擎读取下一条指令

  1. 程序计数器是唯一 一个在 JVM 规范中没有规定任何 内存溢出(
    OutOfMemoryError
    )情况的区域

内存溢出:
指的是程序在使用某一块内存区域时,存放的数据需要占用的内存大小超过了虚拟机能提供的内存上限。

  • 因为每个线程只存储一个固定长度的内存地址,所以程序计数器是不会发生内存溢出的。 因此:
    程序员无需对程序计数器做任何处
  1. 在 JVM 规范中,每个线程都有它自己的程序计数器,是线程私有的,生命周期与线程的生命周期一致
  2. 程序计数器是一块很小的内存空间,几乎可以忽略不计,也是运行速度最快的存储区域。
  3. 分支、循环、跳转、异常处理、线程恢复等基础功能都需要依赖这个计数器来完成。

如:分支、跳转

image-20236666662142205561

  1. JVM 中的 PC 寄存器是对物理 PC 寄存器的一种抽象模拟

接下来结合图理解一下程序计数器。

在加载阶段,虚拟机将字节码文件中的指令读取到内存之后,会将原文件中的偏移量转换成内存地址。每一条字节码指令都会拥有一个内存地址。

image-20236666662134532805

在代码执行过程中,程序计数器会记录下一行字节码指令的地址。执行完当前指令之后,虚拟机的执行引擎根据程序计数器执行下一行指令。

注:
如果当前线程正在执行的是 Java 方法,程序计数器记录的是 JVM 字节码指令地址,如果是执行 native 方法,则是未指定值(undefined)。

image-20236666662134852723

  1. 问题:
    使用程序计数器存储字节码指令地址有什么用?为什么使用程序计数器记录当前线程的执行地址?

因为CPU需要不停的切换各个线程,当切换回来以后,就得知道接着从哪开始继续执行,JVM的字节码解释器就需要通过改变程序计数器的值来明确下一条应该执行什么样的字节码指令。

  1. 问题:
    程序计数器为什么会被设定为线程私有的?

多线程在一个特定的时间段内只会执行其中某一个线程方法,CPU会不停的做任务切换,这样必然会导致经常中断或恢复。为了能够准确的记录各个线程正在执行的当前字节码指令地址,所以为每个线程都分配了一个程序计数器,每个线程都独立计算,不会互相影响。

栈内存:Java虚拟机栈 与 本地方法栈

栈即先进后出(First In Last Out),是一种快速有效的分配存储方式,访问速度仅次于程序计数器.

栈不存在垃圾回收问题

Java虚拟机栈(JVM Stack)

Java
虚拟机栈(Java Virtual Machine Stack),早期也叫 Java 栈。采用

的数据结构来管理方法调用中的基本数据。

每个线程在创建的时候都会创建一个虚拟机栈,其内部保存一个个的
栈帧(Stack Frame)
,每一个Java方法的调用都使用一个栈帧来保存。

  1. Java虚拟机栈主管 Java 程序的运行,它保存方法的局部变量、部分结果,并参与方法的调用和返回。
  2. Java虚拟机栈是线程私有的,生命周期和线程一致
  3. JVM 直接对虚拟机栈的操作只有两个:方法的入栈(方法的执行) 与 出栈(方法的结束)。

image-20236666662165137448

  1. Java虚拟机栈如果栈帧过多,占用内存超过栈内存可以分配的最大大小就
    会出现内存溢出
    (内存溢出会出现
    StackOverflowError
    错误)。
package com.zixieqing.runtime_data_area.stack;

/**
 * <p>
 * JVM内存结构:运行时数据区之Java虚拟机栈
 * </p>
 *
 * <p>@author : ZiXieqing</p>
 */

public class JVM_Stack {

    /**
     * 计数器:得到当前系统的栈帧大小
     */
    private static int count = 0;

    public static void main(String[] args) {
        stackOverFlowTest();
    }

    /**
     * <p>
     * 1、测试Java虚拟机栈是否会内存溢出
     * </p>
     */
    public static void stackOverFlowTest() {
        System.out.println(++count);
        stackOverFlowTest();
    }
}



// 结果
10710
Exception in thread "main" java.lang.StackOverflowError
  • Java虚拟机栈默认大小
    :如果我们不指定栈的大小,JVM 将创建一个具有默认大小的栈。大小取决于操作系统和计算机的体系结构。
Linux
		x86(64位):1MB
		
Windows
		基于操作系统默认值
		
BSD
		x86(64位):1MB
		
Solarls
		64位:1MB
  • 自己设置栈大小
    :使用虚拟机参数
    -Xss栈大小

注:
HotSpot Java虚拟机对栈大小的最大值和最小值有要求

  • Windows(64位)下的JDK8最小值为180k,最大值为1024m

一般情况下,工作中栈的深度最多也只能到几百,不会出现栈的溢出。所以此参数可以手动指定为
-Xss256k
节省内存。

参数含义:设置线程的最大栈空间

语法:-Xss栈大小

单位:字节(默认,必须是 1024 的倍数)、k或者K(KB)、m或者M(MB)、g或者G(GB)。示例如下:
	-Xss1048576 
    -Xss1024K 
    -Xss1m
    -Xss1g



与 -Xss 类似,也可以使用 -XX:ThreadStackSize 来配置栈大小。

	格式为: -XX:ThreadStackSize=1024

由前面内容知道:每个线程在创建的时候都会创建一个虚拟机栈,其内部保存一个个的
栈帧(Stack Frame)
,这些栈帧对应着一个个方法的调用,那栈帧组成又是怎么样的?

栈帧的组成

每个
栈帧
(Stack Frame)中存储着:

  1. 局部变量表(Local Variables)
    :局部变量表的作用是在运行过程中存放所有的局部变量。
  2. 操作数栈(Operand Stack)
    :操作数栈是栈帧中虚拟机在执行指令过程中用来存放临时数据的一块区域。
  3. 帧数据(Frame Data)
    :帧数据主要包含动态链接、方法出口、异常表的引用。
  • 动态链接(Dynamic Linking)
    :当前类的字节码指令引用了其他类的属性或者方法时,需要将符号引用(编号)转换成对应的运行时常量池中的内存地址。
    动态链接就保存了编号(符号引用)到 运行时常量池的内存地址 的映射关系
  • 方法返回地址 / 方法出口(Return Address)
    :方法在正确或者异常结束时,当前栈帧会被弹出,同时程序计数器应该指向上一个栈帧中的下一条指令的地址。所以在当前栈帧中,需要存储此方法出口的地址。
  • 一些附加信息:栈帧中还允许携带与 Java 虚拟机实现相关的一些附加信息,例如,对程序调试提供支持的信息,但这些信息取决于具体的虚拟机实现,所以在这里不说明这玩意儿。
局部变量表(Local Variables)

局部变量表也被称为局部变量数组或者本地变量表。

局部变量表的作用是在方法执行过程中存放所有的局部变量
。编译成字节码文件时就可以确定局部变量表的内容。

局部变量表中保存的是:实例方法的this对象,方法的参数,方法体中声明的局部变量

  1. 栈帧中的局部变量表是一个数组,数组中每一个位置称之为槽(slot),long和double类型占用两个槽,其他类型占用一个槽。

byte、short、char 在存储前被转换为int;

boolean也被转换为int,0 表示 false,非 0 表示 true。

image-20236666662205003404

栈帧中的局部变量表是咋样的?数组咯,每个索引位置就是一个槽(Slot)

image-20236666662205501841

插入一个与此相关的内容:Java中的8大数据类型在虚拟机中的实现。

image-20240124212945092

  • 问题:boolean、byte、char、short在栈上是不是存在空间浪费?

是的,Java虚拟机采用的是空间换时间方案,在栈上不存储具体的类型,只根据slot槽进行数据的处理,浪费了一些内存空间但是避免不同数据类型不同处理方式带来的时间开销。

同时,像long型在64位系统中占用2个slot,使用了16字节空间,但实际上在Hotspot虚拟机中,它的高8个字节没有使用,这样就满足了long型使用8个字节的需要。

  1. 如果当前帧是由构造方法或实例方法创建的,那么该对象引用 this 将会存放在 index 为 0 的 Slot 处,其余的参数按照参数表顺序继续排列

因为实例方法需要先拿到实例对象,即代码首行有个隐藏的this,它去搞对象了。

image-20236666662210400680

  1. 为了节省空间,
    局部变量表中的槽(Slot)是可以被复用的
    。一旦某个局部变量不再生效,当前槽就可以再次被使用。

image-20236666662212102143

操作数栈(Operand Stack)

操作数栈:是栈帧中虚拟机在执行指令过程中用来存放中间数据的一块区域
。如果一条指令将一个值压入操作数栈,则后面的指令可以弹出并使用该值。

  • PS:这种栈也是先进后出。
  1. 操作数栈,在方法执行过程中,根据字节码指令,往操作数栈中写入数据或提取数据,即入栈(push)、出栈(pop)

  2. 如果被调用的方法带有返回值的话,其返回值将会被压入当前栈帧的操作数栈中
    ,并更新 PC 寄存器中下一条需要执行的字节码指令。

  3. 所谓的
    Java虚拟机的解释引擎是基于栈的执行引擎
    ,其中的栈指的就是操作数栈。

  4. 每一个操作数栈在编译期就已经确定好了其所需的最大深度
    ,从而在执行时正确的分配内存大小。

image-20236666662220641722

那这个所需的最大深度是怎么确定的?

编译器模拟对应的字节码指令执行过程,在这个过程中最多可以存放几个数据,这个最多存放多少个数据就是操作数栈所需的最大深度。

如下图,共出现了0和1这两个数据,所以操作数栈的最大深度就是2。

操作数栈最大深度的确定 + 操作数栈的入栈、出栈

另一个小知识点:栈顶缓存(Top-of-stack-Cashing)

HotSpot 的执行引擎采用的并非是基于寄存器的架构,但这并不代表 HotSpot VM 的实现并没有间接利用到寄存器资源,寄存器是物理 CPU 中的组成部分之一,它同时也是 CPU 中非常重要的高速存储资源。一般来说,寄存器的读/写速度非常迅速,甚至可以比内存的读/写速度快上几十倍不止,不过寄存器资源却非常有限,不同平台下的CPU 寄存器数量是不同和不规律的。寄存器主要用于缓存本地机器指令、数值和下一条需要被执行的指令地址等数据

基于栈式架构的虚拟机所使用的零地址指令更加紧凑,但完成一项操作的时候必然需要使用更多的入栈和出栈指令,这同时也就意味着将需要更多的指令分派(instruction dispatch)次数和内存读/写次数,由于操作数是存储在内存中的,因此频繁的执行内存读/写操作必然会影响执行速度。为了解决这个问题,HotSpot JVM 设计者们提出了
栈顶缓存技术,将栈顶元素全部缓存在物理 CPU 的寄存器中,以此降低对内存的读/写次数,提升执行引擎的执行效率

帧数据(Frame Data)
  1. 动态链接(Dynamic Linking)
    :当前类的字节码指令引用了其他类的属性或者方法时,需要将符号引用(编号)转换成对应的运行时常量池中的内存地址。
    动态链接就保存了编号(符号引用)到 运行时常量池的内存地址 的映射关系

image-20236666663144512701

JVM 是如何执行方法调用的?

方法调用不同于方法执行,方法调用阶段的唯一任务就是确定被调用方法的版本(即调用哪一个方法),暂时还不涉及方法内部的具体运行过程,Class 文件的编译过程中不包括传统编译器中的连接步骤,一切方法调用在 Class文件里面存储的都是
符号引用
,而不是方法在实际运行时内存布局中的入口地址(
直接引用
),也就是需要在类加载阶段,甚至到运行期才能确定目标方法的直接引用。

在 JVM 中,将符号引用转换为调用方法的直接引用与方法的绑定机制有关

  • 静态链接
    :当一个字节码文件被装载进 JVM 内部时,如果被调用的
    目标方法在编译期可知,且运行期保持不变时
    ,这种情况下将调用方法的符号引用转换为直接引用的过程称之为静态链接。
  • 动态链接
    :如果
    被调用的方法在编译期无法被确定下来
    ,也就是说,只能在程序运行期将调用方法的符号引用转换为直接引用,由于这种引用转换过程具备动态性,因此也就被称之为动态链接。

对应的方法的绑定机制为:早期绑定(Early Binding)和晚期绑定(Late Binding)。

绑定是一个字段、方法或者类在符号引用被替换为直接引用的过程,这仅仅发生一次

  • 早期绑定

    指被调用的目标方法如果在编译期可知,且运行期保持不变时
    ,即可将这个方法与所属的类型进行绑定,这样一来,由于明确了被调用的目标方法究竟是哪一个,因此也就可以使用静态链接的方式将符号引用转换为直接引用。
  • 晚期绑定
    :如果
    被调用的方法在编译器无法被确定下来
    ,只能够在程序运行期根据实际的类型绑定相关的方法,这种绑定方式就被称为晚期绑定。

虚方法与非虚方法

  • 非虚方法:指的是方法在编译器就确定了具体的调用版本,这个版本在运行时是不可变的
    ,如静态方法、私有方法、final 方法、实例构造器、父类方法都是非虚方法。
  • 其他方法称为虚方法。
  1. 方法返回地址 / 方法出口(Return Address):方法在正确或者异常结束时,当前栈帧会被弹出,同时程序计数器应该指向上一个栈帧中的下一条指令的地址。所以在当前栈帧中,存放的这条指令地址就是方法出口地址

本质上,
方法的结束就是当前栈帧出栈的过程
,此时,需要恢复上层方法的局部变量表、操作数栈、将返回值压入调用者栈帧的操作数栈、设置PC寄存器值等,让调用者方法继续执行下去

细节说明一下:

  • 方法正常退出时
    ,调用该方法的指令的下一条指令的地址即为返回地址。

一个方法的正常调用完成之后,究竟需要使用哪一个返回指令,还需要根据方法返回值的实际数据类型而定。

返回类型 返回指令
void、类和接口的初始化方法 return
int (boolean、byte、char、short) ireturn
long lreturn
float freturn
double dreturn
reference areturn
  • 方法通过异常退出的
    ,返回地址是要通过异常表来确定的,栈帧中一般不会保存这部分信息。

在方法执行的过程中遇到了异常,并且这个异常没有在方法内进行处理,也就是只要在本方法的异常表中没有搜索到匹配的异常处理器,就会导致方法退出,简称
异常完成出口

方法执行过程中抛出异常时的异常处理,存储在一个异常处理表,方便在发生异常的时候找到处理异常的代码。

上述内容说到了“异常表”,也顺便解释一下这个东西

异常表:存放的是代码中异常的处理信息,包含了异常捕获的生效范围以及异常发生后跳转到的字节码指令位置

image-20236666663161321037

程序运行中触发异常时,Java 虚拟机会从上至下遍历异常表中的所有条目。当触发异常的字节码的索引值在某个异常表条目的监控范围内,Java 虚拟机会判断所抛出的异常和该条目想要捕获的异常是否匹配。

  • 如果匹配,跳转到“跳转PC”对应的字节码位置。
  • 如果遍历完都不能匹配,说明异常无法在当前方法执行时被捕获,此方法栈帧直接弹出,在上一层的栈帧中进行异常捕获的查询。

多个catch分支情况下(multi-catch的写法也一样),异常表会从上往下遍历,先捕获RuntimeException,如果捕获不了,再捕获Exception。

finally的处理方式

  • finally中的字节码指令会插入到try 和 catch代码块中,保证在try和catch执行之后一定会执行finally中的代码。

image-20240126152740285

  • 如果抛出的异常范围超过了Exception,比如Error或者Throwable,此时也要执行finally,所以异常表中增加了两个条目。覆盖了try和catch两段字节码指令的范围,
    any
    代表可以捕获所有种类的异常。

image-20240126153122051
image-20240126153219055

本地方法栈(Native Method Stack)

Java虚拟机栈存储了Java方法调用时的栈帧,而
本地方法栈存储的是native本地方法的栈帧

它的具体做法是
Native Method Stack
中登记 native 方法,在
Execution Engine
执行时加载本地方法库,当某个线程调用一个本地方法时,它就进入了一个全新的并且不再受虚拟机限制的世界,它和虚拟机拥有同样的权限。

本地方法栈也是线程私有的。也会发生内存溢出

  • 果线程请求分配的栈容量超过本地方法栈允许的最大容量,Java 虚拟机将会抛出一个
    StackOverflowError
    异常
  • 如果本地方法栈可以动态扩展,并且在尝试扩展的时候无法申请到足够的内存,或者在创建新的线程时没有足够的内存去创建对应的本地方法栈,那么 Java虚拟机将会抛出一个
    OutofMemoryError
    异常
  1. 在Hotspot虚拟机中,Java虚拟机栈和本地方法栈实现上使用了同一个栈空间,即
    在 Hotspot JVM 中,直接将本地方法栈和虚拟机栈合二为一了

  2. 本地方法栈会在栈内存上生成一个栈帧,临时保存方法的参数同时方便出现异常时也把本地方法的栈信息打印出来。

image-20236666663164905329

package com.zixieqing.runtime_data_area.stack;

import java.io.FileNotFoundException;
import java.io.FileOutputStream;
import java.io.IOException;

/**
 * <p>
 * JVM -> 运行时数据区 -> 本地方法栈
 * </p>
 *
 * <p>@author : ZiXieqing</p>
 */

public class NativeMethodStack {
    public static void main(String[] args) {
        try {
            // 这里并没有F盘
            FileOutputStream fos = new FileOutputStream("F:\\zixq.txt");
            fos.write(2);
        } catch (FileNotFoundException e) {
            e.printStackTrace();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}


// 结果
java.io.FileNotFoundException: F:\zixq.txt (系统找不到指定的路径。)
	at java.io.FileOutputStream.open0(Native Method)		// 这里就把Native方法信息也打印出来了
	at java.io.FileOutputStream.open(FileOutputStream.java:270)
	at java.io.FileOutputStream.<init>(FileOutputStream.java:213)
	at java.io.FileOutputStream.<init>(FileOutputStream.java:101)
	at com.zixieqing.runtime_data_area.stack.NativeMethodStack.main(NativeMethodStack.java:20)
  1. 本地方法可以通过本地方法接口来访问虚拟机内部的运行时数据区,它甚至可以直接使用本地处理器中的寄存器,直接从本地内存的堆中分配任意数量的内存。
  2. 并不是所有 JVM 都支持本地方法,因为 Java 虚拟机规范并没有明确要求本地方法栈的使用语言、具体实现方式、数据结构等,如果 JVM 产品不打算支持 native 方法,也可以无需实现本地方法栈。

堆区(Heap Area)

栈是运行时的单位,而堆是存储的单位

  • 栈解决的是程序的运行问题,即程序如何执行,或者说如何处理数据。
  • 堆解决的是数据存储的问题,即数据怎么放、放在哪。

一般Java程序中堆内存是空间最大的一块内存区域。
创建出来的对象都存在于堆上。几乎所有的对象实例以及数据都在这里分配内存。

被所有线程共享,会发生内存溢出

  • 栈上的局部变量表中,可以存放堆上对象的引用。静态变量也可以存放堆对象的引用,通过静态变量就可以实

    现对象在线程之间共享。

image-20236666663231643098

  • Java 虚拟机规范规定,Java 堆可以是处于物理上不连续的内存空间中,只要逻辑上是连续的即可
  • 堆的大小可以是固定大小,也可以是可扩展的,主流虚拟机都是可扩展的(通过
    -Xmx

    -Xms
    控制)。
  • 如果堆中没有完成实例分配,并且堆无法再扩展时,就会抛出
    OutOfMemoryError
    异常

堆内存溢出模拟

import java.util.ArrayList;

/**
 * <p>
 * 模拟堆内存溢出
 * </p>
 *
 * <p>@author : ZiXieqing</p>
 */

public class OutOfMemoryTest {

    private static ArrayList<Object> list = new ArrayList<>();

    public static void main(String[] args) {
        while (true) {
            list.add(new byte[1024 * 1024 * 10]);
        }
    }
}


// 结果
Exception in thread "main" java.lang.OutOfMemoryError: Java heap space
	at com.zixieqing.runtime_data_area.heap.OutOfMemoryTest.main(OutOfMemoryTest.java:20)

为了进行高效的垃圾回收(及GC后续说明),虚拟机把堆内存
逻辑上
划分成三块区域(分代的唯一理由就是优化 GC 性能):

JDK7

根据JDK版本不同,也可以说是两块区域,往下看就会了解。

  1. 新生代 / 年轻代 (Young Generation)
    :新对象和没达到一定年龄的对象都在新生代。

年轻代是所有新对象创建的地方。当填充年轻代时,执行垃圾收集,这种垃圾收集称为
Minor GC

年轻代被分为三个部分——伊甸园(
Eden Memory
,伊甸园-上帝创造夏娃)和两个幸存区(
Survivor Memory
,被称为 from / to 或 s0 / s1),默认比例是
8:1:1
,这个比例可以通过
-XX:SurvivorRatio
来配置。

  • 大多数新创建的对象都位于 Eden 内存空间中。
  • 当 Eden 空间被对象填充时,执行
    Minor GC
    ,并将所有幸存者对象移动到一个幸存者空间中。
  • Minor GC 检查幸存者对象,并将它们移动到另一个幸存者空间。所以每次,一个幸存者空间总是空的。
  • 经过多次 GC 循环后存活下来的对象被移动到老年代。通常,这是通过设置年轻一代对象的年龄阈值来实现的,然后他们才有资格提升到老一代。
  1. 老年代 / 养老区 (Old Generation)
    :被长时间使用的对象,老年代的内存空间比年轻代更大(因大部分对象都是创建出来之后就使用了,之后就不再使用了,就可以回收了。如:自己封装的对象-获取订单到返回订单就基本上不用了)。

旧的一代内存包含那些经过许多轮小型 GC 后仍然存活的对象。通常,垃圾收集是在老年代内存满时执行的。老年代垃圾收集称为 主GC(Major GC),通常需要更长的时间。

大对象直接进入老年代(大对象是指需要大量连续内存空间的对象),这样做的目的是避免在 Eden 区和两个Survivor 区之间发生大量的内存拷贝。

默认情况下新生代和老年代的比例是 1:2,可以通过
–XX:NewRatio
来配置。

若在 JDK 7 中开启了
-XX:+UseAdaptiveSizePolicy
,JVM 会动态调整 JVM 堆中各个区域的大小以及进入老年代的年龄,此时
–XX:NewRatio

-XX:SurvivorRatio
将会失效,而 JDK 8 是默认开启
-XX:+UseAdaptiveSizePolicy

在 JDK 8中,
不要随意关闭
-XX:+UseAdaptiveSizePolicy
,除非对堆内存的划分有明确的规划。

  1. 元空间(Meta Space) / 永久代(Permanent-Generation)
    :JDK1.8前是永久代,JDK1.8及之后是元空间。JDK1.8 之前是占用 JVM 内存,JDK1.8 之后直接使用物理 / 直接内存。

不管是 JDK8 之前的
永久代
,还是 JDK8 及之后的
元空间

都是 Java 虚拟机规范中方法区的实现
。因此:这点内容在这里不多说明,到后面方法区再进行说明。

对象在堆中的生命周期

  1. 在 JVM 内存模型的堆中,堆被划分为新生代和老年代
    • 新生代又被进一步划分为
      Eden区

      Survivor区
      ,Survivor 区由
      From Survivor

      To Survivor
      组成
  2. 当创建一个对象时,对象会被优先分配到新生代的 Eden 区
    • 此时 JVM 会给对象定义一个
      对象年龄计数器

      -XX:MaxTenuringThreshold
  3. 当 Eden 空间不足时,JVM 将执行新生代的垃圾回收(Minor GC)
    • JVM 会把存活的对象转移到 Survivor 中,并且对象年龄 +1
    • 对象在 Survivor 中同样也会经历 Minor GC,每经历一次 Minor GC,对象年龄都会+1
  4. 如果分配的对象超过了
    -XX:PetenureSizeThreshold
    ,对象会
    直接被分配到老年代

对象的分配过程

涉及的内容对于初识JVM的人有点超纲,后续会慢慢了解。

为对象分配内存是一件非常严谨和复杂的任务,JVM 的设计者们不仅需要考虑内存如何分配、在哪里分配等问题,并且由于内存分配算法和内存回收算法密切相关,所以还需要考虑 GC 执行完内存回收后是否会在内存空间中产生内存碎片。

  1. new 的对象先放在伊甸园区,此区有大小限制。
  2. 当伊甸园的空间填满时,程序又需要创建对象,JVM 的垃圾回收器将对伊甸园区进行垃圾回收(Minor GC),将伊甸园区中不再被其他对象所引用的对象进行销毁,再加载新的对象放到伊甸园区。
  3. 然后将伊甸园中的剩余对象移动到幸存者 0 区。
  4. 如果再次触发垃圾回收,此时上次幸存下来的放到幸存者 0 区,如果没有被回收,就会放到幸存者 1 区。
  5. 如果再次经历垃圾回收,此时会重新放回幸存者 0 区,接着再去幸存者 1 区。
  6. 什么时候才会去养老区呢? 默认是 15 次回收标记。
  7. 在养老区,相对悠闲,当养老区内存不足时,触发 Major GC,进行养老区的内存清理。
  8. 若养老区执行了 Major GC 之后发现依然无法进行对象的保存,就会产生 OOM 异常。

堆内存三个值:used、total、max

used
:指的是
当前已使用的堆内存

total
:指的是Java虚拟机
已经分配的可用堆内存

max
:指的是Java虚拟机可以
分配的最大堆内存

image-20236666664202838913

Arthas中堆内存相关的功能

  1. 堆内存used total max三个值可以通过dashboard命令看到
手动指定刷新频率(不指定默认5秒一次):dashboard –i 刷新频率(毫秒)

要是只想看内存栏的数据,可以直接使用指令:memory
package com.zixieqing.runtime_data_area.heap;

import java.io.IOException;
import java.util.ArrayList;

/**
 * <p>
 * Arthas中堆内存的相关功能
 * </p>
 *
 * <p>@author : ZiXieqing</p>
 */

public class Arthas_Heap {

    public static void main(String[] args) throws IOException, InterruptedException {

        ArrayList<Object> list = new ArrayList<>();
        
        System.in.read();

        while (true) {
            list.add(new byte[1024 * 1024 * 100]);
        }
    }
}

image-20236666664203712309

  1. 随着堆中的对象增多,当total可以使用的内存即将不足时,Java虚拟机会继续分配内存给堆

image-20236666664204015965

  1. 如果堆内存不足,Java虚拟机就会不断的分配内存,total值会变大。
    total最多只能与max相等

image-20236666664204203055

问题:是不是当used = max = total的时候,堆内存就溢出了?

不是
,堆内存溢出的判断条件比较复杂(具体内容需要到后续的垃圾回收相关内容去了解)。

设置堆内存大小

如果不设置任何的虚拟机参数,max默认是系统内存的1/4,total默认是系统内存的1/64

在实际应用中一般都需要设置total和max的值

Oracle官方文档:
https://docs.oracle.com/javase/8/docs/technotes/tools/unix/java.html

要修改堆内存大小,可以使用虚拟机参数 -Xms (初始的total) 和 –Xmx(max最大值)

Java 堆用于存储 Java 对象实例,那么堆的大小在 JVM 启动的时候就确定了,我们可以通过
-Xmx

-Xms
来设定

  • -Xms
    用来表示堆的起始内存,等价于
    -XX:InitialHeapSize
  • -Xmx
    用来表示堆的最大内存,等价于
    -XX:MaxHeapSize

在工作中,这两个值一般配置的都是相同的值

  • 好处:这样在程序启动之后可使用的总内存就是最大内存,而无需向java虚拟机再次申请,减少了申请并分配内存时间上的开销,同时也不会出现内存过剩之后堆收缩的情况。

PS:如果堆的内存大小超过
-Xmx
设定的最大内存, 就会抛出
OutOfMemoryError
异常

语法:-Xmx值 -Xms值

单位:字节(默认,必须是 1024 的倍数)、k或者K(KB)、m或者M(MB)、g或者G(GB)

限制:Xmx必须大于 2 MB,Xms必须大于1MB

示例:
-Xms6291456
-Xms6144k
-Xms6m
-Xmx83886080
-Xmx81920k
-Xmx80m

可以通过代码获取到我们的设置值:

public static void main(String[] args) {

  // 返回 JVM 堆大小
  long initalMemory = Runtime.getRuntime().totalMemory() / 1024 /1024;
  // 返回 JVM 堆的最大内存
  long maxMemory = Runtime.getRuntime().maxMemory() / 1024 /1024;

  System.out.println("-Xms : "+initalMemory + "M");
  System.out.println("-Xmx : "+maxMemory + "M");

  System.out.println("系统内存大小:" + initalMemory * 64 / 1024 + "G");
  System.out.println("系统内存大小:" + maxMemory * 4 / 1024 + "G");
}

拓展点:为什么Arthas中显示的heap堆大小与设置的值不一样?

PS:测试自行在IDEA中设置上面内容的Java虚拟机参数,然后启动Arthas,不断添加对象,在Arthas中输入
memory
参数进行对比查看。

-Xms1g -Xmx1g

image-20236666664211407634

原因:
arthas中
的heap堆内存使用了JMX技术的内存获取方式,这种方式与垃圾回收器有关,
计算的是可以分配对象的内存
,而不是整个内存。

即:虽然设置了多少内存,但有一点内存是不会用到的,也就是JMX技术会把这部分内存去掉,不申请这部分内存,因为这点内存也放不下一个新对象,因此申请了也是浪费。

方法区(Method Area)

方法区只是 JVM 规范中定义的一个概念。并没有规定如何去实现它,不同的厂商有不同的实现。

永久代(PermGen)是 Hotspot 虚拟机特有的概念, Java8 的时候被 元空间
取代了,永久代和元空间方法区的落地实现方式。

方法区是线程共享的,并且也有内存溢出

  • PS:如果方法区域中的内存不能用于满足分配请求,则 Java 虚拟机抛出
    OutOfMemoryError

HotSpot虚拟机中:

  • 永久代是HopSpot虚拟机中才有的概念。
  • JDK1.6及之前,方法区的实现方式是永久代,是在堆区中(运行时常量池[里面的逻辑包含了字符串常量池]、静态变量就存储在这个永久代中)
  • JDK1.7,方法区的实现方式还是永久代,也还在堆区中,但逐步“去永久代”,将字符串常量池、静态变量放到了堆区中(java.lang.Class对象)
  • JDK1.8及之后,取消永久代,方法区的实现方式变为了堆+元空间,元空间位于操作系统维护的直接内存中,默认情况下只要不超过操作系统承受的上限就可以一直分配内存。
    • PS:此时,类型信息、字段、方法、常量保存在元空间中,字符串常量池、静态变量还存储在堆区中(java.lang.Class对象)

Java与直接内存

直接内存(Direct Memory)并不在《Java虚拟机规范》中存在,所以并不属于Java运行时的内存区域。

在 JDK 1.4 中引入了 NIO 机制,使用了直接内存,主要为了解决以下两个问题:

  1. Java堆中的对象如果不再使用要回收,回收时会影响对象的创建和使用。
  2. 以前,IO操作比如读文件,需要先把文件读入直接内存(缓冲区)再把数据复制到Java堆中。现在,直接放入直接内存即可,同时Java堆上维护直接内存的引用,减少了数据复制的开销。写文件也是类似的思路。

image-20236666667222444427

要创建直接内存上的数据,可以使用
java.nio.ByteBuffer

语法:
ByteBuffer directBuffer = ByteBuffer.allocateDirect(size);

注意:也会抛
OutOfMemoryError

package com.zixieqing.runtime_data_area;

import java.io.IOException;
import java.nio.ByteBuffer;
import java.util.ArrayList;
import java.util.List;

/**
 * <p>
 * Java使用直接内存Direct Memory
 * </p>
 *
 * <p>@author : ZiXieqing</p>
 */

public class DirectMemory {

    /**
     * SIZE = 100mb
     */
    private static int SIZE = 1024 * 1025 * 100;

    private static List<ByteBuffer> LIST = new ArrayList<>();

    private static int COUNT = 0;

    public static void main(String[] args) throws IOException, InterruptedException {

        System.in.read();

        while (true) {
            ByteBuffer byteBuffer = ByteBuffer.allocateDirect(SIZE);
            LIST.add(byteBuffer);
            System.out.println("COUNT = " + (++COUNT));
            Thread.sleep(5000);
        }
    }
}

Arthas的memory命令可以查看直接内存大小,属性名direct。

image-20236666667225342871

如果需要手动调整直接内存的大小,可以使用 -XX:MaxDirectMemorySize=大小

单位k或K表示千字节,m或M表示兆字节,g或G表示千兆字节。默认不设置该参数情况下,JVM 自动选择最大分配的大小。示例如下:

-XX:MaxDirectMemorySize=1m
-XX:MaxDirectMemorySize=1024k
-XX:MaxDirectMemorySize=1048576

方法区的内部结构

说的是HotSpot虚拟机,且是JDK1.8及之后。

主要包含三部分内容:

  1. 类的元信息
    :保存所有类的基本信息。一般称之为
    InstanceKlass对象。
    在类的加载阶段完成。这一点就是前面一开始玩的字节码文件内容

image-20236666667170921007

  1. 运行时常量池
    :字节码文件中通过编号查表的方式找到常量,这种常量池称为静态常量池。当常量池加载到内存中之后,可以通过内存地址快速的定位到常量池中的内容,这种常量池称为运行时常量池。

image-20236666667214931503

常量池表(Constant Pool Table)是 Class 文件的一部分,用于存储编译期生成的各种字面量和符号引用,
这部分内容将在类加载后存放到方法区的运行时常量池中

为什么需要常量池?

  • 一个 Java 源文件中的类、接口,编译后产生一个字节码文件。而 Java 中的字节码需要数据支持,通常这种数据会很大以至于不能直接存到字节码里,换另一种方式,可以存到常量池,这个字节码包含了指向常量池的引用。在动态链接的时候用到的就是运行时常量池
  1. 字符串常量池(
    StringTable

    :JDK7后,在堆中,存储在代码中定义的常量字符串内容。比如“123” 这个123就会被放入字符串常量池。

image-20236666667215323048

JDK6中,
String.intern()
方法会把第一次遇到的字符串实例复制到永久代的字符串常量池中,返回的也是永久代里面这个字符串实例的引用。

JDK7及之后中,由于字符串常量池在堆上,所以
String.intern()
方法会把第一次遇到的字符串的引用放入字符串常量池。

如下图:上为JDK6的结果,下为JDK7及之后中的结果

image-20236666667221920037

早期设计时(JDK1.6及之前),字符串常量池是属于运行时常量池的一部分,他们存储的位置也是一致的(堆中的永久代空间),后续做出了调整,大意图如下:

image-20236666667215458355

设置方法区大小

  1. JDK1.7及之前,通过下列参数设置永久代空间大小。
-XX:PermSize=值 和 -xx:MaxPermSize=值
  1. JDK1.8及之后,通过下列参数设置元空间大小。
-XX:MetaspaceSize=值 和 -XX:MaxMetaspaceSize=值
  • 默认值依赖于平台。Windows 下,
    -XX:MetaspaceSize
    是 21M,
    -XX:MaxMetaspacaSize
    的值是 -1,即没有限制。
  • 与永久代不同,如果不指定大小,默认情况下,虚拟机会耗尽所有的可用系统内存。如果元数据发生溢出,虚拟机一样会抛出异常
    OutOfMemoryError:Metaspace
  • -XX:MetaspaceSize
    :到达这个值后触发Full GC。对于一个 64 位的服务器端 JVM 来说,其默认的
    -XX:MetaspaceSize
    的值为20.75MB,这就是初始的高水位线,一旦触及这个水位线,Full GC 将会被触发并卸载没用的类(即这些类对应的类加载器不再存活),然后这个高水位线将会重置,新的高水位线的值取决于 GC 后释放了多少元空间。如果释放的空间不足,那么在不超过
    MaxMetaspaceSize
    时,适当提高该值。如果释放空间过多,则适当降低该值。
  • 如果初始化的高水位线设置过低,上述高水位线调整情况会发生很多次,通过垃圾回收的日志可观察到 Full GC 多次调用。为了避免频繁 GC,建议将
    -XX:MetaspaceSize
    设置为一个相对较高的值。

对象在堆中的内存布局

对象在堆中的内存布局(对象在堆中如何存储的),指的是对象在堆中存放时的各个组成部分

主要分为以下几个部分:

image-20240124203702225

  1. 标记字段(Mark Word)
    :保存对象自身的运行时数据,
    HashCode

    GC Age

    锁标记位

    是否为偏向锁
    等。

标记字段相对比较复杂。在不同的对象状态(有无锁、是否处于垃圾回收的标记中)下存放的内容是不同的。同时在64位(又分为是否开启指针压缩)、32位虚拟机中的布局都不同。

以64位开启指针压缩:JDK8默认开启指针压缩

image-20240124201132092

64位不开启指针压缩,只是将Cms使用这部分弃用:

image-20240124202010607

查看对象布局的方式
:JOL工具。

JOL是用于分析 JVM 中对象布局的一款专业工具。工具中使用 Unsafe、JVMTI 和 Serviceability Agent (SA)等虚拟机技术来打印实际的对象内存布局。

  • 依赖
<dependency>
    <groupId>org.openjdk.jol</groupId>
    <artifactId>jol-core</artifactId>
    <version>0.9</version>
</dependency>
  • 打印对象内存布局
System.out.println(ClassLayout.parseInstance(对象).toPrintable());
  1. 元数据的指针(Klass pointer)
    :指向方法区中保存的InstanceKlass对象。

image-20240124203553856

指针压缩:可以使用
-XX:-UseCompressedOops
关闭。

在64位的Java虚拟机中,Klass Pointer以及对象数据中的对象引用都需要占用8个字节,为了减少这部分的内存使用量,64 位 Java 虚拟机使用指针压缩技术,将堆中原本 8个字节的 指针压缩成 4个字节。

image-20240124202700148

指针压缩的思想
:将寻址的单位放大。

image-20240124202841509

如上图所示,原来按编号1去寻址,能拿到1字节开始的数据;现在按1去寻址,就可以拿到8个字节开始的数据。所以结果是原来按1字节去寻址,现在可以按8字节寻址。

因此优点是:这样将编号当成地址,就可以用更小的内存访问更多的数据。

但是也会引发两个问题:

  • 需要进行内存对齐
    :指的是将对象的内存占用填充至"8字节的倍数"。存在空间浪费(对于Hotspot来说不存在,即便不开启指针压缩,也需要进行内存对齐)

  • 寻址大小仅仅能支持2的35 次方个字节(32GB,如果超过32GB指针压缩会自动关闭)
    :不用压缩指针,应该是2的64次方 = 16EB,用了压缩指针就变成了8(字节) = 2的3次方 * 2的32次方 = 2的35次方 。

  1. 内存对齐填充
    :将对象的内存占用填充至"8字节的倍数"。主要目的是为了解决并发情况下CPU缓存失效的问题。

不采用内存对齐
:会造成多个对象在同一缓存行中,如下图A对象与B对象

image-20240124203852982

CPU缓存修改A对象并将其写回内存,但另一个线程B读取的是B对象,由于A、B对象在同一缓存行,A对象的数据写回内存了,但B对象可没有,所以线程B就会读取到B对象的假数据。

采用内存对齐
:同一个缓存行中不会出现不同对象的属性。在并发情况下,如果让A对象一个缓存行失效,是不会影响到B对象的缓存行的。

image-20240124204300424

内存对齐涉及的小知识:字段重排列。在Hotspot中,要求每个属性的偏移量Offset(字段地址 – 起始地址)必须是字段长度的N倍。如果不满足要求,会尝试使用内存对齐,通过在属性之间插入一块对齐区域达到目的。

如下图中(JOL打印),Student类中的id属性类型为long,那么偏移量就必须是8的倍数:SIZE * 2 = OFFSET

image-20240124204710320

这里有个小注意点(字段重排列通俗解释):为了保证偏移量是8的倍数,所以会进行字段顺序的重排列。

如:上图id在代码中声明可能是在前面(即age的位置),但age的offset是12,不满足8的倍数,所以将字段id重排列,放到offset为16处(即和字段age换位了)。

如下图,name字段是引用类型占用8个字节(关闭了指针压缩),因为Offset必须是8的倍数,所以在age和name之间插入了4个字节的空白区域。28 + 4 = 32,是8的倍数。

image-20240124204930241

提一嘴儿:子类继承自父类的属性,那么子类中会有和父类顺序一致的属性的偏移量,并且子类中属性的偏移量是先按父类属性偏移量的顺序排列好,再排列子类本身的属性偏移量。

import org.openjdk.jol.info.ClassLayout;

public class A {
    long l;
    long m;
    String name;
}

class B extends A{
    int a;
    int b;
}

class Test {
    public static void main(String[] args) {
        System.out.println(ClassLayout.parseInstance(new B()).toPrintable());
    }
}

image-20240124266666639355

栈中的数据要保存到堆上 或 从堆中加载到栈上时怎么处理?

  1. 堆中的数据加载到栈上
    :由于栈上的空间大于或者等于堆上的空间,所以直接处理,但是需要注意下"符号位"。
  • 无符号,低位复制,高位补0

image-20240124214132699

  • 有符号,低位复制,高位非负则补0,负则补1

image-20240124214312504

  1. 栈中的数据要保存到堆上
    :由于堆上存储空间较小,需要将高位去掉(boolean比较特殊,只取低位的最后一位保存)。

image-20240124214757551

小测试:通过字节码指令修改方式将iconst1修改为iconst2和iconst3会得到截然不同的结果。这个就涉及到上面所说的堆 -> 栈;栈 -> 堆,以及boolean的存储方式。

  • 字节码指令:IDEA中可以安装ASM Bytecode Outline插件生成类的ASM代码,也可以用其他方式。
package com.zixieqing;

/**
 * <p>
 * 栈中数据保存到堆中、堆中数据保存到栈中。iconst2 -> 2 = 10	iconst3 -> 3 = 11
 * boolean:1为true、0为false		boolean取低位最后一位
 * </p>
 *
 * <p>@author : ZiXieqing</p>
 */

public class StackStore {
    static boolean a;	// 堆上

    public static void main(String[] args) {
        a = true;	// 栈上

        if (a) {
            System.out.println("a为true");
        } else {
            System.out.println("a为false");
        }

        if (a == true) {
            System.out.println("a为true");
        } else {
            System.out.println("a为false");
        }
    }
}

方法调用原理

方法调用的本质是通过字节码指令的执行,能在栈上创建栈帧,并执行调用方法中的字节码执行。以
invoke
开头的字节码指令的作用就是找到字节码指令并执行。

image-20240125215351842

在JVM中,一共有五个字节码指令可以执行方法调用:

  1. invokestatic
    :调用静态方法。
  2. invokespecial
    :调用对象的private方法、构造方法,以及使用 super 关键字调用父类实例的方法、构造方法,以及所实现接口的默认方法。
  3. invokevirtual
    :调用对象的非private方法。
  4. invokeinterface
    :调用接口对象的方法。
  5. invokedynamic
    :用于调用动态方法,主要应用于lambda表达式中,机制极为复杂了解即可

Invoke指令执行时,需要找到方法区中instanceKlass中保存的方法相关的字节码信息。但是方法区中有很多类,每一个类又包含很多个方法,怎么精确地定位到方法的位置呢?

  1. 静态绑定
    :指的是方法第一次调用时,符号引用被替换成内存地址的直接引用。

编译期间,invoke指令会携带一个参数符号引用,引用到常量池中的方法定义。方法定义中包含了类名 + 方法名 + 返回值 + 参数。

image-20240125220700536

适用于处理静态方法、私有方法、或者使用final修饰的方法,因为这些
方法不能被继承之后重写
。即:
invokestatic

invokespecial

final修饰的invokevirtual
指令。

  1. 动态绑定
    :非static、非private、非final的方法,
    有可能存在子类重写方法
    ,那么就需要通过动态绑定来完成方法地址绑定的工作。

动态绑定是基于方法表来完成的,invokevirtual使用了虚方法表(vtable),invokeinterface使用了接口方法表(itable),整体思路类似。

虚方法表,本质上是一个数组,记录了方法的内存地址。每个类中都有一个虚方法表,子类方法表中包含父类方法表中的所有方法;子类如果重写了父类方法,则使用自己类中方法的地址进行替换。

image-20240125221419659

使用invokevirtual和虚方法表来解释整个过程:产生invokevirtual调用时,先根据对象头中的类型指针找到方法区中InstanceClass对象,获得虚方法表,再根据虚方法表找到对应的对方,获得方法的地址,最后调用方法。

image-20240125221753257

执行引擎

执行引擎:执行本地已经编译好的方法,如虚拟机提供的C++方法。

包括:即时编译器(JIT,即Just-in-time)、解释器、垃圾回收器等。

image-20236666660204142543

自动垃圾回收

在C/C++这类没有自动垃圾回收机制的语言中,一个对象如果不再使用,需要手动释放,否则就会出现内存泄漏。我们称这种释放对象的过程为垃圾回收,而需要程序员编写代码进行回收的方式为手动回收。

  • PS:内存泄漏指的是不再使用的对象在系统中未被回收,内存泄漏的积累可能会导致内存溢出。

Java中为了简化对象的释放,引入了自动垃圾回收(Garbage Collection简称GC)机制。
虚拟机通过垃圾回收器来对不再使用的对象完成自动的回收

垃圾回收器主要负责对堆上的内存进行回收

image-20236666669170949432

自动垃圾回收与手动垃圾回收的优缺点。

  1. 自动垃圾回收
    :自动根据对象是否使用由虚拟机来回收对象。
  • 优点:降低程序员实现难度、降低对象回收bug的可能性。
  • 缺点:程序员无法控制内存回收的及时性。
  1. 手动垃圾回收
    :由程序员编程实现对象的删除。
  • 优点:回收及时性高,由程序员把控回收的时机。
  • 缺点:编写不当容易出现悬空指针、重复释放、内存泄漏等问题。

方法区的回收

线程不共享的部分(程序计数器、Java虚拟机栈、本地方法栈),都是伴随着线程的创建而创建,线程的销毁而销毁
。而方法的栈帧在执行完方法之后就会自动弹出栈并释放掉对应的内存,因此不需要对这部分区域进行垃圾回收。

由前面对方法区的了解可知:方法区中能回收的内容主要就是常量池中废弃的常量和不再使用的类型

开发中此类场景一般很少出现,主要在如 OSGi、JSP 的热部署等应用场景中。每个jsp文件对应一个唯一的类加载器,当一个jsp文件修改了,就直接卸载这个jsp类加载器。重新创建类加载器,重新加载jsp文件。

在前面类的生命周期中,最后一步是卸载(unloading),而判定一个类可以被卸载。需要
同时满足
下面三个条件:

可以使用虚拟机参数
-verbose:class

-XX:+TraceClassLoading

-XX:+TraceClassUnloading
查看类加载和卸载信息。

-XnoClassgc
参数可以关闭类的GC / 控制是否对类进行卸载。在垃圾收集时类对象不会被回收,会被认为总是存活的,这将导致存放类对象的内存被持续占用,如果不谨慎使用,将可能导致OOM。

  1. 此类所有实例对象都已经被回收
    。在堆中不存在任何该类的实例对象以及子类对象。

  2. 加载该类的类加载器已经被回收

  3. 该类对应的
    java.lang.Class
    对象没有在任何地方被引用

package com.zixieqing.execution_engine.method_area_collection;

import com.zixieqing.class_and_classloader.FindClassLoader;

/**
 * <p>
 * 卸载(unloading)类“同时满足”的三个条件
 * </p>
 *
 * <p>@author : ZiXieqing</p>
 */

public class UnloadingConditions {

    public static void main(String[] args) throws ClassNotFoundException, IllegalAccessException, InstantiationException, InterruptedException {

        ClassLoader classLoader = FindClassLoader.class.getClassLoader();
        Class<?> clazz = classLoader.loadClass("com.zixieqing.class_and_classloader.FindClassLoader");
        Object obj = clazz.newInstance();
        // 1、该类所有实例对象都被回收   反例证明:将obj这个对象放到其他地方去,让其被持有则不会不会被卸载了
        obj = null;

        // 2、加载该类的类加载器已经被回收     反例证明:将此类加载器其他持有就不会被卸载
        classLoader = null;

        // 3、该类对应的 java.lang.Class 对象没有在任何地方被引用     反例证明:该对象被其他持有
        clazz = null;

        // 手动触发垃圾回收
        // 不一定会立即回收垃圾,仅仅是向Java虚拟机发送一个垃圾回收的请求,具体是否需要执行垃圾回收Java虚拟机会自行判断
        System.gc();
    }
}

补充:关于 finalize() 方法

finalize() 类似 C++ 的析构函数,用来做关闭外部资源等工作。但是 try-finally 等方式可以做的更好,并且该方法运行代价高昂,不确定性大,无法保证各个对象的调用顺序,因此最好不要使用。

当一个对象可被回收时,如果需要执行该对象的 finalize() 方法,那么就有可能通过在该方法中让对象重新被引用,从而实现自救,自救只能进行一次,如果回收的对象之前调用了 finalize() 方法自救,后面回收时不会调用 finalize() 方法。

堆回收

如何判断堆上的对象是否可被回收?

Java中的对象是否能被回收,是根据对象是否被引用来决定的。如果对象被引用了,说明该对象还在使用,不允许被回收。

image-20231210163809458

而判断对象是否有引用有两种判断方法:引用计数法和可达性分析法。

引用计数法

引用计数法会为每个对象维护一个引用计数器,当对象被引用时加1,取消引用(或引用失效)时减1,引用计数为 0 的对象可被回收。

引用计数法的优点是实现简单,C++中的智能指针就采用了引用计数法,但是它也存在缺点,主要有两点:

  1. 每次引用和取消引用都需要维护计数器,对系统性能会有一定的影响。
  2. 存在循环引用问题,此时引用计数器永远不为 0,导致无法对它们进行回收。所谓循环引用就是当A引用B,B同时引用A时会出现对象无法回收的问题。

image-20231210171559057

可达性分析法

可达性分析将对象分为两类:垃圾回收的根对象(GC Root)和普通对象,对象与对象之间存在引用关系。通过 GC Roots 作为起始点进行搜索,能够到达到的对象都是存活的,不可达的对象可被回收。

Java 虚拟机使用的是可达性分析算法来判断对象是否可以被回收。

注:可达性算法中描述的对象引用,一般指的是强引用(另外几种引用后续会说明)。
即是GCRoot对象对普通对象有引用关系,只要这层关系存在,普通对象就不会被回收。

image

哪些对象被称之为GC Root对象?

  1. 线程Thread对象,引用线程栈帧中的方法参数、局部变量等。
  2. 系统类加载器加载的java.lang.Class对象,引用类中的静态变量。

image-20231210172758467

  1. 监视器对象,用来保存同步锁synchronized关键字持有的对象。

image-20231210172859422

  1. 本地方法调用时使用的全局对象。

在 Java 中 GC Roots 一般包含哪些内容?

  1. 虚拟机栈中引用的对象。
  2. 本地方法栈中引用的对象。
  3. 方法区中类静态属性引用的对象。
  4. 方法区中的常量引用的对象。
引用类型

无论是通过引用计算算法判断对象的引用数量,还是通过可达性分析算法判断对象是否可达,判定对象是否可被回收都与引用有关。共有5种引用类型(由强到弱):强引用、软引用、弱引用、虚引用、终结器引用

强引用

强引用:指的是GCRoot对象对普通对象有引用关系,即由可达性分析法判断,只要这层关系存在,普通对象就不会被回收。

创建强引用的方式:“可以使用” new 的方式来创建强引用。PS:别钻牛角尖,来个
new SoftReference<Object>(obj);

Object obj = new Object();
软引用

软引用相对于强引用是一种比较弱的引用关系。

如果一个对象只有软引用关联到它,则当程序内存不足时,就会将此软引用中的数据进行回收。

在JDK 1.2版之后提供了SoftReference类来实现软引用,软引用常用于缓存中。

Object obj = new Object();
SoftReference<Object> sf = new SoftReference<Object>(obj);
obj = null;  // 使对象只被软引用关联

软引用的执行过程如下:

  1. 将对象使用软引用包装起来,
    new SoftReference<对象类型>(对象)
  2. 内存不足时,虚拟机尝试进行垃圾回收。
  3. 如果垃圾回收仍不能解决内存不足的问题,回收软引用中的对象。
  4. 如果依然内存不足,抛出OutOfMemory异常。

问题:软引用中的对象如果在内存不足时回收,SoftReference对象本身也需要被回收。如何知道哪些SoftReference对象需要回收?

SoftReference提供了一套队列机制:

  1. 软引用创建时,通过构造器传入引用队列。
  2. 在软引用中包含的对象被回收时,该软引用对象会被放入引用队列。
  3. 通过代码遍历引用队列,将SoftReference的强引用删除。

image-20231210215049848

软引用应用场景:缓存示例

image-20231210215151456

弱引用

弱引用的整体机制和软引用基本一致,区别在于弱引用包含的对象在垃圾回收时,不管内存够不够都会直接被回收。
即:被弱引用关联的对象一定会被回收,也就是说它只能存活到下一次垃圾回收发生之前。

JDK 1.2版之后提供了WeakReference类来实现弱引用,弱引用主要在ThreadLocal中使用。

Object obj = new Object();
WeakReference<Object> wf = new WeakReference<Object>(obj);
obj = null;
虚引用和终结器引用

这两种引用在常规开发中是不会使用的。

  1. 虚引用
    :也叫幽灵引用/幻影引用,不能通过虚引用对象获取到包含的对象。虚引用唯一的用途是当对象被垃圾回收器回收时可以接收到对应的通知。Java中使用PhantomReference实现了虚引用,

直接内存中为了及时知道直接内存对象不再使用,从而回收内存,使用了虚引用来实现。

Object obj = new Object();
PhantomReference<Object> pf = new PhantomReference<Object>(obj);
obj = null;
  1. 终结器引用
    :指的是在对象需要被回收时,终结器引用会关联对象并放置在Finalizer类中的引用队列中,在稍后由一条FinalizerThread线程从队列中获取对象,然后执行对象的finalize方法,在对象第二次被回收时,该对象才真正的被回收。在这个过程中可以在finalize方法中再将自身对象使用强引用关联上,但是不建议这样做。

垃圾回收算法

垃圾回收算法核心思想:

  1. 找到内存中存活的对象。
  2. 释放不再存活对象的内存,使得程序能再次利用这部分空间。
判断GC算法是否优秀的标准

Java垃圾回收过程会通过单独的GC线程来完成,但是不管使用哪一种GC算法,都会有部分阶段需要停止所有的用户线程。这个过程被称之为Stop The World简称STW,如果STW时间过长则会影响用户的使用。

  1. 吞吐量

吞吐量指的是 CPU 用于执行用户代码的时间与 CPU 总执行时间的比值,即:吞吐量 = 执行用户代码时间 /(执行用户代码时间 + GC时间)。吞吐量数值越高,垃圾回收的效率就越高。

  1. 最大暂停时间

最大暂停时间指的是所有在垃圾回收过程中的STW时间最大值。比如如下的图中,黄色部分的STW就是最大暂停时间,显而易见上面的图比下面的图拥有更少的最大暂停时间。最大暂停时间越短,用户使用系统时受到的影响就越短。

如下图就是上优下劣:

image-20231211213636743

  1. 堆使用效率

不同垃圾回收算法,对堆内存的使用方式是不同的。比如标记清除算法,可以使用完整的堆内存。而复制算法会将堆内存一分为二,每次只能使用一半内存。从堆使用效率上来说,标记清除算法要优于复制算法。

三种评价标准:
堆使用效率、吞吐量,以及最大暂停时间不可兼得

一般来说,堆内存越大,最大暂停时间就越长。想要减少最大暂停时间,就会降低吞吐量。

不同的垃圾回收算法,适用于不同的场景

GC算法:标记-清除算法

一句话概括就是:标记存活对象,删除未标记对象。

标记-清除算法可以使用完整的堆内存

image-20231211214713125

标记清除算法的核心思想分为两个阶段:

  1. 标记阶段:将所有存活的对象进行标记。Java中使用可达性分析算法,从GC Root开始通过引用链遍历出所有存活对象。

  2. 清除阶段:从内存中删除没有被标记(也就是非存活)对象。

image-20231211214315968

优点:实现简单,只需要在第一阶段给每个对象维护标志位,第二阶段删除对象即可。

缺点:

  1. 会产生内存碎片化问题。

由于内存是连续的,所以在对象被删除之后,内存中会出现很多细小的可用内存单元。如果我们需要的是一个比较大的空间,很有可能这些内存单元的大小过小无法进行分配。

  1. 分配速度慢。

由于内存碎片的存在,需要维护一个空闲链表,极有可能发生每次需要遍历到链表的最后才能获得合适的内存空间。

image-20231211214658763

GC算法:标记-整理算法

一句话概括就是:让所有存活的对象都向堆内存的一端移动,然后直接清理掉“端边界以外”的内存。

标记整理算法也叫标记压缩算法,是对标记清理算法中容易产生内存碎片问题的一种解决方案。

标记-整理算法可以使用整个堆内存

image-20231211215213871

核心思想分为两个阶段:

  1. 标记阶段:将所有存活的对象进行标记。Java中使用可达性分析算法,从GC Root开始通过引用链遍历出所有存活对象。

  2. 整理阶段:将存活对象移动到堆的一端。清理掉非存活对象的内存空间。

image-20231211215325960

优点:

  1. 内存使用率高:整个堆内存都可以使用。
  2. 不会产生内存碎片化问题:在整理阶段可以将对象往内存的一侧进行移动,剩下的空间都是可以分配对象的有效空间。

缺点:

  1. 整理阶段的效率不高:因为要去找存活和非存活对象,然后进行相应内存位置移动,这里又涉及对象引用问题,所以会造成整体性能不佳。

如:Lisp2整理算法就需要对整个堆中的对象搜索3词。当然也有优化整理阶段的算法,如Two-Finger、表格算法、ImmixFC等高效的整理算法来提升此阶段性能。

GC算法:复制算法

复制算法每次只能使用一半堆内存

image-20231211220534975

复制算法的核心思想:

  1. 准备两块空间From空间和To空间,每次在对象分配阶段,只能使用其中一块空间(From空间)。
  2. 在垃圾回收GC阶段,将From中存活对象复制到To空间。
  3. 将两块空间的From和To名字互换。

优点:

  1. 吞吐量高:复制算法只需要遍历一次存活对象复制到To空间即可。比标记-整理算法少了一次遍历过程,因而性能较好,但不如标记-清除算法,因标记-清除算法不需要进行对象的移动。
  2. 不会发生内存碎片化问题:复制算法在复制之后就会将对象按照顺序放入To内存,所以对象以外的区域是可用空间,因此不会产生内存碎片化问题。

缺点:

  1. 内存使用率低:每次只能让一半的内存空间来供创建对象使用。
#
GC算法:分代收集算法

主流的JVM(如:HotSpot)采用的就是此种算法。

一般将堆分为新生代和老年代:

  • PS:新生代分为伊甸园(Eden)区、两个幸存(Survivor )区——被称为 from / to 或 s0 / s1。默认比例是8:1:1。
  • 新生代使用: 复制算法
  • 老年代使用: 标记 - 清除 或者 标记 - 整理 算法

image-20231211222722551

  1. 分代回收时,创建出来的对象,首先会被放入Eden伊甸园区。
  2. 随着对象在Eden区越来越多,如果Eden区满,新创建的对象已经无法放入,就会触发年轻代的GC,称为Minor GC或者Young GC。
  3. Minor GC会把需要eden中和From需要回收的对象回收,把没有回收的对象放入To区。
  4. 接下来,S0会变成To区,S1变成From区。当eden区满时再往里放入对象,依然会发生Minor GC。
  5. 此时会回收eden区和S1(from)中的对象,并把eden和from区中剩余的对象放入S0。

注意:每次Minor GC中都会为对象记录他的年龄(或者叫回收标记次数),默认值为0(默认值和垃圾回收器有关),每次GC完加1。JVM中此值最大为15。

  1. 如果Minor GC后对象的年龄达到阈值(最大值为15),对象就会被晋升至老年代。
  2. 当老年代中空间不足,无法放入新的对象时,先尝试minor gc,如果还是不足,就会触发Full GC。

问题:为什么老年代空间不足,需要先尝试minor gc,即年轻代回收?

因为第6步中年轻代中的对象不是一定是年龄达到15才会进入老年代。年轻代空间满了,此时有些对象年龄可能是小于15的,但为了腾出可用空间,这部分对象也可能会被丢进老年代。

  1. 如果Full GC依然无法回收掉老年代的对象,那么当对象继续放入老年代时,就会抛出Out Of Memory异常。

关于伊甸园(Eden)区有一个小知识点:TLAB (Thread Local Allocation Buffer)

  • 从内存模型而不是垃圾回收的角度,对 Eden 区域继续进行划分,JVM 为每个线程分配了一个私有缓存区域,它包含在 Eden 空间内。
  • 多线程同时分配内存时,使用 TLAB 可以避免一系列的非线程安全问题,同时还能提升内存分配的吞吐量,因此我们可以将这种内存分配方式称为
    快速分配策略
  • OpenJDK 衍生出来的 JVM 大都提供了 TLAB 设计。

为什么要有 TLAB ?

  • 堆区是线程共享的,任何线程都可以访问到堆区中的共享数据。
  • 由于对象实例的创建在 JVM 中非常频繁,因此在并发环境下从堆区中划分内存空间是线程不安全的。
  • 为避免多个线程操作同一地址,需要使用加锁等机制,进而影响分配速度。

尽管不是所有的对象实例都能够在 TLAB 中成功分配内存,但 JVM 确实是将 TLAB 作为内存分配的首选。

在程序中,可以通过
-XX:UseTLAB
设置是否开启 TLAB 空间。

默认情况下,TLAB 空间的内存非常小,仅占有整个 Eden 空间的 1%,我们可以通过
-XX:TLABWasteTargetPercent
设置 TLAB 空间所占用 Eden 空间的百分比大小。

一旦对象在 TLAB 空间分配内存失败时,JVM 就会尝试着通过使用加锁机制确保数据操作的原子性,从而直接在 Eden 空间中分配内存。

Arthas查看分代之后的内存情况

  1. 在JDK8中,添加
    -XX:+UseSerialGC
    参数使用分代回收的垃圾回收器,运行程序。
  2. 使用
    memory
    命令查看内存,显示出三个区域的内存情况。

测试时需要的JVM参数参考:JDK 1.8(版本不同有些参数会无效) + 添加
-XX:+UseSerialGC
参数

参数名 参数定义 示例
-Xms 设置堆的最小 / 初识 大小(相当于前面说的total)。
必须是1024的倍数且大于1MB。
设置为6MB的写法:
-Xms6291456
-Xms6144k
-Xms6m
-Xmx 设置最大堆的大小(相当于前面说的max)。
必须是1024倍数且大于2MB。
设置为80 MB的写法:
-Xmx83886080
-Xmx81920k
-Xmx80m
-Xmn 新生代的大小。
默认为整个堆的1 / 3
设置256 MB的写法:
-Xmn256m
-Xmn262144k
-Xmn268435456
-XX:SurvivorRatio 伊甸园区和幸存区的比例,默认为8。
如:新生代1g内存,伊甸园区800MB,S0和S1各100MB
比例调整为4的写法:
-XX:SurvivorRatio=4
-XX:+PrintGCDetails

verbose:gc
打印GC日志

#
垃圾回收器

垃圾回收器(Garbage collector,即GC)是垃圾回收算法的具体实现。

除G1之外

其他
垃圾回收器
必须成对组合
进行使用(如下图)。

年轻代回收都是复制算法(包括G1),老年代回收的算法不同。

image-20231212226666663679

记忆方式:

  1. JDK8及之前
  • 关注暂停时间:ParNew + CMS(CMS在使用中需测试,因CMS在回收老年代时可能会影响用户线程)。
  • 关注吞吐量:Parallel Scavenge + Parallel Old(此组合为JDK8默认)。
  • 较大堆且关注暂停时间(JDK8之前不建议用):G1
    。PS:JDK8最新版算是成熟的G1,故其实可以直接使用。
  1. JDK9之后:G1(默认)。生产环境中也建议使用。。
垃圾回收器:Serial 与 Serial Old
新生代:Serial

Serial是一种
单线程串行回收
年轻代的垃圾回收器,采用的是
复制算法

垃圾回收线程进行GC时,会让用户线程进入等待,GC执行完了才会进行用户线程(即STW)。

适用场景
:Java编写的客户端程序 或者 硬件配置有限(服务器不多)的场景。或者直接说 Client 模式下的场景。

  • PS:Serial 收集器收集几十兆甚至一两百兆的新生代停顿时间可以控制在一百多毫秒以内,只要不是太频繁,这点停顿是可以接受的。

image-20231212215637335

优点
:单CPU处理器下吞吐量非常出色。

缺点
:多CPU下吞吐量不如其他垃圾回收器,堆如果偏大会让用户线程处于长时间的等待。

老年代:Serial Old

Serial Old是Serial垃圾回收器的老年代版本,
单线程串行回收
,采用的是
标记-整理算法

开启的方式:使用虚拟机参数
-XX:+UseSerialGC
即:新生代、老年代都使用串行回收器。

垃圾回收线程进行GC时,会让用户线程进入等待,GC执行完了才会进行用户线程。

适用场景
:与Serial垃圾回收器搭配使用 或者 在CMS特殊情况下使用(CMS时会说明)。

image-20231212220703204

优缺点和Serial一样。

优点
:单CPU处理器下吞吐量非常出色。

缺点
:多CPU下吞吐量不如其他垃圾回收器,堆如果偏大会让用户线程处于长时间的等待。

垃圾回收器:ParNew 与 CMS
新生代:ParNew

ParNew垃圾回收器本质上是对Serial在多CPU下的优化,但:JDK9之后不建议使用了。

使用
多线程进行垃圾回收
,采用的是
复制算法

  • PS:默认开启的线程数量与 CPU 数量相同,可以使用
    -XX:ParallelGCThreads
    参数来设置线程数。

开启方式:使用参数
-XX:+UseParNewGC
即:新生代使用ParNew(并行)回收器, 老年代使用串行回收器(即Serial Old)。

垃圾回收线程进行GC时,会让用户线程进入等待,GC执行完了才会进行用户线程。

适用场景
:JDK8及之前的版本中,与老年代垃圾回收器CMS搭配使用。

image-20231212221644577

优点
:多CPU处理器下停顿时间较短。

缺点
:吞吐量和停顿时间不如G1,所以在JDK9之后不建议使用。

老年代:CMS(Concurrent Mark Sweep)

CMS垃圾回收器关注的是系统的暂停时间。

允许用户线程和垃圾回收线程在某些步骤中同时执行
,减少了用户线程的等待时间。采用的是
标记-清除算法

开启方式:使用参数
XX:+UseConcMarkSweepGC
。即新生代使用并行(ParNew),老年代使用CMS。

初识标记 与 重新标记阶段 会让用户线程进入等待,GC执行完了才会进行用户线程。

适用场景
:大型的互联网系统中用户请求数据量大、频率高的场景。如订单接口、商品接口等。

image-20231212222405963

CMS执行步骤

  1. 初始标记(Initial Mark):用极短的时间标记出GC Roots能直接关联到的对象(可达性分析法)。
  2. 并发标记(Concurrent Mark):标记所有的对象,用户线程不需要暂停。

这里采用了一个并发标记算法,学名叫三色标记法,G1垃圾回收器也采用的是这个算法,所以G1时再说明这个算法。

并发阶段运行时的线程数可以通过参数
-XX:ConcGCThreads
(默认值为0)设置,由系统计算得出。即:CMS存在的线程资源争抢问题的解决方式。

计算公式为:
		(-XX:ParallelGCThreads定义的线程数 + 3) / 4


ParallelGCThreads		是STW停顿之后的并行线程数
	
	ParallelGCThreads是由处理器核数决定的:
		1、当cpu核数小于8时,ParallelGCThreads = CPU核数
		2、否则 ParallelGCThreads = 8 + (CPU核数 – 8 ) * 5 / 8
  1. 重新标记(Remark):由于并发标记阶段有些对象会发生变化,故存在错标、漏标等情况,因此需要重新标记。
  2. 并发清理(Clean):清理非存活对象,用户线程不需要暂停。

CMS存在的问题

缺点:

  1. CMS使用了标记-清除算法,在垃圾收集结束之后会出现大量的内存碎片,CMS会在Full GC时进行碎片的整理。这样会导致用户线程暂停,可以使用参数
    -XX:CMSFullGCsBeforeCompaction=N
    (默认0)调整N次Full GC之后再整理。
  2. 无法处理在并发清理过程中产生的“浮动垃圾”,不能做到完全的垃圾回收。

“浮动垃圾”的原因:并发清理时用户线程会产生一些很快就使用、后续不用的对象,而这些对象在这次的GC中无法回收,只能等到下次GC回收,这部分垃圾就是“浮动垃圾”。

image-20231212224114153

  1. 如果老年代内存不足无法分配对象,CMS就会退化成Serial Old单线程回收老年代(即:前面说的特殊情况会调用Serial Old)。
垃圾回收器:Parallel Scavenge 与 Parallel Old
新生代:Parallel Scavenge(PS)

Parallel Scavenge是JDK8默认的年轻代垃圾回收器

多线程并行回收
,关注的是系统的吞吐量。具备
自动调整堆内存大小
的特点,采用的是
复制算法

  • PS:自动调整堆内存——即不需要手动指定新生代的大小(
    -Xmn
    )、Eden 和 Survivor 区的比例(
    -XX:SurvivorRatio
    )、晋升老年代对象年龄等细节参数了。虚拟机会根据当前系统的运行情况收集性能监控信息,动态调整这些参数以提供最合适的停顿时间或者最大的吞吐量。

  • PS:可以使用参数
    -XX:+UseAdaptiveSizePolicy
    让垃圾回收器根据吞吐量和最大停顿毫秒数自动调整内存大小。

开启方式:
-XX:+UseParallelGC

-XX:+UseParallelOldGC
就可以使用Parallel Scavenge + Parallel Old这种组合。

  • PS:Oracle官方建议在使用这个组合时,
    不要设置堆内存的最大值
    ,垃圾回收器会根据最大暂停时间和吞吐量自动调整内存大小。

垃圾回收线程进行GC时,会让用户线程进入等待,GC执行完了才会进行用户线程。

适用场景
:后台任务,不需要与用户交互,并且容易产生大量的对象。如大数据的处理,大文件导出。

image-20231212225110859

优点
:吞吐量高,而且手动可控。为了提高吞吐量,虚拟机会动态调整堆的参数。

  • PS:可以使用参数
    -XX:GCTimeRatio=n
    设置吞吐量为n。
用户线程执行时间 = n / (n + 1)

缺点
:不能保证单次的停顿时间。

  • PS:可以使用参数
    -XX:MaxGCPauseMillis=n
    设置每次垃圾回收时的最大停顿毫秒数。

证明JDK8默认采用了Parallel Scavenge垃圾回收器

  1. CMD中输入下列参数即可
C:\Users\zixq\Desktop> java -XX:+PrintCommandLineFlags -version			# 打印出启动过程中使用的所有虚拟机参数

打印出的关键结果:

-XX:InitialHeapSize=264767296
-XX:MaxHeapSize=4236276736
-XX:+PrintCommandLineFlags
-XX:+UseCompressedClassPointers 
-XX:+UseCompressedOops 
-XX:-UseLargePagesIndividualAllocation 
-XX:+UseParallelGC		# 此处:已经加了使用 Parallel Scavenge 垃圾回收器的虚拟机参数
  1. 也可在Arthas中查看:随便写段代码,使用
    System.in.read();
    定住,不添加任何虚拟机参数启动。示例如下:
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;

/**
 * <p>
 * 测试JDK8的垃圾回收器(GC)是什么
 * </p>
 *
 * <p>@author : ZiXieqing</p>
 */

public class JDK8_GC_Test {

    public static void main(String[] args) throws IOException {
        List<Object> list = new ArrayList<>();

        int count = 0;
        while (true) {
            System.in.read();
            System.out.println("++count = " + ++count);
            // 1M
            list.add(new byte[1024 * 1024]);
        }
    }
}

Arthas命令:

dashboard -n 1

image-20231212233209157

老年代:Parallel Old(PO)

Parallel Old是为Parallel Scavenge收集器设计的老年代版本,JDK8默认的老年代垃圾回收器。

利用
多线程并发收集
,采用
标记-整理算法

开启方式:
-XX:+UseParallelGC

-XX:+UseParallelOldGC
就可以使用Parallel Scavenge + Parallel Old这种组合。

垃圾回收线程进行GC时,会让用户线程进入等待,GC执行完了才会进行用户线程。

image-20231212233405285

优点
:并发收集,在多核CPU下效率较高。

缺点
:暂停时间会比较长。

垃圾回收器:G1

G1(Garbage First)是在Java7 update 4之后引入的一个新的垃圾回收器,引入分区的思路,弱化了分代的概念。

JDK9之后默认的垃圾回收器是G1垃圾回收器。

堆被分为新生代和老年代,其它收集器进行收集的范围都是整个新生代或老年代,而 G1 可以
直接对新生代和老年代一起回收(Mixed GC)
,采用
标记-复制算法
(就是先标记,再用复制算法)。

开启方式:使用参数
-XX:+UseG1GC

  • PS:JDK9之后默认是此垃圾回收器,故不需要打开。

适用场景:JDK8最新版本、JDK9之后建议默认使用。

Parallel Scavenge关注吞吐量,允许用户设置最大暂停时间 ,但是会减少年轻代可用空间的大小。

CMS关注暂停时间,但是吞吐量方面会下降。

而G1设计目标就是将上述两种垃圾回收器的优点融合:

  1. 支持巨大的堆空间回收,并有较高的吞吐量。
  2. 支持多CPU并行垃圾回收。
  3. 允许用户设置最大暂停时间。

优点:对比较大的堆如超过6G的堆回收时,延迟可控不会产生内存碎片并发标记的SATB算法效率高.

缺点:JDK8之前还不够成熟。


G1的内存划分


image-20231213161802465

G1是将整个堆会被划分成多个大小相等的区域,称之为Region(默认将整堆划分为2048个分区),区域不要求是物理连续的(逻辑连续即可)。分为Eden、Survivor、Old区。

问题:每个Region的大小是怎么计算来的?

  1. 虚拟机自行计算的方式
每个Region的大小 = 堆空间大小 / 2048m


如:堆空间大小 = 4G,则每个Region的大小 = (1024 * 4)/ 2048 = 2m
  1. 程序员手动配置的方式
可通过参数 -XX:G1HeapRegionSize=32m 指定

	其中32m指定每个region大小为32M,Region size必须是2的指数幂,取值范围从1M到32M

分区,即分Region,还会牵扯到一个小知识点:本地分配缓冲 Lab(Local allocation buffer)

由于分区的思想,每个线程均可以"认领"某个分区用于线程本地的内存分配,而不需要顾及分区是否连续。因此,每个应用线程和GC线程都会独立地使用分区,进而减少同步时间,提升GC效率,这个分区称为
本地分配缓冲区(Lab)
。其中:

  1. 应用线程可以独占一个本地缓冲区(TLAB,详情见前面的
    GC算法:分代收集算法
    ) 来创建对象,而大部分都会落入Eden区域(巨型对象或分配失败除外),因此TLAB的分区属于Eden空间。
  2. 而每次垃圾收集时,每个GC线程同样可以独占一个本地缓冲区(GCLAB)用来转移对象,每次回收会将对象复制到Suvivor空间或老年代空间;对于从Eden / Survivor空间晋升(Promotion)到Survivor / 老年代空间的对象,同样由GC独占的本地缓冲区进行操作,该部分称为
    晋升本地缓冲区(PLAB)
G1垃圾回收的方式

G1垃圾回收有两种方式:

  1. 年轻代回收:Young GC(Minor GC)
  • Young GC:回收Eden区和Survivor区中不用的对象。会导致STW。采用复制算法。
  • G1中可以通过参数
    -XX:MaxGCPauseMillis=n
    (默认200ms) 设置每次垃圾回收时的最大暂停时间毫秒数,G1垃圾回收器会“尽可能地”保证暂停时间(即软实时:尽可能在此时限内完成垃圾回收)。
  1. 混合回收(年轻代+老年代):Mixed GC。
  • Mixed GC:回收所有年轻代和部分老年代的对象以及大对象区。采用标记-复制整理算法
[#](#年轻代回收 Young GC(Minor GC)执行流程)年轻代回收 Young GC(Minor GC)执行流程

下列流程也有个专业名字:年轻代收集集合 CSet of Young Collection

  1. 新创建的对象会存放在Eden区。当G1判断年轻代区不足(max默认60%),无法分配对象时需要回收时会执行Young GC。

max指的是:年轻代内存超过整个堆内存的60%。

注意
:部分对象如果大小达到甚至超过Region的一半,会直接放入老年代,这类老年代被称为Humongous【巨型】区。

如堆内存是4G,那么每个Region是2M,而只要一个大对象超过了1M就被放入Humongous区,如果对象过大会横跨多个Region。

G1内部做了一个优化,一旦发现没有引用指向巨型对象,则可直接在年轻代收集周期中被回收。

image-20231213165452618

从上图也可知:巨型对象会独占一个、或多个连续分区,其中

  • 第一个分区被标记为开始巨型(StartsHumongous),相邻连续分区被标记为连续巨型(ContinuesHumongous)。
  • 由于无法享受Lab带来的优化,并且确定一片连续的内存空间需要整堆扫描,因此确定巨型对象开始位置的成本非常高,如果可以,应用程序应避免生成巨型对象。
  1. 标记出Eden和Survivor区域中的存活对象。
  2. 根据配置的最大暂停时间选择“某些Region区域”,将这些区域中存活对象复制到一个新的Survivor区中(对象年龄【存活次数】+1),然后清空这些区域。

image-20231213171509169

这里的小细节是:Eden分区存活的对象将被拷贝到Survivor分区;原有Survivor分区存活的对象,将根据任期阈值(tenuring threshold)分别晋升到PLAB、新的survivor分区和老年代分区中,而原有的年轻代分区将被整体回收掉。

问题1:所谓的“某些Region区域“是怎么选择的?

  • G1在进行Young GC的过程中会去记录每次垃圾回收时每个Eden区和Survivor区的平均耗时,以作为下次回收时的参考依据。

  • 然后根据配置的最大暂停时间【
    -XX:MaxGCPauseMillis=n
    (默认200ms)】就能计算出本次回收时最多能回收多少个Region区域。

如:
-XX:MaxGCPauseMillis=n
(默认200ms),每个Region回收耗时40ms,那么这次回收最多只能回收200 / 40 = 5,但选5个可能会超出设置的最大暂停时间,所以只选择4个Region进行回收。

问题2:此步要维护对象年龄(年龄+1)的原因是什么?

  • 答案:辅助判断老化(tenuring)对象晋升时是到Survivor分区还是到老年代分区。
  • 年轻代收集首先先将晋升对象内存大小总和、对象年龄信息维护到年龄表中。
  • 再根据年龄表、Survivor内存大小、Survivor填充容量
    -XX:TargetSurvivorRatio
    (默认50%)、最大任期阈值
    -XX:MaxTenuringThreshold
    (默认15),计算出一个恰当的任期阈值,凡是超过任期阈值的对象都会被晋升到老年代。
  1. 后续Young GC时与之前相同,只不过Survivor区中存活对象会被搬运到另一个Survivor区。
    当某个存活对象的年龄到达阈值(默认15),将被放入老年代。

关于上述年轻代回收有一个小知识点:收集集合(CSet)

  • 收集集合(CSet):代表每次GC暂停时回收的一系列目标分区。

img

在任意一次收集暂停中,CSet所有分区都会被释放,内部存活的对象都会被转移到分配的空闲分区中。

因此无论是年轻代收集,还是混合收集,工作的机制都是一致的。年轻代收集CSet只容纳年轻代分区,而混合收集会通过启发式算法,在老年代候选回收分区中,筛选出回收收益最高的分区添加到CSet中。

候选老年代分区的CSet准入条件:可以通过活跃度阈值
-XX:G1MixedGCLiveThresholdPercent
(默认85%)进行设置,从而拦截那些回收开销巨大的对象;同时,每次混合收集可以包含候选老年代分区,可根据CSet对堆的总大小占比
-XX:G1OldCSetRegionThresholdPercent
(默认10%)设置数量上限。

由上述可知,G1的收集都是根据CSet进行操作的,年轻代收集与混合收集没有明显的不同,最大的区别在于两种收集的触发条件。

[#](#卡表(Card Table) 与 已记忆集合(RSet))卡表(Card Table) 与 已记忆集合(RSet)

问题:Region内部又有什么?Card与RSet

  • 这个问题就是想问:G1的年轻代回收的原理(卡片Card + 卡表 Crad Table + 已记忆集合 RSet )。

G1年轻代回收(Young GC)的执行流程请看:[年轻代回收 Young GC(Minor GC)执行流程](#年轻代回收 Young GC(Minor GC)执行流程)

在前面G1年轻代回收(Young GC)时需要标记“存活对象”,请问:如果产生了跨代引用,我们怎么知道它算不算存活对象?如老年代对象引用了年轻代对象。

image-20240126211516748

方式一:从GC Root开始,扫描所有对象,如果年轻代对象在引用链上,就标记为存活。这种需要遍历引用链上的所有对象,效率太低,所以不可取。

方式二:维护一个详细的表,记录哪个对象被哪个老年代引用了。在年轻代中被引用的对象,不进行回收。此方式看似可行,但如果对象太多这张表会占用很大的内存空间。存在错标的情况。可相对来说比方式一要靠谱一点。

image-20240126212047426

所以,对方式二进行优化:

  1. 优化一:只记录Region被哪些对象引用了。这种引用详情表称为
    记忆集 RememberedSet(简称RS或RSet):是一种记录了从非收集区域对象 引用 收集区域对象的这些关系
    的数据结构。扫描时将记忆集中的对象也加入到GC Root中,就可以根据引用链判断哪些对象需要回收了。

这样通过使用RSet,就在做可达性分析时就可以避免全堆扫描。

image-20240126212802913

虽然引入了RSet,但是还有存在一个问题:如果区域中引用对象很多,还是占用很多内存。因此继续优化。

  1. 优化二:将所有区域(Region)中的内存按一定大小划分成很多个块,每个块进行编号(即卡片【Card 或 Card Page】)。
    记忆集(RSet)中只记录对块(Card)的引用关系(现在才是RSet真正记录的东西)
    。如果一个块中有多个对象,只需要引用一次,减少了内存开销。

在串行和并行收集器中,GC通过整堆扫描,来确定对象是否处于可达路径中。

然而G1为了避免STW式的整堆扫描,在每个分区记录了一个已记忆集合(RSet),内部类似一个反向指针,记录引用分区内对象的卡片索引(见下述Card与Card Table)。当要回收该分区时,通过扫描分区的RSet,来确定引用本分区内的对象是否存活,进而确定本分区内的对象存活情况。

这个RSet有个注意点:并非所有的引用都需要记录在RSet中,只有老年代的分区可能会有RSet记录,这些分区称为
拥有RSet分区(an RSet’s owning region)

  • 如果一个分区确定需要扫描,那么无需RSet也可以无遗漏地得到引用关系,那么引用源自本分区的对象,当然不用落入RSet中;

  • G1 GC每次都会对年轻代进行整体收集,因此引用源自年轻代的对象,也不需要在RSet中记录。

G1对内存的使用以分区(Region)为单位,而对对象的分配则以卡片(Card)为单位。

image-20240126214020277

每个分区(Region)内部被分成了若干个大小为
512 Byte的卡片(Card 或 Card Page)
,标识堆内存最小可用粒度。

所有分区的卡片将会记录在全局卡片表(Global Card Table,是一个字节数组)中,分配的对象会占用物理上连续的若干个卡片,当查找对分区内对象的引用时便可通过记录卡片来查找该引用对象。

img

每次对内存的回收,本质都是对指定分区的卡片进行处理

每个分区(Region)都拥有一个自己的卡表(Card Table),如果产生了跨代引用(老年代引用年轻代),此时这个Region对应的卡表上就会将字节内容进行修改。

  • PS:上述的全局卡片表(Global Card Table)这个字节数组的一个元素就是这里的某个Region的卡表。
  • 卡表会占用一定的内存空间,如:堆大小是1G时,卡表大小为1G = 1024 MB / 512 = 2MB。
  • 卡表的主要作用是生成记忆集(RSet)。

JDK8源码中0代表被引用了称为脏卡。这样就可以标记出当前Region被老年代中的哪些部分引用了。那么要
生成记忆集就比较简单了,只需要遍历整个卡表,找到所有脏卡。

除了0代码脏卡,其他数字代表意思如下:

image-20240126220459277

产生跨代引用(老年代引用年轻代),Region对应的卡表上就会将字节内容进行修改:

image-20240126225909633

年轻代回收标记时,会将记忆集中的对象也加入到GC Root对象中,进行扫描并标记其引用链上的对象。

image-20240126221236071

问题:RSet的内部又有什么?有个屁,人都问麻了

  • 答案:PRT( Per Region Table )

RSet在内部使用Per Region Table(PRT)记录分区的引用情况。由于RSet的记录要占用分区的空间,如果一个分区非常"受欢迎",那么RSet占用的空间会上升,从而降低分区的可用空间。G1应对这个问题采用了改变RSet的密度的方式,在PRT中将会以三种模式记录引用:

  • 稀少:直接记录引用对象的卡片索引。
  • 细粒度:记录引用对象的分区索引。
  • 粗粒度:只记录引用情况,每个分区对应一个比特位。

由上可知,粗粒度的PRT只是记录了引用数量,需要通过整堆扫描才能找出所有引用,因此扫描速度也是最慢的。

RSet的维护:写屏障 与 并发优化线程

本节内容主要参考:
@pdai:Java垃圾回收器 - G1详解

由于不能整堆扫描,又需要计算分区确切的活跃度,因此,G1需要一个增量式的完全标记并发算法,通过维护RSet,得到准确的分区引用信息。在G1中,RSet的维护主要来源两个方面:写屏障(Write Barrier)和并发优化线程(Concurrence Refinement Threads)。

首先介绍一下栅栏(Barrier)的概念。
栅栏是指在原生代码片段中,当某些语句被执行时,栅栏代码也会被执行。

G1主要在赋值语句中,使用写前屏障(Pre-Write Barrrier)和写后屏障(Post-Write Barrrier)。事实上,写屏障的指令序列开销非常昂贵,应用吞吐量也会根据栅栏复杂度而降低。

栅栏代码示意:

img

写屏障(Write Barrier):在执行引用关系建立的代码执行后插入一段指令,完成卡表的维护工作。损失的性能一般大约在5%~10%之间。

  • 每次引用类型数据写操作时,都会产生一个Write Barrier【写屏障/写栅栏】暂时中断操作;
  • 然后检查将要写入的引用指向的对象是否和该引用类型数据在不同的Region(其他收集器:检查老年代对象是否引用了新生代对象);
    • 如果不同,通过cardTable把相关引用信息记录到引用指向对象的所在Region对应的Remembered Set中;
    • 当进行垃圾收集时,在GC根节点的枚举范围加入Remembered Set;就可以保证不进行全局扫描,也不会有遗漏。

写前屏障(Pre-Write Barrrier)

即将执行一段赋值语句时,等式左侧对象将修改引用到另一个对象,那么等式左侧对象原先引用的对象所在分区将因此丧失一个引用,那么JVM就需要在赋值语句生效之前,记录丧失引用的对象。JVM并不会立即维护RSet,而是通过批量处理,在将来RSet更新(见“起始快照算法(SATB)”)。

写后屏障(Post-Write Barrrier):G1使用写后屏障技术,在执行引用关系建立的代码执行后插入一段指令,完成卡表的维护工作。

当执行一段赋值语句后,等式右侧对象获取了左侧对象的引用,那么等式右侧对象所在分区的RSet也应该得到更新。同样为了降低开销,写后栅栏发生后,RSet也不会立即更新,同样只是记录此次更新日志,在将来批量处理(见“并发优化线程(Concurrence Refinement Threads)“)。

起始快照算法 Snapshot at the beginning (SATB):

  • Taiichi Tuasa贡献的增量式完全并发标记算法。
  • 主要针对标记-清除垃圾收集器的并发标记阶段,非常适合G1的分区块的堆结构,同时解决了CMS的主要烦恼:重新标记暂停时间长带来的潜在风险。
  • SATB会创建一个对象图,相当于堆的逻辑快照,从而确保并发标记阶段所有的垃圾对象都能通过快照被鉴别出来。

  • 当赋值语句发生时,应用将会改变了它的对象图,那么JVM需要记录被覆盖的对象。因此写前栅栏会在引用变更前,将值记录在SATB日志或缓冲区中。每个线程都会独占一个SATB缓冲区,初始有256条记录空间。

  • 当空间用尽时,线程会分配新的SATB缓冲区继续使用,而原有的缓冲去则加入全局列表中。

  • 最终在并发标记阶段,并发标记线程(Concurrent Marking Threads)在标记的同时,还会定期检查和处理全局缓冲区列表的记录,然后根据标记位图分片的标记位,扫描引用字段来更新RSet。此过程又称为并发标记 / SATB写前栅栏。

并发标记线程(Concurrent Marking Threads)

并发标记位图过程:

img

要标记存活的对象,每个分区都需要创建位图(Bitmap)信息来存储标记数据,来确定标记周期内被分配的对象。

  • G1采用了两个位图Previous Bitmap、Next Bitmap 来存储标记数据。

Previous位图存储上次的标记数据,Next位图在标记周期内不断变化更新,同时Previous位图的标记数据也越来越过时,

当标记周期结束后Next位图便替换Previous位图,成为上次标记的位图。同时,每个分区通过顶部开始标记(TAMS)来记录已标记过的内存范围。同样的,G1使用了两个顶部开始标记Previous TAMS(PTAMS)、Next TAMS(NTAMS)记录已标记的范围。

在并发标记阶段,G1会根据参数
-XX:ConcGCThreads
(默认GC线程数的1/4,即
-XX:ParallelGCThreads/4
)分配并发标记线程(Concurrent Marking Threads),进行标记活动。每个并发线程一次只扫描一个分区,并通过"手指"指针的方式优化获取分区。并发标记线程是爆发式的,在给定的时间段拼命干活,然后休息一段时间,再拼命干活。

每个并发标记周期,在初始标记STW的最后,G1会分配一个空的Next位图和一个指向分区顶部(Top)的NTAMS标记。Previous位图记录的上次标记数据上次的标记位置,即PTAMS,在PTAMS与分区底部(Bottom)的范围内,所有的存活对象都已被标记。那么,在PTAMS与Top之间的对象都将是隐式存活(Implicitly Live)对象。在并发标记阶段,Next位图吸收了Previous位图的标记数据,同时每个分区都会有新的对象分配,则Top与NTAMS分离,前往更高的地址空间。在并发标记的一次标记中,并发标记线程将找出NTAMS与PTAMS之间的所有存活对象,将标记数据存储在Next位图中。同时,在NTAMS与Top之间的对象即成为已标记对象。如此不断地更新Next位图信息,并在清除阶段与Previous位图交换角色。

并发优化线程(Concurrence Refinement Threads):

G1中使用基于Urs Hölzle的快速写栅栏,将栅栏开销缩减到2个额外的指令。栅栏将会更新一个card table type的结构来跟踪代间引用。

当赋值语句发生后,写后栅栏会先通过G1的过滤技术判断是否是跨分区的引用更新,并将跨分区更新对象的卡片加入缓冲区序列,即更新日志缓冲区或脏卡片队列。与SATB类似,一旦日志缓冲区用尽,则分配一个新的日志缓冲区,并将原来的缓冲区加入全局列表中。

并发优化线程(Concurrence Refinement Threads),只专注扫描日志缓冲区记录的卡片来维护更新RSet,线程最大数目可通过
-XX:G1ConcRefinementThreads
(默认等于
-XX:ParellelGCThreads
)设置。并发优化线程永远是活跃的,一旦发现全局列表有记录存在,就开始并发处理。如果记录增长很快或者来不及处理,那么通过阈值
-X:G1ConcRefinementGreenZone/-XX:G1ConcRefinementYellowZone/-XX:G1ConcRefinementRedZone
,G1会用分层的方式调度,使更多的线程处理全局列表。如果并发优化线程也不能跟上缓冲区数量,则Mutator线程(Java应用线程)会挂起应用并被加进来帮助处理,直到全部处理完。因此,必须避免此类场景出现。

更详细地G1年轻代回收的过程

通过前面的铺垫之后,现更详细地在G1年轻代的回收过程如下:

  1. Root扫描,将所有的静态变量、局部变量扫描出来。

image-20240127142438781

  1. 处理脏卡队列中的没有处理完的信息,更新记忆集的数据,此阶段完成后,记忆集中包含了所有老年代对当前Region的引用关系。

image-20240127142545962

  1. 标记存活对象。记忆集中的对象会加入到GC Root对象集合中,在GC Root引用链上的对象也会被标记为存活对象。
  2. 根据设定的最大停顿时间,选择本次收集的区域,称之为回收集合(Collection Set)。

image-20240127142723038

  1. 复制对象:将标记出来的对象复制到新的区中,将年龄+1,如果年龄到达15则晋升到老年代。老的区域内存直接清空。
  2. 处理软、弱、虚、终结器引用,以及JNI中的弱引用。

image-20240127142844824

混合收集:Mixed GC

回收所有年轻代和部分老年代的对象以及大对象区。采用的算法:标记-复制整理。

触发时机
:经过多次的回收之后(上述Young GC执行流程),会出现很多老年代区(Old),此时总堆占有率达到阈值时(
-XX:InitiatingHeapOccupancyPercent
默认45%)会触发混合回收Mixed GC。

为了满足暂停目标,G1可能不能一口气将所有的候选分区收集掉,因此G1可能会产生连续多次的混合收集与应用线程交替执行,每次STW的混合收集与年轻代收集过程相类似。

为了确定包含到年轻代收集集合CSet的老年代分区,JVM通过参数混合周期的最大总次数
-XX:G1MixedGCCountTarget
(默认8)、堆废物百分比-
XX:G1HeapWastePercent
(默认5%)。通过候选老年代分区总数与混合周期最大总次数,确定每次包含到CSet的最小分区数量;根据堆废物百分比,当收集达到参数时,不再启动新的混合收集。而每次添加到CSet的分区,则通过计算得到的GC效率进行安排。

Mixed GC的回收流程

image-20231213170846871

  1. 初始标记(initial mark):暂停所有用户线程(停段时间很短)。标记Gc Roots引用的对象为存活
  2. 并发标记(concurrent mark):会和用户线程一起执行。将第一步中标记的对象引用的对象,标记为存活
    。这里和Region维护的Remebered Set挂钩(请看:[卡表(Card Table) 与 已记忆集合(RSet)](#卡表(Card Table) 与 已记忆集合(RSet)))。

CMS和G1在并发标记时使用的是同一个算法:三色标记法

使用黑灰白三种颜色标记对象。

  • 黑色(存活):当前对象在GC Root引用链上,其自身与其引用对象都已标记完成;
  • 灰色(待处理):当前对象在GC Root引用链上,其自身被标记,其引用的对象未标记;
  • 白色(可回收):当前对象不在GC ROOT引用链上,是未标记。

img

执行流程如下:

  • GC 开始前所有对象都是白色。
  • GC 一开始,所有根(GC Root)能够直达的对象被压到栈中,待搜索,此时颜色是灰色(即:放入灰色队列)。
  • 然后灰色对象依次从栈中取出搜索子对象,子对象也会被涂为灰色,入栈。当其所有的子对象都涂为灰色之后,该对象被涂为黑色。
  • 当 GC 结束之后,灰色对象将全部没了(即对象标记处理完成),
    剩下黑色的为存活对象
    ,白色的为垃圾。

上面的三色标记法的黑色、白色就是使用了位图(BitMap)来实现的:

如:8个字节使用1个bit来标识标记的内容,黑色为1,白色为0,灰色不会体现在位图中,会单独放入一个队列中。如果对象超过8个字节,仅仅使用第一个bit位处理。

image-20240127151124362

  1. 最终标记(remark或者Finalize Marking):暂停所有用户线程。标记一些引用改变而漏标的对象

和CMS的区别在这步:Mixed GC在这里不管新创建 和 不再关联的对象(等待下一轮回收该回收的)。

小细节
:为了修正在并发标记期间因用户程序继续运作而导致标记产生变动的那一部分标记记录,虚拟机将这段时间对象变化记录在线程的 Remembered Set Logs 里,最终标记阶段需要把 Remembered Set Logs 的数据合并到 Remembered Set 中。

问题:漏标问题是怎么产生的?

三色标记法存在一个很严重的问题:由于用户线程可能同时在修改对象的引用关系,就会出现漏标的情况。

如:用户线程执行了 B.c = null;将B到C的引用去除了。同时执行了A.c = c; 添加了A到C的引用。这就产生了严重问题。

image-20240127152123800

换言之就是:在最终标记(remark或者Finalize Marking)过程中,黑色指向了白色,如果不对黑色重新扫描,则会漏标。会把白色对象当作没有新引用指向从而回收掉。

img

并发标记过程中,Mutator删除了所有从灰色到白色的引用,会产生漏标。此时白色对象应该被回收。

产生漏标问题的条件有两个:

  • 黑色对象指向了白色对象。
  • 灰色对象指向白色对象的引用消失。

所以要解决上述三色标记法带来的漏标问题,打破两个条件之一即可:

  • 跟踪黑指向白的增加
    incremental update:增量更新,关注引用的增加。把黑色重新标记为灰色,下次重新扫描属性。CMS采用该方法。
  • 记录灰指向白的消失
    SATB(snapshot at the beginning 初始快照算法):关注引用的删除。当灰–>白消失时,要把这个 引用 推到GC的栈中,保证白还能被GC扫描到。G1采用该方法。

SATB(snapshot at the beginning 初始快照算法):

  • 标记开始时创建一个快照,记录当前所有对象,标记过程中新生成的对象直接标记为黑色。
  • 采用写前屏障(Post-Write-Barrier)技术,在引用赋值前(如B.c = null之前),将之前引用的对象c放入SATB待处理队列中。SATB队列每个线程都有一个,最终标记阶段会汇总到一个总的SATB队列中,然后逐一处理。

SATB队列中的对象,默认按照存活处理,同时要处理他们引用的对象。

SATB的缺点:是在本轮清理时可能会将不存活的对象标记成存活对象,产生了一些所谓的浮动垃圾,等到下一轮清理时才能回收.

image-20240127153356491

问题:为什么G1采用SATB而不用incremental update?

因为采用incremental update把黑色重新标记为灰色后,之前扫描过的还要再扫描一遍,效率太低。G1有RSet与SATB相配合。Card Table里记录了RSet,RSet里记录了其他对象指向自己的引用,这样就不需要再扫描其他区域,只要扫描RSet就可以了。

也就是说 灰色–>白色 引用消失时,如果没有 黑色–>白色,引用会被push到堆栈,下次扫描时拿到这个引用,由于有RSet的存在,不需要扫描整个堆去查找指向白色的引用,效率比较高SATB配合RSet浑然天成。

  1. 并发清理(cleanup):与用户线程一起执行,STW很长。将存活对象复制到别的Region
    。使用复制算法的目的是为了不产生内存碎片。

image-20231213172021831

  • 根据最终标记的结果,可以计算出每一个区域的垃圾对象占用内存大小,根据停顿时间,选择复制效率最高(垃圾对象最多)的几个区域。
  • 复制时先复制GC Root直接引用的对象,然后再复制其他对象。

G1对老年代的清理:会选择存活度最低的区域来进行回收,这样可以保证回收效率最高,这也是G1(Garbage first)名称的由来:G1的1(first)指的就是存活度最低的区域。

  • 回收老的区域,如果外部有其他区域对象引用了转移对象,也需要重新设置引用关系

image-20240127154505904

顺便再提一下和这里相关的:Full GC 整堆收集,是单线程+标记-整理算法,会导致用户线程的暂停。

建议:尽量保证应该用的堆内存有一定多余的空间。

触发时机

  1. 如果上面的清理过程中发现没有足够的空Region存放转移的对象(大对象、长期存活的对象进入老年代,导致老年代空间不足),会出现Full GC。

避免这种情况引起Full GC的方式:

一是:尽量不要创建过大的对象以及数组。

二是:通过参数
-Xmn
调大新生代的大小,让对象尽量在新生代被回收掉,不进入老年代。

  • PS:但得注意,这个参数的修改需要经过大量测试(所有接口、所有场景的测试),因为在实际场景中,接口响应时间、创建对象的大小、程序内部的定时任务等等这些不确定因素都会影响该值,所以理论计算并不能准确地得到该值,若要变动该值则需要进行大量测试【G`垃圾回收期中就尽量不要设置该值,因G1会动态调整年轻代大小】。

三是:通过参数
-XX:MaxTenuringThreshold
调大对象进入老年代的年龄,让对象在新生代多存活一段时间。

  • PS:此值即最大晋升阈值,默认值为15。对象年龄大于此值之后会进入老年代。在JVM中有一个“动态年龄判断机制”,将对象从小到大的对象占据的空间加起来,若大于survivor区域得到50%,则把等于或大于该年龄的对象丢入到老年代。因此:此值个人建议别轻易去修改。

image-20240666666210925222

此处相关的小知识:Concurrent Mode Failure 并发模式失败

  • 执行 CMS GC 的过程中同时有对象要放入老年代(CMS的垃圾清理线程和用户线程并行执行),而此时老年代空间不足(可能是 GC 过程中浮动垃圾过多导致暂时性的空间不足),便会报 Concurrent Mode Failure 错误,并触发 Full GC。
  • 此模式一旦产生,那么Java虚拟机就会使用Serial Old单线程进行Full GC回收老年代,从而出现长时间停顿(STW)。
  1. 调用
    System.gc()
    。不建议的方式。因为调用此方法只是建议虚拟机执行 Full GC,但是虚拟机不一定会真正去执行。
  2. 使用复制算法的 Minor GC 需要老年代的内存空间作担保,如果担保失败会执行一次 Full GC。

内存空间分配担保
:在发生 Minor GC 之前,虚拟机先检查老年代最大可用的连续空间是否大于新生代所有对象总空间。

  • 如果条件成立的话,那么 Minor GC 可以确认是安全的。

  • 如果不成立的话:

JDK 6 Update 24之前规则:虚拟机会查看
-XX:HandlePromotionFailure=true/false
设置值是否允许担保失败

  • 如果允许,那么就会继续检查老年代最大可用的连续空间是否大于历次晋升到老年代对象的平均大小


    • 如果大于,将尝试着进行一次 Minor GC;

    • 如果小于,或者 HandlePromotionFailure 设置不允许冒险,那么就要进行一次 Full GC。

JDK 6 Update 24之后的规则

-XX:HandlePromotionFailure=true/false
配置不会再影响到虚拟机的空间分配担保策略。所以此时是只要老年代的连续空间大于新生代对象空间总大小 或者 历次晋升的平均大小,就会进行 Minor GC,否则将进行 Full GC。

关于Minor GC、Major GC、Full GC的说明

尽量别让Major GC / Full GC触发。

JVM 在进行 GC 时,并非每次都对堆内存(新生代、老年代;方法区)区域一起回收的,大部分时候回收的都是指新生代。

针对 HotSpot VM 的实现,它里面的 GC 按照回收区域又分为两大类:部分收集(Partial GC),整堆收集(Full GC)。

  1. 部分收集(Partial GC):不是完整收集整个 Java 堆的垃圾收集其中又分为:
  • 新生代收集(Minor GC/Young GC):只是新生代的垃圾收集。

  • 老年代收集(Major GC/Old GC):只是老年代的垃圾收集。


    • 目前,只有 CMS GC 会有单独收集老年代的行为。
    • 很多时候 Major GC 会和 Full GC 混合使用,需要具体分辨是老年代回收还是整堆回收。
  • 混合收集(Mixed GC):收集整个新生代以及部分老年代的垃圾收集。


    • 目前只有 G1 GC 会有这种行为。
  1. 整堆收集(Full GC):收集整个 Java 堆和方法区的垃圾。

年轻代GC(Minor GC)触发机制

  • 当年轻代空间不足时,就会触发MinorGC,这里的年轻代满指的是Eden代满,Survivor满不会引发GC。(每次Minor GC会清理年轻代的内存)
  • 因为Java对象大多都具备朝生夕灭的特性.,所以Minor GC非常频繁,一般回收速度也比较快。这一定义既清晰又易于理解。
  • Minor GC会引发STW,暂停其它用户的线程,等垃圾回收结束,用户线程才恢复运行。

老年代GC(Major GC / Full GC)触发机制

  • 指发生在老年代的GC,对象从老年代消失时,我们说 “Major GC” 或 “Full GC” 发生了。

出现了Major Gc,经常会伴随至少一次的Minor GC(非绝对,在Paralle1 Scavenge收集器的收集策略里就有直接进行Major GC的策略选择过程)。

也就是在老年代空间不足时,会先尝试触发Minor Gc。如果之后空间还不足,则触发Full GC(Major GC)

  • Major GC的速度一般会比Minor GC慢10倍以上,STW的时间更长。
  • 如果Major GC后,内存还不足,就报OOM了。

Full GC触发机制:Full GC 是开发或调优中尽量要避免的。这样暂停时间会短一些。因为Full GC是单线程+标记-整理,单线程会STW会长。

触发Full GC执行的情况有如下几种:

  1. 调用
    System.gc()
    时,系统建议执行Full GC,但是不必然执行。
  2. 老年代空间不足。前面G1说的触发时机基本都可统称为这个原因。
  • 补充一种情况:由Eden区、survivor space0(From Space)区向survivor space1(To Space)区复制时,对象大小 大于 To Space可用内存,则把该对象转存到老年代,且老年代的可用内存 小于 该对象大小。
  1. 方法区空间不足。

即时编译器(JIT)

本节内容可以直接去看下列链接的内容,里面的内容更丰富、更全面,看完都不需要看我这里的内容了:

链接:
美团技术团队:Java即时编译器原理解析及实践

作者:昊天 珩智 薛超

在Java中,JIT(Just-In-Time)即时编译器是一项用来提升应用程序代码执行效率的技术。字节码指令被 Java 虚拟机解释执行,如果有一些指令执行频率高,称之为热点代码,这些字节码指令则被JIT即时编译器编译成机器码同时进行一些优化,最后保存在内存中,将来执行时直接读取就可以运行在计算机硬件上了

在HotSpot中,有三款即时编译器,C1、C2和Graal。

可使用Java虚拟机参数:
-Xin
关闭即时编译器。

C1编译效率比C2快,但是优化效果不如C2。所以C1适合优化一些执行时间较短的代码,C2适合优化服务端程序中长期执行的代码

image-20240126181148496

JDK7之后,采用了分层编译的方式,在JVM中C1和C2会一同发挥作用,分层编译将整个优化级别分成了5个等级:

-XX:TieredStopAtLevel=1
分层编译下只使用1层C1进行编译

下列保存内容的原因:为了执行C2即时编译器的需要,从而让C2更好地优化。

等级 使用的组件 描述 保存的内容 性能打分(1 - 5)
0 解释器 解释执行;
记录方法调用次数及循环次数
1
1 C1即时编译器 C1完整优化 优化后的机器码 4
2 C1即时编译器 C1完整优化;
记录方法调用次数及循环次数
优化后的机器码;
部分额外信息:方法调用次数及循环次数
3
3 C1即时编译器 C1完整优化;
记录所有额外信息
优化后的机器码;
所有额外信息:分支跳转次数、类型转换等
2
4 C2即时编译器 C2完整优化 优化后的机器码 5

C1即时编译器和C2即时编译器都有独立的线程去进行处理,内部会保存一个队列,队列中存放需要编译的任务。一般即时编译器是针对方法级别来进行优化的,当然也有对循环进行优化的设计。

image-20240126182815705

看C1和C2是如何进行协作的?一句话概括就是:先有C1执行并收集C2需要的数据,然后C2执行,C1忙碌时交给C2执行,C2忙碌时交给C1执行。

  1. 先由C1执行过程中收集所有运行中的信息,方法执行次数、循环执行次数、分支执行次数等等,然后等待执行次数触发阈值(分层即时编译由JVM动态计算)之后,进入C2即时编译器进行深层次的优化

image-20240126183016012

  1. 方法字节码执行数目过少,先收集信息,JVM判断C1和C2优化性能差不多,那之后转为不收集信息,由C1直接进行优化

image-20240126183058113

  1. C1线程都在忙碌的情况下(队列中编译任务很多),直接由C2进行优化。

image-20240126183144693

  1. C2线程忙碌时,先由2层C1编译收集一些基础信息,多运行一会儿,然后再交由3层C1处理,由于3层C1处理效率不高,所以尽量减少这一层停留时间(C2忙碌着,一直收集也没有意义),最后C2线程不忙碌了再交由C2进行处理。

image-20240126183527117

JIT优化手段:方法内联 与 逃逸分析

可以借助JIT Watch工具来查看(会涉及汇编语言):
https://github.com/AdoptOpenJDK/jitwatch/tree/1.4.2

  • 注:以目前测试的结果来看,版本号最好用上面这个,因为比这版本高的会出现一些问题,如乱码之类的。
方法内联

方法内联(Method Inline):方法体中的字节码指令直接复制到调用方的字节码指令中,节省了创建栈帧的开销

方法内联是字节码层面,这里便于理解使用源码:

image-20240126184047964

方法内联的限制与条件

并不是所有的方法都可以内联,有一定的限制:

  1. 方法编译之后的字节码指令总大小 < 35字节,可以直接内联。(通过
    -XX:MaxInlineSize=值
    控制)。
  2. 方法编译之后的字节码指令总大小 < 325字节,并且是一个热方法。(通过-
    XX:FreqInlineSize=值
    控制)。
  3. 方法编译生成的机器码不能大于1000字节。(通过
    -XX:InlineSmallCode=值
    控制) 。
  4. 一个接口的实现必须小于3个,如果大于三个就不会发生内联。

编译器的大部分优化都是在方法内联的基础上。所以一般来说,内联的方法越多,生成代码的执行效率越高。但是对于即时编译器来说,内联的方法越多,编译时间也就越长,程序达到峰值性能的时刻也就比较晚。

可以通过虚拟机参数
-XX:MaxInlineLevel
调整内联的层数,以及1层的直接递归调用(可以通过虚拟机参数
-XX:MaxRecursiveInlineLevel
调整)。一些常见的内联相关的参数如下表所示:

img

逃逸分析

逃逸分析(Escape Analysis):指的是如果JIT发现在方法内创建的对象不会被外部引用,那么就可以采用锁消除、标量替换等方式进行优化。

通过逃逸分析,Java Hotspot 编译器能够分析出一个新的对象的引用的使用范围,从而决定是否要将这个对象分配到堆上。

  • 在 JDK 6u23 版本之后,HotSpot 中默认就已经开启了逃逸分析。
  • 如果使用较早版本,可以通过
    -XX"+DoEscapeAnalysis
    显式开启。

逃逸分析的基本行为就是分析对象动态作用域:

  • 当一个对象在方法中被定义后,对象只在方法内部使用,则认为没有发生逃逸
  • 当一个对象在方法中被定义后,它被外部方法所引用,则认为发生逃逸,例如作为调用参数传递到其他地方中,称为方法逃逸

如下代码:因为sb通过return返回了,那么sb就有可能会被其他方法所改变,这就发生了逃逸。

public static StringBuffer craeteStringBuffer(String s1, String s2) {
   StringBuffer sb = new StringBuffer();
   sb.append(s1);
   sb.append(s2);
   return sb;
}

所以就可以优化:

public static String createStringBuffer(String s1, String s2) {
   StringBuffer sb = new StringBuffer();
   sb.append(s1);
   sb.append(s2);
   return sb.toString();
}

锁消除:指的是如果对象被判断不会逃逸出去,那么在对象就不存在并发访问问题,对象上的锁处理都不会执行,从而提高性能。

比如如下代码写法:

synchronized (new Test()) {
    
}

当然,从上述代码也可以看出,锁消除优化在真正的工作代码中并不常见,一般加锁的对象都是支持多线程去访问的,除非程序员自己太拉胯。

标量替换:在Java虚拟机中,对象中的基本数据类型称为标量,引用的其他对象称为聚合量。
标量替换指的是如果方法中的对象不会逃逸,那么其中的标量就可以直接在栈上分配

  • 逃逸分析真正对性能优化比较大的方式是标量替换。
  • 常见栈上分配的场景:成员变量赋值、方法返回值、实例引用传递。
  • 通过
    -XX:+EliminateAllocations
    可以开启标量替换,
    -XX:+PrintEliminateAllocations
    查看标量替换情况。

image-20240126191725807

因此:根据JIT即时编器优化代码的特性,在编写代码时可以注意以下几个事项,可以让代码执行时拥有更好的性能:

  1. 尽量编写比较小的方法,让方法内联可以生效。
  2. 高频使用的代码,特别是第三方依赖库甚至是JDK中的,如果内容过度复杂是无法内联的,可以自行实现一个特定的优化版本。
  3. 注意下接口的实现数量,尽量不要超过2个,否则会影响内联的处理。
  4. 高频调用的方法中创建对象临时使用,尽量不要让对象逃逸。

ZGC详解

本节内容转载于:
@美团技术团队:新一代垃圾回收器ZGC的探索与实践
。比较完善(包含G1收集器停顿时间瓶颈,原理,优化等)。

作者:王东 王伟

ZGC概述

ZGC(The Z Garbage Collector)是JDK 11中推出的一款低延迟垃圾回收器,堆大小对STW的时间基本没有影响。它的设计目标包括:

  • 停顿时间不超过10ms;
  • 停顿时间不会随着堆的大小,或者活跃对象的大小而增加(对程序吞吐量影响小于15%);
  • 支持8MB~4TB级别的堆(未来支持16TB)

从设计目标来看,我们知道ZGC适用于
大内存低延迟
服务的内存管理和回收。本文主要介绍ZGC在低延时场景中的应用和卓越表现,文章内容主要分为四部分:

  1. GC之痛
    :介绍实际业务中遇到的GC痛点,并分析CMS收集器和G1收集器停顿时间瓶颈;
  2. ZGC原理
    :分析ZGC停顿时间比G1或CMS更短的本质原因,以及背后的技术原理;
  3. ZGC调优实践
    :重点分享对ZGC调优的理解,并分析若干个实际调优案例;
  4. 升级ZGC效果
    :展示在生产环境应用ZGC取得的效果

GC之痛

很多低延迟高可用Java服务的系统可用性经常受GC停顿的困扰。

GC停顿指垃圾回收期间STW(Stop The World),当STW时,所有应用线程停止活动,等待GC停顿结束

在G1垃圾回收器中,STW时间的主要来源是在转移阶段:

  1. 初始标记:STW,采用三色标记法标记从GC Root可直达的对象。 STW时间极短。
  2. 并发标记:并发执行,对存活对象进行标记。
  3. 最终标记:STW,处理SATB相关的对象标记。 STW时间极短。
  4. 清理:STW,如果区域中没有任何存活对象就直接清理。 STW时间极短 。
  5. 转移:将存活对象复制到别的区域。 STW时间较长

G1停顿时间的瓶颈主要是标记-复制中的转移阶段STW。为什么转移阶段不能和标记阶段一样并发执行呢?主要是G1未能解决转移过程中准确定位对象地址的问题。

ZGC的执行流程(待完善):

image-20240127201034141

ZGC转移时需要停顿的主要原因

在转移时,能不能让用户线程和GC线程同时工作呢?考虑下面的问题:

  • 转移完之后,需要将A对对象的引用更改为新对象的引用。但是在更改前,执行A.c.count = 2,此时更改的是转移前对象中的属性。

image-20240127201538295

  • 更改引用之后, A引用了转移之后的对象,此时获取A.c.count发现属性值依然是1。这样就产生了问题。

image-20240127201654842

所以G1为了解决问题,在转移过程中需要进行用户线程的停止。ZGC和Shenandoah GC解决了这个问题,让转移过程也能够并发执行。

Shenandoah GC就是通过G1源代码改造而来的,通过修改对象头的方式来完成并发转移,使用的核心技术:前向指针+读前屏障。Shenandoah GC有两个版本:

  • 1.0版本(不稳定)存在于JDK8和JDK11中,此版本是直接在对象的前8个字节增加了前向指针
    • 读数据:读前屏障,判断前向指针指向的是自己还是转移后的对象,然后进行操作;
    • 写数据:写前屏障,判断Mark Work中的GC状态,若GC状态为0说明处于GC过程中,直接写入、不为0则根据GC状态值确认当前处于垃圾回收的哪个阶段,让用户线程执行垃圾回收相关的任务。
  • 后续的JDK版本中均使用2.0版本,优化前向指针的位置,仅转移阶段将其放入了Mark Word中。

Shenandoah GC执行流程:

image-20240128131821173

ZGC原理

全并发的ZGC

与CMS中的ParNew和G1类似,
ZGC也采用标记-复制算法
,不过ZGC对该算法做了重大改进:
ZGC在标记、转移和重定位阶段几乎都是并发
的,这是ZGC实现停顿时间小于10ms目标的最关键原因

ZGC垃圾回收周期如下图所示:

img

ZGC只有三个STW阶段:
初始标记

再标记

初始转移
。其中:

  • 初始标记和初始转移分别都只需要扫描所有GC Roots,其处理时间和GC Roots的数量成正比,一般情况耗时非常短;
  • 再标记阶段STW时间很短,最多1ms,超过1ms则再次进入并发标记阶段。即,ZGC几乎所有暂停都只依赖于GC Roots集合大小,停顿时间不会随着堆的大小或者活跃对象的大小而增加。与ZGC对比,G1的转移阶段完全STW的,且停顿时间随存活对象的大小增加而增加。

ZGC关键技术

ZGC通过着色指针和读屏障技术,解决了转移过程中准确访问对象的问题,实现了并发转移。大致原理描述如下:并发转移中“并发”意味着GC线程在转移对象的过程中,应用线程也在不停地访问对象。假设对象发生转移,但对象地址未及时更新,那么应用线程可能访问到旧地址,从而造成错误。而在ZGC中,应用线程访问对象将触发“读屏障”,如果发现对象被移动了,那么“读屏障”会把读出来的指针更新到对象的新地址上,这样应用线程始终访问的都是对象的新地址。那么,JVM是如何判断对象被移动过呢?就是利用对象引用的地址,即着色指针。下面介绍着色指针和读屏障技术细节。

读屏障

读屏障(Load Barrier)是JVM向应用代码插入一小段代码的技术来实现转移后对象的获取。当应用线程从堆中读取对象引用时,就会执行这段代码。如果对象指向的不是转移后的对象,用户线程会将引用指向转移后的对象。

  • 需要注意的是:仅“从堆中读取对象引用”才会触发这段代码。

image-20240127202952494
image-20240127203209670

仅“从堆中读取对象引用”才会触发插入的代码:

Object o = obj.FieldA   // 从堆中读取引用,需要加入屏障
<Load barrier>
Object p = o  // 无需加入屏障,因为不是从堆中读取引用
o.dosomething() // 无需加入屏障,因为不是从堆中读取引用
int i =  obj.FieldB  //无需加入屏障,因为不是对象引用

ZGC中读屏障的代码作用:在对象标记和转移过程中,用于确定对象的引用地址是否满足条件,并作出相应动作。

着色指针

着色指针(Colored Pointers)是一种将信息存储在指针中的技术。

ZGC仅支持64位系统,它把64位虚拟地址空间划分为多个子空间,如下图所示:

img

其中,[0~4TB) 对应Java堆,[4TB ~ 8TB) 称为M0地址空间,[8TB ~ 12TB) 称为M1地址空间,[12TB ~ 16TB) 预留未使用,[16TB ~ 20TB) 称为Remapped空间。

当应用程序创建对象时,首先在堆空间申请一个虚拟地址,但该虚拟地址并不会映射到真正的物理地址。ZGC同时会为该对象在M0、M1和Remapped地址空间分别申请一个虚拟地址,且这三个虚拟地址对应同一个物理地址,但这三个空间在同一时间有且只有一个空间有效(就算颜色位不同,虚拟地址相同,最终指向的还是同一个物理地址)。ZGC之所以设置三个虚拟地址空间,是因为它使用“空间换时间”思想,去降低GC停顿时间。“空间换时间”中的空间是虚拟空间,而不是真正的物理空间。后续章节将详细介绍这三个空间的切换过程。

与上述地址空间划分相对应:

  1. ZGC实际仅使用64位地址空间的第0~41位,用于表示对象的地址(Obejct Address);
  2. 而第42~45位存储元数据,即这中间4位为颜色位,每一位只能存放0或1,并且同一时间只有其中一位是1。
  • 终结位(Finalizable):为1时表示只能通过终结器访问;
  • 重映射位(Remapped):转移完之后,对象的引用关系已经完成变更。
  • Marked0 和 Marked1:标记可达对象。

留个问题:为什么要使用两个Marked(即Marked0 和 Marked1),而不是一个?

  1. 第47~63位固定为0,这18位未使用(Unused)。

ZGC将对象存活信息存储在42~45位中,这与传统的垃圾回收并将对象存活信息放在对象头中完全不同。

img

ZGC的内存划分

在ZGC中,与G1垃圾回收器一样将堆内存划分成很多个区域,这些内存区域被称之为Zpage。

Zpage分成三类大中小,管控粒度比G1更细,这样更容易去控制停顿时间:

  1. 小区域:2M,只能保存256KB内的对象。
  2. 中区域:32M,保存256KB – 4M的对象。
  3. 大区域:只保存一个大于4M的对象。

ZGC执行流程

已完善版(未分代ZGC,即:JDK11 - JDK20):

image-20240127213845798

  1. 初始标记阶段:标记Gc Roots直接引用的对象为存活
    。对象数量不多,所以停顿时间非常短。

image-20240127214357356

每个阶段都需要为当前阶段定义一个颜色,当前阶段为标记阶段(Mark),所以使用Marked0(上图举例定义的颜色为红色),初始时指针的颜色位都是0。

现在需要将GC Roots能直接关联到的对象里面的颜色位(上述Marked0红色)对应的值由0改为1,

image-20240127220207735

这样就对GC Roots直接关联的对象的指针进行了着色,并且也就将GC Roots直接关联的对象(上图1、2、4)标记为了“存活对象”。

  1. 并发标记阶段:遍历所有对象,标记可以到达的每一个对象是否存活
    。用户线程使用读屏障,如果发现对象没有完成标记也会帮忙进行标记。

顺着初始标记阶段中标记的GC Roots直接关联的对象,找出这些对象引用的对象标记为“存活对象”(如下图 2 -> 5 -> 8),并使用当前阶段定义的颜色(标记阶段,如前面定义的Marked0红色)对指针进行着色。

image-20240127222802389

因为是并发,所以用户线程会活动,假如就是上图用户线程通过4对象访问5对象,这时用户线程就会使用“读屏障”,判断4 -> 5的指针是否为当前阶段的颜色(如上图定义的Marked0红色),如果不是,那么用户线程也会帮忙进行标记(即:将 4 -> 5的指针颜色标记为Marked0红色),从而提升整个并发标记阶段的效率。

image-20240127223444999

  1. 并发处理阶段:选择需要转移的Zpage,并创建转移表,用于记录转移前对象和转移后对象地址

image-20240127223948978

  • 转移开始阶段
    :转移GC Root直接关联的对象,不转移的对象remapped值设置成1,避免重复进行判断。

image-20240127224437980

对象1、2不需要进行转移,所以将GC Roots对象到1、2的指针着色,颜色为当前阶段定义的颜色(如上图举例定义的Remapped绿色);并且将不转移对象的指针对应的颜色位(Remapped)设置为1。此时用户线程若去访问对象1、2的指针就会认为1、2对象已经完成了转移的处理,直接使用即可。

对于对象4,因它属于转移对象,所以就会将对象4复制到转移后的Zpage中,并且在转移映射表中记录该对象转移前的地址和转移后的地址:

image-20240127225857048

注意:上图GC Roots -> 4'的指针颜色为Remapped绿色,它的Remapped会被设置为1,而4' -> 5还是红色是因为4'指向的对象5是转移前的对象。

  • 并发转移阶段
    :将剩余对象转移到新的ZPage中,转移之后将两个对象的地址记入转移映射表。

image-20240127230440947

转移完之后,转移前的ZPage就可以清空了,转移表需要保留下来。

image-20240127230601993

从上图也可看出:问题就出来了,虽然对象转移了,但它们的指针还没完全处理完。此时,如果用户线程访问4`对象引用的5对象:

image-20240127231149822

就会发现4' -> 5还是旧的引用(即还停留在Marked0阶段),那么会通过读屏障,利用转移映射表找到对象5转移后的地址5',从而将4对5的引用进行重置,修改为对5`的引用,同时将remap标记为1代表已经重新映射完成。

image-20240127231844237

并发转移阶段结束之后,这一轮的垃圾回收就结束了,但其实并没有完成所有指针的重映射工作,这个工作会放到下一阶段,与下一阶段的标记阶段一起完成(因为都需要遍历整个对象图)。

第二轮垃圾回收:

  1. 初始标记阶段:同样地,沿着GC Root标记对象。

此阶段又要定义当前阶段的颜色,并且得需要和第一次标记阶段区分开来,所以就需要使用到Marked1了,如下举例Marked1蓝色:

image-20240127232619450

将GC Roots直接关联的对象指针颜色改为当前阶段定义的颜色,并将该指针的颜色位修改为1.

  1. 并发标记阶段:如果Marked为1代表上一轮的重映射还没有完成,先完成重映射从转移表中找到老对象转移后的新对象,再进行标记。如果Remap为1,只需要进行标记

沿着GC Roots直观关联的对象,找其引用的对象,此时扫描的指针颜色就会出现多种:前面Remapped定义使用的颜色 和 Marked0定义使用的颜色

  • 发现是Remapped的颜色(Remap为1),则值进行标记即可(弄为当前阶段Marked1颜色,且其Marked1设为1);
  • 发现是Marked0的颜色(Marked0为1),代表上一轮的重映射还没有完成(还停留在Marked0阶段,未从Marked0 -> Remapped),那么就需要通过转移映射表找到老对象转移后的新对象,进行标记(指针弄为当前阶段Marked1的颜色,且其Marked1设为1)。

image-20240127234230158

这里也就解答了为什么要使用两个Marked(即Marked0 和 Marked1)?

  • 因为一个用来表示当前这一轮的垃圾回收的标记阶段;而另一个用来表示上一轮垃圾回收的标记阶段,这两个不断交替使用。
  1. 并发处理阶段:将转移映射表删除,释放内存空间

image-20240127234806066

  • 并发转移阶段 – 并发问题
    :如果用户线程在帮忙转移时,GC线程也发现这个对象需要复制,那么就会去尝试写入转移映射表,如果发现映射表中已经有相同的老对象,直接放弃。

image-20240127235136278

分代ZGC的设计

在JDK21之后,ZGC设计了年轻代和老年代,这样可以让大部分对象在年轻代回收,减少老年代的扫描次数,同样可以提升一定的性能。同时,年轻代和老年代的垃圾回收可以并行执行。

image-20240127235356152

分代之后的着色指针将原来的8字节保存地址的指针拆分成了三部分:

  1. 46位用来表示对象地址,最多可以表示64TB的地址空间。
  2. 中间的12位为颜色位。
  3. 最低4位和最高2位未使用

整个分代之后的读写屏障、着色指针的移位使用都变的异常复杂,仅作了解即可

image-20240127235503461

ZGC调优实践

ZGC不是“银弹”,需要根据服务的具体特点进行调优。网络上能搜索到实战经验较少,调优理论需自行摸索,我们在此阶段也耗费了不少时间,最终才达到理想的性能。本文的一个目的是列举一些使用ZGC时常见的问题,帮助大家使用ZGC提高服务可用性。

调优基础知识

理解ZGC重要配置参数

以我们服务在生产环境中ZGC参数配置为例,说明各个参数的作用:

重要参数配置样例:

-Xms10G -Xmx10G 
-XX:ReservedCodeCacheSize=256m -XX:InitialCodeCacheSize=256m 
-XX:+UnlockExperimentalVMOptions -XX:+UseZGC 
-XX:ConcGCThreads=2 -XX:ParallelGCThreads=6 
-XX:ZCollectionInterval=120 -XX:ZAllocationSpikeTolerance=5 
-XX:+UnlockDiagnosticVMOptions -XX:-ZProactive 
-Xlog:safepoint,Classhisto*=trace,age*,gc*=info:file=/opt/logs/logs/gc-%t.log:time,tid,tags:filecount=5,filesize=50m 
  • -Xms -Xmx
    :堆的最大内存和最小内存,这里都设置为10G,程序的堆内存将保持10G不变。
  • -XX:ReservedCodeCacheSize -XX:InitialCodeCacheSize
    :设置CodeCache的大小, JIT编译的代码都放在CodeCache中,一般服务64m或128m就已经足够。我们的服务因为有一定特殊性,所以设置的较大,后面会详细介绍。
  • -XX:+UnlockExperimentalVMOptions -XX:+UseZGC
    :启用ZGC的配置。
  • -XX:ConcGCThreads
    :并发回收垃圾的线程默认是总核数的12.5%,8核CPU默认是1调大后GC变快,但会占用程序运行时的CPU资源,吞吐会受到影响。
  • -XX:ParallelGCThreads
    :STW阶段使用线程数,默认是总核数的60%。
  • -XX:ZCollectionInterval
    :ZGC发生的最小时间间隔,单位秒。
  • -XX:ZAllocationSpikeTolerance
    :ZGC触发自适应算法的修正系数,默认2,数值越大,越早的触发ZGC。
  • -XX:+UnlockDiagnosticVMOptions -XX:-ZProactive
    :是否启用主动回收,默认开启,这里的配置表示关闭。
  • -Xlog
    :设置GC日志中的内容、格式、位置以及每个日志的大小。

理解ZGC触发时机

相比于CMS和G1的GC触发机制,ZGC的GC触发机制有很大不同。ZGC的核心特点是并发,GC过程中一直有新的对象产生。如何保证在GC完成之前,新产生的对象不会将堆占满,是ZGC参数调优的第一大目标。因为在ZGC中,当垃圾来不及回收将堆占满时,会导致正在运行的线程停顿,持续时间可能长达秒级之久。

ZGC有多种GC触发机制,总结如下:

  • 阻塞内存分配请求触发:当垃圾来不及回收,垃圾将堆占满时,会导致部分线程阻塞。我们应当避免出现这种触发方式。日志中关键字是“Allocation Stall”。
  • 基于分配速率的自适应算法:最主要的GC触发方式,其算法原理可简单描述为”ZGC根据近期的对象分配速率以及GC时间,计算出当内存占用达到什么阈值时触发下一次GC”。自适应算法的详细理论可参考彭成寒《新一代垃圾回收器ZGC设计与实现》一书中的内容。通过ZAllocationSpikeTolerance参数控制阈值大小,该参数默认2,数值越大,越早的触发GC。我们通过调整此参数解决了一些问题。日志中关键字是“Allocation Rate”。
  • 基于固定时间间隔:通过ZCollectionInterval控制,适合应对突增流量场景。流量平稳变化时,自适应算法可能在堆使用率达到95%以上才触发GC。流量突增时,自适应算法触发的时机可能会过晚,导致部分线程阻塞。我们通过调整此参数解决流量突增场景的问题,比如定时活动、秒杀等场景。日志中关键字是“Timer”。
  • 主动触发规则:类似于固定间隔规则,但时间间隔不固定,是ZGC自行算出来的时机,我们的服务因为已经加了基于固定时间间隔的触发机制,所以通过-ZProactive参数将该功能关闭,以免GC频繁,影响服务可用性。 日志中关键字是“Proactive”。
  • 预热规则:服务刚启动时出现,一般不需要关注。日志中关键字是“Warmup”。
  • 外部触发:代码中显式调用System.gc()触发。 日志中关键字是“System.gc()”。
  • 元数据分配触发:元数据区不足时导致,一般不需要关注。 日志中关键字是“Metadata GC Threshold”。

理解ZGC日志

一次完整的GC过程,需要注意的点已在图中标出

img

注意:该日志过滤了进入安全点的信息。正常情况,在一次GC过程中还穿插着进入安全点的操作。

GC日志中每一行都注明了GC过程中的信息,关键信息如下:

  • Start
    :开始GC,并标明的GC触发的原因。上图中触发原因是自适应算法。
  • Phase-Pause Mark Start
    :初始标记,会STW。
  • Phase-Pause Mark End
    :再次标记,会STW。
  • Phase-Pause Relocate Start
    :初始转移,会STW。
  • Heap信息
    :记录了GC过程中Mark、Relocate前后的堆大小变化状况。High和Low记录了其中的最大值和最小值,我们一般关注High中Used的值,如果达到100%,在GC过程中一定存在内存分配不足的情况,需要调整GC的触发时机,更早或者更快地进行GC。
  • GC信息统计
    :可以定时的打印垃圾收集信息,观察10秒内、10分钟内、10个小时内,从启动到现在的所有统计信息。利用这些统计信息,可以排查定位一些异常点。

日志中内容较多,关键点已用红线标出,含义较好理解,更详细的解释大家可以自行在网上查阅资料。

img

理解ZGC停顿原因

我们在实战过程中共发现了6种使程序停顿的场景,分别如下:

  • GC时,初始标记
    :日志中Pause Mark Start。
  • GC时,再标记
    :日志中Pause Mark End。
  • GC时,初始转移
    :日志中Pause Relocate Start。
  • 内存分配阻塞
    :当内存不足时线程会阻塞等待GC完成,关键字是”Allocation Stall”。

img

  • 安全点
    :所有线程进入到安全点后才能进行GC,ZGC定期进入安全点判断是否需要GC。先进入安全点的线程需要等待后进入安全点的线程直到所有线程挂起。
  • dump线程、内存
    :比如jstack、jmap命令。

img

img

调优案例

我们维护的服务名叫Zeus,它是美团的规则平台,常用于风控场景中的规则管理。规则运行是基于开源的表达式执行引擎
Aviator
。Aviator内部将每一条表达式转化成Java的一个类,通过调用该类的接口实现表达式逻辑。

Zeus服务内的规则数量超过万条,且每台机器每天的请求量几百万。这些客观条件导致Aviator生成的类和方法会产生很多的ClassLoader和CodeCache,这些在使用ZGC时都成为过GC的性能瓶颈。接下来介绍两类调优案例。

第一类:内存分配阻塞,系统停顿可达到秒级

案例一:秒杀活动中流量突增,出现性能毛刺

日志信息
:对比出现性能毛刺时间点的GC日志和业务日志,发现JVM停顿了较长时间,且停顿时GC日志中有大量的“Allocation Stall”日志。

分析
:这种案例多出现在“自适应算法”为主要GC触发机制的场景中。ZGC是一款并发的垃圾回收器,GC线程和应用线程同时活动,在GC过程中,还会产生新的对象。GC完成之前,新产生的对象将堆占满,那么应用线程可能因为申请内存失败而导致线程阻塞。当秒杀活动开始,大量请求打入系统,但自适应算法计算的GC触发间隔较长,导致GC触发不及时,引起了内存分配阻塞,导致停顿。

解决方法:

(1)开启”基于固定时间间隔“的GC触发机制:-XX:ZCollectionInterval。比如调整为5秒,甚至更短。
(2)增大修正系数-XX:ZAllocationSpikeTolerance,更早触发GC。ZGC采用正态分布模型预测内存分配速率,模型修正系数ZAllocationSpikeTolerance默认值为2,值越大,越早的触发GC,Zeus中所有集群设置的是5。

案例二:压测时,流量逐渐增大到一定程度后,出现性能毛刺

日志信息
:平均1秒GC一次,两次GC之间几乎没有间隔。

分析
:GC触发及时,但内存标记和回收速度过慢,引起内存分配阻塞,导致停顿。

解决方法
:增大-XX:ConcGCThreads, 加快并发标记和回收速度。ConcGCThreads默认值是核数的1/8,8核机器,默认值是1。该参数影响系统吞吐,如果GC间隔时间大于GC周期,不建议调整该参数。

第二类:GC Roots 数量大,单次GC停顿时间长

案例三: 单次GC停顿时间30ms,与预期停顿10ms左右有较大差距

日志信息
:观察ZGC日志信息统计,“Pause Roots ClassLoaderDataGraph”一项耗时较长。

分析
:dump内存文件,发现系统中有上万个ClassLoader实例。我们知道ClassLoader属于GC Roots一部分,且ZGC停顿时间与GC Roots成正比,GC Roots数量越大,停顿时间越久。再进一步分析,ClassLoader的类名表明,这些ClassLoader均由Aviator组件生成。分析Aviator源码,发现Aviator对每一个表达式新生成类时,会创建一个ClassLoader,这导致了ClassLoader数量巨大的问题。在更高Aviator版本中,该问题已经被修复,即仅创建一个ClassLoader为所有表达式生成类。

解决方法
:升级Aviator组件版本,避免生成多余的ClassLoader。

案例四:服务启动后,运行时间越长,单次GC时间越长,重启后恢复

日志信息
:观察ZGC日志信息统计,“Pause Roots CodeCache”的耗时会随着服务运行时间逐渐增长。

分析
:CodeCache空间用于存放Java热点代码的JIT编译结果,而CodeCache也属于GC Roots一部分。通过添加-XX:+PrintCodeCacheOnCompilation参数,打印CodeCache中的被优化的方法,发现大量的Aviator表达式代码。定位到根本原因,每个表达式都是一个类中一个方法。随着运行时间越长,执行次数增加,这些方法会被JIT优化编译进入到Code Cache中,导致CodeCache越来越大。

解决方法
:JIT有一些参数配置可以调整JIT编译的条件,但对于我们的问题都不太适用。我们最终通过业务优化解决,删除不需要执行的Aviator表达式,从而避免了大量Aviator方法进入CodeCache中。

值得一提的是,我们并不是在所有这些问题都解决后才全量部署所有集群。即使开始有各种各样的毛刺,但计算后发现,有各种问题的ZGC也比之前的CMS对服务可用性影响小。所以从开始准备使用ZGC到全量部署,大概用了2周的时间。在之后的3个月时间里,我们边做业务需求,边跟进这些问题,最终逐个解决了上述问题,从而使ZGC在各个集群上达到了一个更好表现。

升级ZGC效果

延迟降低

TP(Top Percentile)是一项衡量系统延迟的指标:TP999表示99.9%请求都能被响应的最小耗时;TP99表示99%请求都能被响应的最小耗时。

在Zeus服务不同集群中,ZGC在低延迟(TP999 < 200ms)场景中收益较大:

  • TP999
    :下降12
    142ms,下降幅度18%
    74%。
  • TP99
    :下降5
    28ms,下降幅度10%
    47%。

超低延迟(TP999 < 20ms)和高延迟(TP999 > 200ms)服务收益不大,原因是这些服务的响应时间瓶颈不是GC,而是外部依赖的性能。

吞吐下降

对吞吐量优先的场景,ZGC可能并不适合例如,Zeus某离线集群原先使用CMS,升级ZGC后,系统吞吐量明显降低究其原因有二:

  • 第一,ZGC是单代垃圾回收器,而CMS是分代垃圾回收器单代垃圾回收器每次处理的对象更多,更耗费CPU资源;
  • 第二,ZGC使用读屏障,读屏障操作需耗费额外的计算资源。

总结

ZGC作为下一代垃圾回收器,性能非常优秀。ZGC垃圾回收过程几乎全部是并发,实际STW停顿时间极短,不到10ms。这得益于其采用的着色指针和读屏障技术。

Zeus在升级JDK 11+ZGC中,通过将风险和问题分类,然后各个击破,最终顺利实现了升级目标,GC停顿也几乎不再影响系统可用性。

最后推荐大家升级ZGC,Zeus系统因为业务特点,遇到了较多问题,而风控其他团队在升级时都非常顺利。欢迎大家加入“ZGC使用交流”群。

参考文献

作者简介

  • 王东,美团信息安全资深工程师
  • 王伟,美团信息安全技术专家

更多优秀文章推荐

Java 内存模型(JMM)

Java 内存模型引入

声明:本节内容转载于
@pdai:JVM基础 - Java内存模型引入

很多人都无法区分Java内存模型和JVM内存结构,以及Java内存模型与物理内存之间的关系。本文从堆栈角度引入JMM,然后介绍JMM和物理内存之间的关系。@pdai

#
JMM引入

#
从堆栈说起

JVM内部使用的Java内存模型在线程栈和堆之间划分内存。 此图从逻辑角度说明了Java内存模型:

img

#
堆栈里面放了什么?

线程堆栈还包含正在执行的每个方法的所有局部变量(调用堆栈上的所有方法)。 线程只能访问它自己的线程堆栈。 由线程创建的局部变量对于创建它的线程以外的所有其他线程是不可见的。 即使两个线程正在执行完全相同的代码,两个线程仍将在每个自己的线程堆栈中创建该代码的局部变量。 因此,每个线程都有自己的每个局部变量的版本。

基本类型的所有局部变量(boolean,byte,short,char,int,long,float,double)完全存储在线程堆栈中,因此对其他线程不可见。 一个线程可以将一个基本类型变量的副本传递给另一个线程,但它不能共享原始局部变量本身。

堆包含了在Java应用程序中创建的所有对象,无论创建该对象的线程是什么。 这包括基本类型的包装类(例如Byte,Integer,Long等)。 无论是创建对象并将其分配给局部变量,还是创建为另一个对象的成员变量,该对象仍然存储在堆上。

img

局部变量可以是基本类型,在这种情况下,它完全保留在线程堆栈上。

局部变量也可以是对象的引用。 在这种情况下,引用(局部变量)存储在线程堆栈中,但是对象本身存储在堆(Heap)上。

对象的成员变量与对象本身一起存储在堆上。 当成员变量是基本类型时,以及它是对象的引用时都是如此。

静态类变量也与类定义一起存储在堆上。

#
线程栈如何访问堆上对象?

所有具有对象引用的线程都可以访问堆上的对象。 当一个线程有权访问一个对象时,它也可以访问该对象的成员变量。 如果两个线程同时在同一个对象上调用一个方法,它们都可以访问该对象的成员变量,但每个线程都有自己的局部变量副本。

img

两个线程有一组局部变量。 其中一个局部变量(局部变量2)指向堆上的共享对象(对象3)。 两个线程各自对同一对象具有不同的引用。 它们的引用是局部变量,因此存储在每个线程的线程堆栈中(在每个线程堆栈上)。 但是,这两个不同的引用指向堆上的同一个对象。

注意共享对象(对象3)如何将对象2和对象4作为成员变量引用(由对象3到对象2和对象4的箭头所示)。 通过对象3中的这些成员变量引用,两个线程可以访问对象2和对象4.

该图还显示了一个局部变量,该变量指向堆上的两个不同对象。 在这种情况下,引用指向两个不同的对象(对象1和对象5),而不是同一个对象。 理论上,如果两个线程都引用了两个对象,则两个线程都可以访问对象1和对象5。 但是在上图中,每个线程只引用了两个对象中的一个。

#
线程栈访问堆示例

那么,什么样的Java代码可以导致上面的内存图? 好吧,代码就像下面的代码一样简单:

public class MyRunnable implements Runnable() {

    public void run() {
        methodOne();
    }

    public void methodOne() {
        int localVariable1 = 45;

        MySharedObject localVariable2 =
            MySharedObject.sharedInstance;

        //... do more with local variables.

        methodTwo();
    }

    public void methodTwo() {
        Integer localVariable1 = new Integer(99);

        //... do more with local variable.
    }
}

public class MySharedObject {

    //static variable pointing to instance of MySharedObject

    public static final MySharedObject sharedInstance =
        new MySharedObject();


    //member variables pointing to two objects on the heap

    public Integer object2 = new Integer(22);
    public Integer object4 = new Integer(44);

    public long member1 = 12345;
    public long member1 = 67890;
}

如果两个线程正在执行run()方法,则前面显示的图表将是结果。 run()方法调用methodOne(),methodOne()调用methodTwo()。

methodOne()声明一个局部基本类型变量(类型为int的localVariable1)和一个局部变量,它是一个对象引用(localVariable2)。

执行methodOne()的每个线程将在各自的线程堆栈上创建自己的localVariable1和localVariable2副本。 localVariable1变量将完全相互分离,只存在于每个线程的线程堆栈中。 一个线程无法看到另一个线程对其localVariable1副本所做的更改。

执行methodOne()的每个线程也将创建自己的localVariable2副本。 但是,localVariable2的两个不同副本最终都指向堆上的同一个对象。 代码将localVariable2设置为指向静态变量引用的对象。 静态变量只有一个副本,此副本存储在堆上。 因此,localVariable2的两个副本最终都指向静态变量指向的MySharedObject的同一个实例。 MySharedObject实例也存储在堆上。 它对应于上图中的对象3。

注意MySharedObject类还包含两个成员变量。 成员变量本身与对象一起存储在堆上。 两个成员变量指向另外两个Integer对象。 这些Integer对象对应于上图中的Object 2和Object 4。

另请注意methodTwo()如何创建名为localVariable1的局部变量。 此局部变量是对Integer对象的对象引用。 该方法将localVariable1引用设置为指向新的Integer实例。 localVariable1引用将存储在执行methodTwo()的每个线程的一个副本中。 实例化的两个Integer对象将存储在堆上,但由于该方法每次执行该方法时都会创建一个新的Integer对象,因此执行此方法的两个线程将创建单独的Integer实例。 在methodTwo()中创建的Integer对象对应于上图中的Object 1和Object 5。

另请注意类型为long的MySharedObject类中的两个成员变量,它们是基本类型。 由于这些变量是成员变量,因此它们仍与对象一起存储在堆上。 只有局部变量存储在线程堆栈中。

#
JMM与硬件内存结构关系

#
硬件内存结构简介

现代硬件内存架构与内部Java内存模型略有不同。 了解硬件内存架构也很重要,以了解Java内存模型如何与其一起工作。 本节介绍了常见的硬件内存架构,后面的部分将介绍Java内存模型如何与其配合使用。

这是现代计算机硬件架构的简化图:

img

现代计算机通常有2个或更多CPU。 其中一些CPU也可能有多个内核。 关键是,在具有2个或更多CPU的现代计算机上,可以同时运行多个线程。 每个CPU都能够在任何给定时间运行一个线程。 这意味着如果您的Java应用程序是多线程的,线程真的在可能同时运行.

每个CPU基本上都包含一组在CPU内存中的寄存器。 CPU可以在这些寄存器上执行的操作比在主存储器中对变量执行的操作快得多。 这是因为CPU可以比访问主存储器更快地访问这些寄存器。

每个CPU还可以具有CPU高速缓存存储器层。 事实上,大多数现代CPU都有一些大小的缓存存储层。 CPU可以比主存储器更快地访问其高速缓存存储器,但通常不会像访问其内部寄存器那样快。 因此,CPU高速缓存存储器介于内部寄存器和主存储器的速度之间。 某些CPU可能有多个缓存层(级别1和级别2),但要了解Java内存模型如何与内存交互,这一点并不重要。 重要的是要知道CPU可以有某种缓存存储层。

计算机还包含主存储区(RAM)。 所有CPU都可以访问主内存。 主存储区通常比CPU的高速缓存存储器大得多。同时访问速度也就较慢.

通常,当CPU需要访问主存储器时,它会将部分主存储器读入其CPU缓存。 它甚至可以将部分缓存读入其内部寄存器,然后对其执行操作。 当CPU需要将结果写回主存储器时,它会将值从其内部寄存器刷新到高速缓冲存储器,并在某些时候将值刷新回主存储器。

#
JMM与硬件内存连接 - 引入

如前所述,Java内存模型和硬件内存架构是不同的。 硬件内存架构不区分线程堆栈和堆。 在硬件上,线程堆栈和堆都位于主存储器中。 线程堆栈和堆的一部分有时可能存在于CPU高速缓存和内部CPU寄存器中。 这在图中说明:

img

当对象和变量可以存储在计算机的各种不同存储区域中时,可能会出现某些问题。 两个主要问题是:

  • Visibility of thread updates (writes) to shared variables.
  • Race conditions when reading, checking and writing shared variables. 以下各节将解释这两个问题。

#
JMM与硬件内存连接 - 对象共享后的可见性

如果两个或多个线程共享一个对象,而没有正确使用volatile声明或同步,则一个线程对共享对象的更新可能对其他线程不可见。

想象一下,共享对象最初存储在主存储器中。 然后,在CPU上运行的线程将共享对象读入其CPU缓存中。 它在那里对共享对象进行了更改。 只要CPU缓存尚未刷新回主内存,共享对象的更改版本对于在其他CPU上运行的线程是不可见的。 这样,每个线程最终都可能拥有自己的共享对象副本,每个副本都位于不同的CPU缓存中。

下图描绘了该情况。 在左CPU上运行的一个线程将共享对象复制到其CPU缓存中,并将其count变量更改为2.对于在右边的CPU上运行的其他线程,此更改不可见,因为计数更新尚未刷新回主内存中.

img

要解决此问题,您可以使用Java的volatile关键字。 volatile关键字可以确保直接从主内存读取给定变量,并在更新时始终写回主内存。

#
JMM与硬件内存连接 - 竞态条件

如果两个或多个线程共享一个对象,并且多个线程更新该共享对象中的变量,则可能会出现竞态。

想象一下,如果线程A将共享对象的变量计数读入其CPU缓存中。 想象一下,线程B也做同样的事情,但是进入不同的CPU缓存。 现在,线程A将一个添加到count,而线程B执行相同的操作。 现在var1已经增加了两次,每个CPU缓存一次。

如果这些增量是按先后顺序执行的,则变量计数将增加两次并将原始值+ 2写回主存储器。

但是,两个增量同时执行而没有适当的同步。 无论线程A和B中哪一个将其更新后的计数版本写回主存储器,更新的值将仅比原始值高1,尽管有两个增量。

该图说明了如上所述的竞争条件问题的发生:

img

要解决此问题,您可以使用Java synchronized块。 同步块保证在任何给定时间只有一个线程可以进入代码的给定关键部分。 同步块还保证在同步块内访问的所有变量都将从主存储器中读入,当线程退出同步块时,所有更新的变量将再次刷新回主存储器,无论变量是不是声明为volatile

Java 内存模型详解

声明:本文主要转载自 Info 上
深入理解Java内存模型

原作者:程晓明。

说明:这篇文章对JMM讲得很清楚了,大致分三部分:重排序与顺序一致性;三个同步原语(lock,volatile,final)的内存语义,重排序规则及在处理器中的实现;Java内存模型的设计,及其与处理器内存模型和顺序一致性内存模型的关系。

#
基础

#
并发编程模型的分类

在并发编程中,我们需要处理两个关键问题:线程之间如何通信及线程之间如何同步(这里的线程是指并发执行的活动实体)。通信是指线程之间以何种机制来交换信息。在命令式编程中,线程之间的通信机制有两种:共享内存和消息传递。

在共享内存的并发模型里,线程之间共享程序的公共状态,线程之间通过写 - 读内存中的公共状态来隐式进行通信。在消息传递的并发模型里,线程之间没有公共状态,线程之间必须通过明确的发送消息来显式进行通信。

同步是指程序用于控制不同线程之间操作发生相对顺序的机制。在共享内存并发模型里,同步是显式进行的。程序员必须显式指定某个方法或某段代码需要在线程之间互斥执行。在消息传递的并发模型里,由于消息的发送必须在消息的接收之前,因此同步是隐式进行的。

Java 的并发采用的是共享内存模型,Java 线程之间的通信总是隐式进行,整个通信过程对程序员完全透明。如果编写多线程程序的 Java 程序员不理解隐式进行的线程之间通信的工作机制,很可能会遇到各种奇怪的内存可见性问题。

#
Java 内存模型的抽象

在 java 中,所有实例域、静态域和数组元素存储在堆内存中,堆内存在线程之间共享(本文使用“共享变量”这个术语代指实例域,静态域和数组元素)。局部变量(Local variables),方法定义参数(java 语言规范称之为 formal method parameters)和异常处理器参数(exception handler parameters)不会在线程之间共享,它们不会有内存可见性问题,也不受内存模型的影响。

Java 线程之间的通信由 Java 内存模型(本文简称为 JMM)控制,JMM 决定一个线程对共享变量的写入何时对另一个线程可见。从抽象的角度来看,JMM 定义了线程和主内存之间的抽象关系:线程之间的共享变量存储在主内存(main memory)中,每个线程都有一个私有的本地内存(local memory),本地内存中存储了该线程以读 / 写共享变量的副本。本地内存是 JMM 的一个抽象概念,并不真实存在。它涵盖了缓存,写缓冲区,寄存器以及其他的硬件和编译器优化。Java 内存模型的抽象示意图如下:

img

从上图来看,线程 A 与线程 B 之间如要通信的话,必须要经历下面 2 个步骤:

  • 首先,线程 A 把本地内存 A 中更新过的共享变量刷新到主内存中去。
  • 然后,线程 B 到主内存中去读取线程 A 之前已更新过的共享变量。

下面通过示意图来说明这两个步骤:

img

如上图所示,本地内存 A 和 B 有主内存中共享变量 x 的副本。假设初始时,这三个内存中的 x 值都为 0。线程 A 在执行时,把更新后的 x 值(假设值为 1)临时存放在自己的本地内存 A 中。当线程 A 和线程 B 需要通信时,线程 A 首先会把自己本地内存中修改后的 x 值刷新到主内存中,此时主内存中的 x 值变为了 1。随后,线程 B 到主内存中去读取线程 A 更新后的 x 值,此时线程 B 的本地内存的 x 值也变为了 1。

从整体来看,这两个步骤实质上是线程 A 在向线程 B 发送消息,而且这个通信过程必须要经过主内存。JMM 通过控制主内存与每个线程的本地内存之间的交互,来为 java 程序员提供内存可见性保证。

#
重排序

在执行程序时为了提高性能,编译器和处理器常常会对指令做重排序。重排序分三种类型:

  • 编译器优化的重排序。编译器在不改变单线程程序语义的前提下,可以重新安排语句的执行顺序。
  • 指令级并行的重排序。现代处理器采用了指令级并行技术(Instruction-Level Parallelism, ILP)来将多条指令重叠执行。如果不存在数据依赖性,处理器可以改变语句对应机器指令的执行顺序。
  • 内存系统的重排序。由于处理器使用缓存和读 / 写缓冲区,这使得加载和存储操作看上去可能是在乱序执行。

从 java 源代码到最终实际执行的指令序列,会分别经历下面三种重排序:

img

上述的 1 属于编译器重排序,2 和 3 属于处理器重排序。这些重排序都可能会导致多线程程序出现内存可见性问题。对于编译器,JMM 的编译器重排序规则会禁止特定类型的编译器重排序(不是所有的编译器重排序都要禁止)。对于处理器重排序,JMM 的处理器重排序规则会要求 java 编译器在生成指令序列时,插入特定类型的内存屏障(memory barriers,intel 称之为 memory fence)指令,通过内存屏障指令来禁止特定类型的处理器重排序(不是所有的处理器重排序都要禁止)。

JMM 属于语言级的内存模型,它确保在不同的编译器和不同的处理器平台之上,通过禁止特定类型的编译器重排序和处理器重排序,为程序员提供一致的内存可见性保证。

#
处理器重排序与内存屏障指令

现代的处理器使用写缓冲区来临时保存向内存写入的数据。写缓冲区可以保证指令流水线持续运行,它可以避免由于处理器停顿下来等待向内存写入数据而产生的延迟。同时,通过以批处理的方式刷新写缓冲区,以及合并写缓冲区中对同一内存地址的多次写,可以减少对内存总线的占用。虽然写缓冲区有这么多好处,但每个处理器上的写缓冲区,仅仅对它所在的处理器可见。这个特性会对内存操作的执行顺序产生重要的影响:处理器对内存的读 / 写操作的执行顺序,不一定与内存实际发生的读 / 写操作顺序一致!为了具体说明,请看下面示例:

// Processor A
a = 1; //A1  
x = b; //A2

// Processor B
b = 2; //B1  
y = a; //B2

// 初始状态:a = b = 0;处理器允许执行后得到结果:x = y = 0

假设处理器 A 和处理器 B 按程序的顺序并行执行内存访问,最终却可能得到 x = y = 0 的结果。具体的原因如下图所示:

img

这里处理器 A 和处理器 B 可以同时把共享变量写入自己的写缓冲区(A1,B1),然后从内存中读取另一个共享变量(A2,B2),最后才把自己写缓存区中保存的脏数据刷新到内存中(A3,B3)。当以这种时序执行时,程序就可以得到 x = y = 0 的结果。

从内存操作实际发生的顺序来看,直到处理器 A 执行 A3 来刷新自己的写缓存区,写操作 A1 才算真正执行了。虽然处理器 A 执行内存操作的顺序为:A1->A2,但内存操作实际发生的顺序却是:A2->A1。此时,处理器 A 的内存操作顺序被重排序了(处理器 B 的情况和处理器 A 一样,这里就不赘述了)。

这里的关键是,由于写缓冲区仅对自己的处理器可见,它会导致处理器执行内存操作的顺序可能会与内存实际的操作执行顺序不一致。由于现代的处理器都会使用写缓冲区,因此现代的处理器都会允许对写 - 读操做重排序。

下面是常见处理器允许的重排序类型的列表:

Load-Load Load-Store Store-Store Store-Load 数据依赖
sparc-TSO N N N Y N
x86 N N N Y N
ia64 Y Y Y Y N
PowerPC Y Y Y Y N

上表单元格中的“N”表示处理器不允许两个操作重排序,“Y”表示允许重排序。

从上表我们可以看出:常见的处理器都允许 Store-Load 重排序;常见的处理器都不允许对存在数据依赖的操作做重排序。sparc-TSO 和 x86 拥有相对较强的处理器内存模型,它们仅允许对写 - 读操作做重排序(因为它们都使用了写缓冲区)。

  • ※注 1:sparc-TSO 是指以 TSO(Total Store Order) 内存模型运行时,sparc 处理器的特性。
  • ※注 2:上表中的 x86 包括 x64 及 AMD64。
  • ※注 3:由于 ARM 处理器的内存模型与 PowerPC 处理器的内存模型非常类似,本文将忽略它。
  • ※注 4:数据依赖性后文会专门说明。

为了保证内存可见性,java 编译器在生成指令序列的适当位置会插入内存屏障指令来禁止特定类型的处理器重排序。JMM 把内存屏障指令分为下列四类:

屏障类型 指令示例 说明
LoadLoad Barriers Load1; LoadLoad; Load2 确保 Load1 数据的装载,之前于 Load2 及所有后续装载指令的装载。
StoreStore Barriers Store1; StoreStore; Store2 确保 Store1 数据对其他处理器可见(刷新到内存),之前于 Store2 及所有后续存储指令的存储。
LoadStore Barriers Load1; LoadStore; Store2 确保 Load1 数据装载,之前于 Store2 及所有后续的存储指令刷新到内存。
StoreLoad Barriers Store1; StoreLoad; Load2 确保 Store1 数据对其他处理器变得可见(指刷新到内存),之前于 Load2 及所有后续装载指令的装载。

StoreLoad Barriers 会使该屏障之前的所有内存访问指令(存储和装载指令)完成之后,才执行该屏障之后的内存访问指令。

StoreLoad Barriers 是一个“全能型”的屏障,它同时具有其他三个屏障的效果。现代的多处理器大都支持该屏障(其他类型的屏障不一定被所有处理器支持)。执行该屏障开销会很昂贵,因为当前处理器通常要把写缓冲区中的数据全部刷新到内存中(buffer fully flush)。

#
happens-before

happens-before八大规则
  1. 单一线程规则(Single Thread rule)
    :在一个线程内,在程序前面的操作先行发生于后面的操作。
  2. 管道锁定规则(Monitor Lock Rule)
    :一个 unlock 操作先行发生于后面对同一个锁的 lock 操作。
  3. Volatile变量规则(Volatile Variable Rule)
    :对一个 volatile 变量的写操作先行发生于后面对这个变量的读操作。
  4. 线程启动规则(Thread Start Rule)
    :Thread 对象的
    start()
    方法调用先行发生于此线程的每一个动作。
  5. 线程加入规则(Thread Join Rule)
    :Thread 对象的结束先行发生于
    join()
    方法返回。
  6. 线程中断规则(Thread Interruption Rule)
    :对线程 i
    nterrupt()
    方法的调用先行发生于被中断线程的代码检测到中断事件的发生,可以通过
    interrupted()
    方法检测到是否有中断发生。
  7. 对象终结规则(Finalizer Rule)
    :一个对象的初始化完成(构造函数执行结束)先行发生于它的
    finalize()
    方法的开始。
  8. 传递性(Transitivity)
    :如果操作 A 先行发生于操作 B,操作 B 先行发生于操作 C,那么操作 A 先行发生于操作 C。

从 JDK5 开始,Java 使用新的 JSR -133 内存模型(本文除非特别说明,针对的都是 JSR- 133 内存模型)。JSR-133 提出了 happens-before 的概念,通过这个概念来阐述操作之间的内存可见性。如果一个操作执行的结果需要对另一个操作可见,那么这两个操作之间必须存在 happens-before 关系。这里提到的两个操作既可以是在一个线程之内,也可以是在不同线程之间。 与程序员密切相关的 happens-before 规则如下:

  • 程序顺序规则:一个线程中的每个操作,happens- before 于该线程中的任意后续操作。
  • 监视器锁规则:对一个监视器锁的解锁,happens- before 于随后对这个监视器锁的加锁。
  • volatile 变量规则:对一个 volatile 域的写,happens- before 于任意后续对这个 volatile 域的读。
  • 传递性:如果 A happens- before B,且 B happens- before C,那么 A happens- before C。

注意,两个操作之间具有 happens-before 关系,并不意味着前一个操作必须要在后一个操作之前执行!happens-before 仅仅要求前一个操作(执行的结果)对后一个操作可见,且前一个操作按顺序排在第二个操作之前(the first is visible to and ordered before the second)。happens- before 的定义很微妙,后文会具体说明 happens-before 为什么要这么定义。

happens-before 与 JMM 的关系如下图所示:

img

如上图所示,一个 happens-before 规则通常对应于多个编译器重排序规则和处理器重排序规则。对于 java 程序员来说,happens-before 规则简单易懂,它避免程序员为了理解 JMM 提供的内存可见性保证而去学习复杂的重排序规则以及这些规则的具体实现。

#
重排序

#
数据依赖性

如果两个操作访问同一个变量,且这两个操作中有一个为写操作,此时这两个操作之间就存在数据依赖性。数据依赖分下列三种类型:

名称 代码示例 说明
写后读 a = 1;b = a; 写一个变量之后,再读这个位置。
写后写 a = 1;a = 2; 写一个变量之后,再写这个变量。
读后写 a = b;b = 1; 读一个变量之后,再写这个变量。

上面三种情况,只要重排序两个操作的执行顺序,程序的执行结果将会被改变。

前面提到过,编译器和处理器可能会对操作做重排序。编译器和处理器在重排序时,会遵守数据依赖性,编译器和处理器不会改变存在数据依赖关系的两个操作的执行顺序。

注意,这里所说的数据依赖性仅针对单个处理器中执行的指令序列和单个线程中执行的操作,不同处理器之间和不同线程之间的数据依赖性不被编译器和处理器考虑。

#
as-if-serial 语义

as-if-serial 语义的意思指:不管怎么重排序(编译器和处理器为了提高并行度),(单线程)程序的执行结果不能被改变。编译器,runtime 和处理器都必须遵守 as-if-serial 语义。

为了遵守 as-if-serial 语义,编译器和处理器不会对存在数据依赖关系的操作做重排序,因为这种重排序会改变执行结果。但是,如果操作之间不存在数据依赖关系,这些操作可能被编译器和处理器重排序。为了具体说明,请看下面计算圆面积的代码示例:

double pi  = 3.14;    //A
double r   = 1.0;     //B
double area = pi * r * r; //C

上面三个操作的数据依赖关系如下图所示:

img

如上图所示,A 和 C 之间存在数据依赖关系,同时 B 和 C 之间也存在数据依赖关系。因此在最终执行的指令序列中,C 不能被重排序到 A 和 B 的前面(C 排到 A 和 B 的前面,程序的结果将会被改变)。但 A 和 B 之间没有数据依赖关系,编译器和处理器可以重排序 A 和 B 之间的执行顺序。下图是该程序的两种执行顺序:

img

as-if-serial 语义把单线程程序保护了起来,遵守 as-if-serial 语义的编译器,runtime 和处理器共同为编写单线程程序的程序员创建了一个幻觉:单线程程序是按程序的顺序来执行的。as-if-serial 语义使单线程程序员无需担心重排序会干扰他们,也无需担心内存可见性问题。

#
程序顺序规则

根据 happens- before 的程序顺序规则,上面计算圆的面积的示例代码存在三个 happens- before 关系:

  • A happens- before B;
  • B happens- before C;
  • A happens- before C;

这里的第 3 个 happens- before 关系,是根据 happens- before 的传递性推导出来的。

这里 A happens- before B,但实际执行时 B 却可以排在 A 之前执行(看上面的重排序后的执行顺序)。在第一章提到过,如果 A happens- before B,JMM 并不要求 A 一定要在 B 之前执行。JMM 仅仅要求前一个操作(执行的结果)对后一个操作可见,且前一个操作按顺序排在第二个操作之前。这里操作 A 的执行结果不需要对操作 B 可见;而且重排序操作 A 和操作 B 后的执行结果,与操作 A 和操作 B 按 happens- before 顺序执行的结果一致。在这种情况下,JMM 会认为这种重排序并不非法(not illegal),JMM 允许这种重排序。

在计算机中,软件技术和硬件技术有一个共同的目标:在不改变程序执行结果的前提下,尽可能的开发并行度。编译器和处理器遵从这一目标,从 happens- before 的定义我们可以看出,JMM 同样遵从这一目标。

#
重排序对多线程的影响

现在让我们来看看,重排序是否会改变多线程程序的执行结果。请看下面的示例代码:

class ReorderExample {
    int a = 0;
    boolean flag = false;

    public void writer() {
        a = 1;                   //1
        flag = true;             //2
    }

    Public void reader() {
        if (flag) {                //3
            int i =  a * a;        //4
            ……
        }
    }
}

flag 变量是个标记,用来标识变量 a 是否已被写入。这里假设有两个线程 A 和 B,A 首先执行 writer() 方法,随后 B 线程接着执行 reader() 方法。线程 B 在执行操作 4 时,能否看到线程 A 在操作 1 对共享变量 a 的写入?

答案是:不一定能看到。

由于操作 1 和操作 2 没有数据依赖关系,编译器和处理器可以对这两个操作重排序;同样,操作 3 和操作 4 没有数据依赖关系,编译器和处理器也可以对这两个操作重排序。让我们先来看看,当操作 1 和操作 2 重排序时,可能会产生什么效果? 请看下面的程序执行时序图:

img

如上图所示,操作 1 和操作 2 做了重排序。程序执行时,线程 A 首先写标记变量 flag,随后线程 B 读这个变量。由于条件判断为真,线程 B 将读取变量 a。此时,变量 a 还根本没有被线程 A 写入,在这里多线程程序的语义被重排序破坏了!

※注:本文统一用红色的虚箭线表示错误的读操作,用绿色的虚箭线表示正确的读操作。

下面再让我们看看,当操作 3 和操作 4 重排序时会产生什么效果(借助这个重排序,可以顺便说明控制依赖性)。下面是操作 3 和操作 4 重排序后,程序的执行时序图:

img

在程序中,操作 3 和操作 4 存在控制依赖关系。当代码中存在控制依赖性时,会影响指令序列执行的并行度。为此,编译器和处理器会采用猜测(Speculation)执行来克服控制相关性对并行度的影响。以处理器的猜测执行为例,执行线程 B 的处理器可以提前读取并计算 a*a,然后把计算结果临时保存到一个名为重排序缓冲(reorder buffer ROB)的硬件缓存中。当接下来操作 3 的条件判断为真时,就把该计算结果写入变量 i 中。

从图中我们可以看出,猜测执行实质上对操作 3 和 4 做了重排序。重排序在这里破坏了多线程程序的语义!

在单线程程序中,对存在控制依赖的操作重排序,不会改变执行结果(这也是 as-if-serial 语义允许对存在控制依赖的操作做重排序的原因);但在多线程程序中,对存在控制依赖的操作重排序,可能会改变程序的执行结果。

#
顺序一致性

#
数据竞争与顺序一致性保证

当程序未正确同步时,就会存在数据竞争。java 内存模型规范对数据竞争的定义如下:

  • 在一个线程中写一个变量,
  • 在另一个线程读同一个变量,
  • 而且写和读没有通过同步来排序。

当代码中包含数据竞争时,程序的执行往往产生违反直觉的结果(前一章的示例正是如此)。如果一个多线程程序能正确同步,这个程序将是一个没有数据竞争的程序。

JMM 对正确同步的多线程程序的内存一致性做了如下保证:

  • 如果程序是正确同步的,程序的执行将具有顺序一致性(sequentially consistent)-- 即程序的执行结果与该程序在顺序一致性内存模型中的执行结果相同(马上我们将会看到,这对于程序员来说是一个极强的保证)。这里的同步是指广义上的同步,包括对常用同步原语(lock,volatile 和 final)的正确使用。

#
顺序一致性内存模型

顺序一致性内存模型是一个被计算机科学家理想化了的理论参考模型,它为程序员提供了极强的内存可见性保证。顺序一致性内存模型有两大特性:

  • 一个线程中的所有操作必须按照程序的顺序来执行。 +(不管程序是否同步)所有线程都只能看到一个单一的操作执行顺序。在顺序一致性内存模型中,每个操作都必须原子执行且立刻对所有线程可见。 顺序一致性内存模型为程序员提供的视图如下:

img

在概念上,顺序一致性模型有一个单一的全局内存,这个内存通过一个左右摆动的开关可以连接到任意一个线程。同时,每一个线程必须按程序的顺序来执行内存读 / 写操作。从上图我们可以看出,在任意时间点最多只能有一个线程可以连接到内存。当多个线程并发执行时,图中的开关装置能把所有线程的所有内存读 / 写操作串行化。

为了更好的理解,下面我们通过两个示意图来对顺序一致性模型的特性做进一步的说明。

假设有两个线程 A 和 B 并发执行。其中 A 线程有三个操作,它们在程序中的顺序是:A1->A2->A3。B 线程也有三个操作,它们在程序中的顺序是:B1->B2->B3。

假设这两个线程使用监视器来正确同步:A 线程的三个操作执行后释放监视器,随后 B 线程获取同一个监视器。那么程序在顺序一致性模型中的执行效果将如下图所示:

img

现在我们再假设这两个线程没有做同步,下面是这个未同步程序在顺序一致性模型中的执行示意图:

img

未同步程序在顺序一致性模型中虽然整体执行顺序是无序的,但所有线程都只能看到一个一致的整体执行顺序。以上图为例,线程 A 和 B 看到的执行顺序都是:B1->A1->A2->B2->A3->B3。之所以能得到这个保证是因为顺序一致性内存模型中的每个操作必须立即对任意线程可见。

但是,在 JMM 中就没有这个保证。未同步程序在 JMM 中不但整体的执行顺序是无序的,而且所有线程看到的操作执行顺序也可能不一致。比如,在当前线程把写过的数据缓存在本地内存中,且还没有刷新到主内存之前,这个写操作仅对当前线程可见;从其他线程的角度来观察,会认为这个写操作根本还没有被当前线程执行。只有当前线程把本地内存中写过的数据刷新到主内存之后,这个写操作才能对其他线程可见。在这种情况下,当前线程和其它线程看到的操作执行顺序将不一致。

#
同步程序的顺序一致性效果

下面我们对前面的示例程序 ReorderExample 用监视器来同步,看看正确同步的程序如何具有顺序一致性。

请看下面的示例代码:

class SynchronizedExample {
    int a = 0;
    boolean flag = false;

    public synchronized void writer() {
        a = 1;
        flag = true;
    }

    public synchronized void reader() {
        if (flag) {
            int i = a;
            ……
        }
    }
}

上面示例代码中,假设 A 线程执行 writer() 方法后,B 线程执行 reader() 方法。这是一个正确同步的多线程程序。根据 JMM 规范,该程序的执行结果将与该程序在顺序一致性模型中的执行结果相同。下面是该程序在两个内存模型中的执行时序对比图:

img

在顺序一致性模型中,所有操作完全按程序的顺序串行执行。而在 JMM 中,临界区内的代码可以重排序(但 JMM 不允许临界区内的代码“逸出”到临界区之外,那样会破坏监视器的语义)。JMM 会在退出监视器和进入监视器这两个关键时间点做一些特别处理,使得线程在这两个时间点具有与顺序一致性模型相同的内存视图(具体细节后文会说明)。虽然线程 A 在临界区内做了重排序,但由于监视器的互斥执行的特性,这里的线程 B 根本无法“观察”到线程 A 在临界区内的重排序。这种重排序既提高了执行效率,又没有改变程序的执行结果。

从这里我们可以看到 JMM 在具体实现上的基本方针:在不改变(正确同步的)程序执行结果的前提下,尽可能的为编译器和处理器的优化打开方便之门。

#
未同步程序的执行特性

对于未同步或未正确同步的多线程程序,JMM 只提供最小安全性:线程执行时读取到的值,要么是之前某个线程写入的值,要么是默认值(0,null,false),JMM 保证线程读操作读取到的值不会无中生有(out of thin air)的冒出来。为了实现最小安全性,JVM 在堆上分配对象时,首先会清零内存空间,然后才会在上面分配对象(JVM 内部会同步这两个操作)。因此,在以清零的内存空间(pre-zeroed memory)分配对象时,域的默认初始化已经完成了。

JMM 不保证未同步程序的执行结果与该程序在顺序一致性模型中的执行结果一致。因为未同步程序在顺序一致性模型中执行时,整体上是无序的,其执行结果无法预知。保证未同步程序在两个模型中的执行结果一致毫无意义。

和顺序一致性模型一样,未同步程序在 JMM 中的执行时,整体上也是无序的,其执行结果也无法预知。同时,未同步程序在这两个模型中的执行特性有下面几个差异:

  • 顺序一致性模型保证单线程内的操作会按程序的顺序执行,而 JMM 不保证单线程内的操作会按程序的顺序执行(比如上面正确同步的多线程程序在临界区内的重排序)。这一点前面已经讲过了,这里就不再赘述。
  • 顺序一致性模型保证所有线程只能看到一致的操作执行顺序,而 JMM 不保证所有线程能看到一致的操作执行顺序。这一点前面也已经讲过,这里就不再赘述。
  • JMM 不保证对 64 位的 long 型和 double 型变量的读 / 写操作具有原子性,而顺序一致性模型保证对所有的内存读 / 写操作都具有原子性。

第 3 个差异与处理器总线的工作机制密切相关。在计算机中,数据通过总线在处理器和内存之间传递。每次处理器和内存之间的数据传递都是通过一系列步骤来完成的,这一系列步骤称之为总线事务(bus transaction)。总线事务包括读事务(read transaction)和写事务(write transaction)。读事务从内存传送数据到处理器,写事务从处理器传送数据到内存,每个事务会读 / 写内存中一个或多个物理上连续的字。这里的关键是,总线会同步试图并发使用总线的事务。在一个处理器执行总线事务期间,总线会禁止其它所有的处理器和 I/O 设备执行内存的读 / 写。下面让我们通过一个示意图来说明总线的工作机制:

img

如上图所示,假设处理器 A,B 和 C 同时向总线发起总线事务,这时总线仲裁(bus arbitration)会对竞争作出裁决,这里我们假设总线在仲裁后判定处理器 A 在竞争中获胜(总线仲裁会确保所有处理器都能公平的访问内存)。此时处理器 A 继续它的总线事务,而其它两个处理器则要等待处理器 A 的总线事务完成后才能开始再次执行内存访问。假设在处理器 A 执行总线事务期间(不管这个总线事务是读事务还是写事务),处理器 D 向总线发起了总线事务,此时处理器 D 的这个请求会被总线禁止。

总线的这些工作机制可以把所有处理器对内存的访问以串行化的方式来执行;在任意时间点,最多只能有一个处理器能访问内存。这个特性确保了单个总线事务之中的内存读 / 写操作具有原子性。

在一些 32 位的处理器上,如果要求对 64 位数据的读 / 写操作具有原子性,会有比较大的开销。为了照顾这种处理器,java 语言规范鼓励但不强求 JVM 对 64 位的 long 型变量和 double 型变量的读 / 写具有原子性。当 JVM 在这种处理器上运行时,会把一个 64 位 long/ double 型变量的读 / 写操作拆分为两个 32 位的读 / 写操作来执行。这两个 32 位的读 / 写操作可能会被分配到不同的总线事务中执行,此时对这个 64 位变量的读 / 写将不具有原子性。

当单个内存操作不具有原子性,将可能会产生意想不到后果。请看下面示意图:

img

如上图所示,假设处理器 A 写一个 long 型变量,同时处理器 B 要读这个 long 型变量。处理器 A 中 64 位的写操作被拆分为两个 32 位的写操作,且这两个 32 位的写操作被分配到不同的写事务中执行。同时处理器 B 中 64 位的读操作被拆分为两个 32 位的读操作,且这两个 32 位的读操作被分配到同一个的读事务中执行。当处理器 A 和 B 按上图的时序来执行时,处理器 B 将看到仅仅被处理器 A“写了一半“的无效值。

#
总结

#
处理器内存模型

顺序一致性内存模型是一个理论参考模型,JMM 和处理器内存模型在设计时通常会把顺序一致性内存模型作为参照。JMM 和处理器内存模型在设计时会对顺序一致性模型做一些放松,因为如果完全按照顺序一致性模型来实现处理器和 JMM,那么很多的处理器和编译器优化都要被禁止,这对执行性能将会有很大的影响。

根据对不同类型读 / 写操作组合的执行顺序的放松,可以把常见处理器的内存模型划分为下面几种类型:

  • 放松程序中写 - 读操作的顺序,由此产生了 total store ordering 内存模型(简称为 TSO)。
  • 在前面 1 的基础上,继续放松程序中写 - 写操作的顺序,由此产生了 partial store order 内存模型(简称为 PSO)。
  • 在前面 1 和 2 的基础上,继续放松程序中读 - 写和读 - 读操作的顺序,由此产生了 relaxed memory order 内存模型(简称为 RMO)和 PowerPC 内存模型。

注意,这里处理器对读 / 写操作的放松,是以两个操作之间不存在数据依赖性为前提的(因为处理器要遵守 as-if-serial 语义,处理器不会对存在数据依赖性的两个内存操作做重排序)。

下面的表格展示了常见处理器内存模型的细节特征:

内存模型名称 对应的处理器 Store-Load 重排序 Store-Store 重排序 Load-Load 和 Load-Store 重排序 可以更早读取到其它处理器的写 可以更早读取到当前处理器的写
TSO sparc-TSO X64 Y Y
PSO sparc-PSO Y Y Y
RMO ia64 Y Y Y Y
PowerPC PowerPC Y Y Y Y Y

在这个表格中,我们可以看到所有处理器内存模型都允许写 - 读重排序,原因在第一章以说明过:它们都使用了写缓存区,写缓存区可能导致写 - 读操作重排序。同时,我们可以看到这些处理器内存模型都允许更早读到当前处理器的写,原因同样是因为写缓存区:由于写缓存区仅对当前处理器可见,这个特性导致当前处理器可以比其他处理器先看到临时保存在自己的写缓存区中的写。

上面表格中的各种处理器内存模型,从上到下,模型由强变弱。越是追求性能的处理器,内存模型设计的会越弱。因为这些处理器希望内存模型对它们的束缚越少越好,这样它们就可以做尽可能多的优化来提高性能。

由于常见的处理器内存模型比 JMM 要弱,java 编译器在生成字节码时,会在执行指令序列的适当位置插入内存屏障来限制处理器的重排序。同时,由于各种处理器内存模型的强弱并不相同,为了在不同的处理器平台向程序员展示一个一致的内存模型,JMM 在不同的处理器中需要插入的内存屏障的数量和种类也不相同。下图展示了 JMM 在不同处理器内存模型中需要插入的内存屏障的示意图:

img

如上图所示,JMM 屏蔽了不同处理器内存模型的差异,它在不同的处理器平台之上为 java 程序员呈现了一个一致的内存模型。

#
JMM,处理器内存模型与顺序一致性内存模型之间的关系

JMM 是一个语言级的内存模型,处理器内存模型是硬件级的内存模型,顺序一致性内存模型是一个理论参考模型。下面是语言内存模型,处理器内存模型和顺序一致性内存模型的强弱对比示意图:

img

从上图我们可以看出:常见的 4 种处理器内存模型比常用的 3 中语言内存模型要弱,处理器内存模型和语言内存模型都比顺序一致性内存模型要弱。同处理器内存模型一样,越是追求执行性能的语言,内存模型设计的会越弱。

#
JMM 的设计

从 JMM 设计者的角度来说,在设计 JMM 时,需要考虑两个关键因素:

  • 程序员对内存模型的使用。程序员希望内存模型易于理解,易于编程。程序员希望基于一个强内存模型来编写代码。
  • 编译器和处理器对内存模型的实现。编译器和处理器希望内存模型对它们的束缚越少越好,这样它们就可以做尽可能多的优化来提高性能。编译器和处理器希望实现一个弱内存模型。

由于这两个因素互相矛盾,所以 JSR-133 专家组在设计 JMM 时的核心目标就是找到一个好的平衡点:一方面要为程序员提供足够强的内存可见性保证;另一方面,对编译器和处理器的限制要尽可能的放松。下面让我们看看 JSR-133 是如何实现这一目标的。

为了具体说明,请看前面提到过的计算圆面积的示例代码:

double pi  = 3.14;    //A
double r   = 1.0;     //B
double area = pi * r * r; //C

上面计算圆的面积的示例代码存在三个 happens- before 关系:

  • A happens- before B;
  • B happens- before C;
  • A happens- before C;

由于 A happens- before B,happens- before 的定义会要求:A 操作执行的结果要对 B 可见,且 A 操作的执行顺序排在 B 操作之前。 但是从程序语义的角度来说,对 A 和 B 做重排序即不会改变程序的执行结果,也还能提高程序的执行性能(允许这种重排序减少了对编译器和处理器优化的束缚)。也就是说,上面这 3 个 happens- before 关系中,虽然 2 和 3 是必需要的,但 1 是不必要的。因此,JMM 把 happens- before 要求禁止的重排序分为了下面两类:

  • 会改变程序执行结果的重排序。
  • 不会改变程序执行结果的重排序。

JMM 对这两种不同性质的重排序,采取了不同的策略:

  • 对于会改变程序执行结果的重排序,JMM 要求编译器和处理器必须禁止这种重排序。
  • 对于不会改变程序执行结果的重排序,JMM 对编译器和处理器不作要求(JMM 允许这种重排序)。

下面是 JMM 的设计示意图:

img

从上图可以看出两点:

  • JMM 向程序员提供的 happens- before 规则能满足程序员的需求。JMM 的 happens- before 规则不但简单易懂,而且也向程序员提供了足够强的内存可见性保证(有些内存可见性保证其实并不一定真实存在,比如上面的 A happens- before B)。
  • JMM 对编译器和处理器的束缚已经尽可能的少。从上面的分析我们可以看出,JMM 其实是在遵循一个基本原则:只要不改变程序的执行结果(指的是单线程程序和正确同步的多线程程序),编译器和处理器怎么优化都行。比如,如果编译器经过细致的分析后,认定一个锁只会被单个线程访问,那么这个锁可以被消除。再比如,如果编译器经过细致的分析后,认定一个 volatile 变量仅仅只会被单个线程访问,那么编译器可以把这个 volatile 变量当作一个普通变量来对待。这些优化既不会改变程序的执行结果,又能提高程序的执行效率。

#
JMM 的内存可见性保证

Java 程序的内存可见性保证按程序类型可以分为下列三类:

  • 单线程程序。单线程程序不会出现内存可见性问题。编译器,runtime 和处理器会共同确保单线程程序的执行结果与该程序在顺序一致性模型中的执行结果相同。
  • 正确同步的多线程程序。正确同步的多线程程序的执行将具有顺序一致性(程序的执行结果与该程序在顺序一致性内存模型中的执行结果相同)。这是 JMM 关注的重点,JMM 通过限制编译器和处理器的重排序来为程序员提供内存可见性保证。
  • 未同步 / 未正确同步的多线程程序。JMM 为它们提供了最小安全性保障:线程执行时读取到的值,要么是之前某个线程写入的值,要么是默认值(0,null,false)。

下图展示了这三类程序在 JMM 中与在顺序一致性内存模型中的执行结果的异同:

img

只要多线程程序是正确同步的,JMM 保证该程序在任意的处理器平台上的执行结果,与该程序在顺序一致性内存模型中的执行结果一致。

#
JSR-133 对旧内存模型的修补

JSR-133 对 JDK5 之前的旧内存模型的修补主要有两个:

  • 增强 volatile 的内存语义。旧内存模型允许 volatile 变量与普通变量重排序。JSR-133 严格限制 volatile 变量与普通变量的重排序,使 volatile 的写 - 读和锁的释放 - 获取具有相同的内存语义。
  • 增强 final 的内存语义。在旧内存模型中,多次读取同一个 final 变量的值可能会不相同。为此,JSR-133 为 final 增加了两个重排序规则。现在,final 具有了初始化安全性。

Java问题排查之Linux命令

声明:此章节内容整理自:
@pdai:调试排错 - Java 问题排查之Linux命令

文本操作

文本查找 - grep

grep常用命令:

# 基本使用
grep yoursearchkeyword f.txt										# 文件查找
grep 'KeyWord otherKeyWord' f.txt cpf.txt							# 多文件查找, 含空格加引号
grep 'KeyWord' /home/admin -r -n									# 目录下查找所有符合关键字的文件
grep 'keyword' /home/admin -r -n -i									# -i 忽略大小写
grep 'KeyWord' /home/admin -r -n --include *.{vm,Java}				# 指定文件后缀
grep 'KeyWord' /home/admin -r -n --exclude *.{vm,Java}				# 反匹配

# cat + grep
cat f.txt | grep -i keyword											# 查找所有keyword且不分大小写  
cat f.txt | grep -c 'KeyWord'										# 统计Keyword次数

# seq + grep
seq 10 | grep 5 -A 3												# 上匹配
seq 10 | grep 5 -B 3												# 下匹配
seq 10 | grep 5 -C 3												# 上下匹配,平时用这个就妥了

Grep的参数:

--color=auto													# 显示颜色;
-i, --ignore-case												# 忽略字符大小写;
-o, --only-matching												# 只显示匹配到的部分;
-n, --line-number												# 显示行号;
-v, --invert-match												# 反向显示,显示未匹配到的行;
-E, --extended-regexp											# 支持使用扩展的正则表达式;
-q, --quiet, --silent											# 静默模式,即不输出任何信息;
-w, --word-regexp												# 整行匹配整个单词;
-c, --count														# 统计匹配到的行数; print a count of matching lines;

-B, --before-context=NUM:print NUM lines of leading context		# 后#行
-A, --after-context=NUM:print NUM lines of trailing context		# 前#行
-C, --context=NUM:print NUM lines of output context				# 前后各#行

文本分析 - awk

awk基本命令:

# 基本使用
awk '{print $4,$6}' f.txt
awk '{print NR,$0}' f.txt cpf.txt    
awk '{print FNR,$0}' f.txt cpf.txt
awk '{print FNR,FILENAME,$0}' f.txt cpf.txt
awk '{print FILENAME,"NR="NR,"FNR="FNR,"$"NF"="$NF}' f.txt cpf.txt
echo 1:2:3:4 | awk -F: '{print $1,$2,$3,$4}'

# 匹配
awk '/ldb/ {print}' f.txt						# 匹配ldb
awk '!/ldb/ {print}' f.txt						# 不匹配ldb
awk '/ldb/ && /LISTEN/ {print}' f.txt			# 匹配ldb和LISTEN
awk '$5 ~ /ldb/ {print}' f.txt					# 第五列匹配ldb

内建变量

`NR`: NR表示从awk开始执行后,按照记录分隔符读取的数据次数,默认的记录分隔符为换行符,因此默认的就是读取的数据行数,NR可以理解为Number of Record的缩写

`FNR`: 在awk处理多个输入文件的时候,在处理完第一个文件后,NR并不会从1开始,而是继续累加,因此就出现了FNR,每当处理一个新文件的时候,FNR就从1开始计数,FNR可以理解为File Number of Record

`NF`: NF表示目前的记录被分割的字段的数目,NF可以理解为Number of Field

更多请参考:
Linux awk 命令

#
文本处理 - sed

sed常用:

# 文本打印
sed -n '3p' xxx.log							# 只打印第三行
sed -n '$p' xxx.log							# 只打印最后一行
sed -n '3,9p' xxx.log						# 只查看文件的第3行到第9行
sed -n -e '3,9p' -e '=' xxx.log				# 打印3-9行,并显示行号
sed -n '/root/p' xxx.log					# 显示包含root的行
sed -n '/hhh/,/omc/p' xxx.log				# 显示包含"hhh"的行到包含"omc"的行之间的行

# 文本替换
sed -i 's/root/world/g' xxx.log				# 用world 替换xxx.log文件中的root; s==search  查找并替换, g==global  全部替换, -i: implace

# 文本插入
sed '1,4i hahaha' xxx.log								# 在文件第一行和第四行的每行下面添加hahaha
sed -e '1i happy' -e '$a new year' xxx.log  			#【界面显示】在文件第一行添加happy,文件结尾添加new year
sed -i -e '1i happy' -e '$a new year' xxx.log			#【真实写入文件】在文件第一行添加happy,文件结尾添加new year

# 文本删除
sed  '3,9d' xxx.log									# 删除第3到第9行,只是不显示而已
sed '/hhh/,/omc/d' xxx.log							# 删除包含"hhh"的行到包含"omc"的行之间的行
sed '/omc/,10d' xxx.log								# 删除包含"omc"的行到第十行的内容

# 与find结合
find . -name  "*.txt" |xargs   sed -i 's/hhhh/\hHHh/g'
find . -name  "*.txt" |xargs   sed -i 's#hhhh#hHHh#g'
find . -name  "*.txt" -exec sed -i 's/hhhh/\hHHh/g' {} \;
find . -name  "*.txt" |xargs cat

更多请参考:
Linux sed 命令
或者
Linux sed命令详解

文件操作

文件监听 - tail

最常用的
tail -f filename

# 基本使用
tail -f xxx.log					# 循环监听文件
tail -300f xxx.log				# 倒数300行并追踪文件
tail +20 xxx.log				# 从第 20 行至文件末尾显示文件内容

# tailf使用
tailf xxx.log					# 等同于tail -f -n 10 打印最后10行,然后追踪文件

tail -f 与tail F 与tailf三者区别

`tail  -f `  等于--follow=descriptor,根据文件描述进行追踪,当文件改名或删除后,停止追踪

`tail -F` 等于 --follow=name ==retry,根据文件名字进行追踪,当文件改名或删除后,保持重试,当有新的文件和他同名时,继续追踪

`tailf` 等于tail -f -n 10(tail -f或-F默认也是打印最后10行,然后追踪文件),与tail -f不同的是,如果文件不增长,它不会去访问磁盘文件,所以tailf特别适合那些便携机上跟踪日志文件,因为它减少了磁盘访问,可以省电

tail的参数

-f				循环读取
-q				不显示处理信息
-v				显示详细的处理信息
-c<数目>		   显示的字节数
-n<行数>		   显示文件的尾部 n 行内容
--pid=PID		与-f合用,表示在进程ID,PID死掉之后结束
-q, --quiet, --silent			从不输出给出文件名的首部
-s, --sleep-interval=S			与-f合用,表示在每次反复的间隔休眠S秒

文件查找 - find

sudo -u admin find /home/admin /tmp /usr -name \*.log(多个目录去找)
find . -iname \*.txt(大小写都匹配)
find . -type d(当前目录下的所有子目录)
find /usr -type l(当前目录下所有的符号链接)
find /usr -type l -name "z*" -ls(符号链接的详细信息 eg:inode,目录)
find /home/admin -size +250000k(超过250000k的文件,当然+改成-就是小于了)
find /home/admin f -perm 777 -exec ls -l {} \; (按照权限查询文件)
find /home/admin -atime -1  1天内访问过的文件
find /home/admin -ctime -1  1天内状态改变过的文件    
find /home/admin -mtime -1  1天内修改过的文件
find /home/admin -amin -1  1分钟内访问过的文件
find /home/admin -cmin -1  1分钟内状态改变过的文件    
find /home/admin -mmin -1  1分钟内修改过的文件

pgm

批量查询vm-shopbase满足条件的日志

pgm -A -f vm-shopbase 'cat /home/admin/shopbase/logs/shopbase.log.2017-01-17|grep 2069861630'

查看网络和进程

查看所有网络接口的属性

[root@pdai.tech ~]# ifconfig

eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.31.165.194  netmask 255.255.240.0  broadcast 172.31.175.255
        ether 00:16:3e:08:c1:ea  txqueuelen 1000  (Ethernet)
        RX packets 21213152  bytes 2812084823 (2.6 GiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 25264438  bytes 46566724676 (43.3 GiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        loop  txqueuelen 1000  (Local Loopback)
        RX packets 502  bytes 86350 (84.3 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 502  bytes 86350 (84.3 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

查看防火墙设置

[root@pdai.tech ~]# iptables -L

Chain INPUT (policy ACCEPT)
target     prot opt source               destination

Chain FORWARD (policy ACCEPT)
target     prot opt source               destination

Chain OUTPUT (policy ACCEPT)
target     prot opt source               destination

查看路由表

[root@pdai.tech ~]# route -n

Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
0.0.0.0         172.31.175.253  0.0.0.0         UG    0      0        0 eth0
169.254.0.0     0.0.0.0         255.255.0.0     U     1002   0        0 eth0
172.31.160.0    0.0.0.0         255.255.240.0   U     0      0        0 eth0

netstat

查看所有监听端口

[root@pdai.tech ~]# netstat -lntp

Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name  
tcp        0      0 0.0.0.0:443             0.0.0.0:*               LISTEN      970/nginx: master p
tcp        0      0 0.0.0.0:9999            0.0.0.0:*               LISTEN      1249/Java         
tcp        0      0 0.0.0.0:80              0.0.0.0:*               LISTEN      970/nginx: master p
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      1547/sshd         
tcp6       0      0 :::3306                 :::*                    LISTEN      1894/mysqld       

查看所有已经建立的连接

[root@pdai.tech ~]# netstat -antp

Active Internet connections (servers and established)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name
tcp        0      0 0.0.0.0:443             0.0.0.0:*               LISTEN      970/nginx: master p
tcp        0      0 0.0.0.0:9999            0.0.0.0:*               LISTEN      1249/Java
tcp        0      0 0.0.0.0:80              0.0.0.0:*               LISTEN      970/nginx: master p
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      1547/sshd
tcp        0      0 172.31.165.194:53874    100.100.30.25:80        ESTABLISHED 18041/AliYunDun
tcp        0     64 172.31.165.194:22       xxx.194.1.200:2649      ESTABLISHED 32516/sshd: root@pt
tcp6       0      0 :::3306                 :::*                    LISTEN      1894/m

查看当前连接

[root@pdai.tech ~]# netstat -nat|awk  '{print $6}'|sort|uniq -c|sort -rn

      5 LISTEN
      2 ESTABLISHED
      1 Foreign
      1 established)

查看网络统计信息进程

[root@pdai.tech ~]# netstat -s

Ip:
    21017132 total packets received
    0 forwarded
    0 incoming packets discarded
    21017131 incoming packets delivered
    25114367 requests sent out
    324 dropped because of missing route
Icmp:
    18088 ICMP messages received
    692 input ICMP message failed.
    ICMP input histogram:
        destination unreachable: 4241
        timeout in transit: 19
        echo requests: 13791
        echo replies: 4
        timestamp request: 33
    13825 ICMP messages sent
    0 ICMP messages failed
    ICMP output histogram:
        destination unreachable: 1
        echo replies: 13791
        timestamp replies: 33
IcmpMsg:
        InType0: 4
        InType3: 4241
        InType8: 13791
        InType11: 19
        InType13: 33
        OutType0: 13791
        OutType3: 1
        OutType14: 33
Tcp:
    12210 active connections openings
    208820 passive connection openings
    54198 failed connection attempts
    9805 connection resets received
...

netstat 请参考这篇文章:
Linux netstat命令详解

查看所有进程

[root@pdai.tech ~]# ps -ef | grep Java

root      1249     1  0 Nov04 ?        00:58:05 Java -jar /opt/tech_doc/bin/tech_arch-0.0.1-RELEASE.jar --server.port=9999
root     32718 32518  0 08:36 pts/0    00:00:00 grep --color=auto Java

top

top除了看一些基本信息之外,剩下的就是配合来查询vm的各种问题了

# top -H -p pid

top - 08:37:51 up 45 days, 18:45,  1 user,  load average: 0.01, 0.03, 0.05
Threads:  28 total,   0 running,  28 sleeping,   0 stopped,   0 zombie
%Cpu(s):  0.7 us,  0.7 sy,  0.0 ni, 98.6 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem :  1882088 total,    74608 free,   202228 used,  1605252 buff/cache
KiB Swap:  2097148 total,  1835392 free,   261756 used.  1502036 avail Mem

  PID USER      PR  NI    VIRT    RES    SHR S %CPU %MEM     TIME+ COMMAND
 1347 root      20   0 2553808 113752   1024 S  0.3  6.0  48:46.74 VM Periodic Tas
 1249 root      20   0 2553808 113752   1024 S  0.0  6.0   0:00.00 Java
 1289 root      20   0 2553808 113752   1024 S  0.0  6.0   0:03.74 Java
...

查看磁盘和内存相关

查看内存使用 - free -m

[root@pdai.tech ~]# free -m

              total        used        free      shared  buff/cache   available
Mem:           1837         196         824           0         816        1469
Swap:          2047         255        1792

查看各分区使用情况

[root@pdai.tech ~]# df -h

Filesystem      Size  Used Avail Use% Mounted on
devtmpfs        909M     0  909M   0% /dev
tmpfs           919M     0  919M   0% /dev/shm
tmpfs           919M  452K  919M   1% /run
tmpfs           919M     0  919M   0% /sys/fs/cgroup
/dev/vda1        40G   15G   23G  40% /
tmpfs           184M     0  184M   0% /run/user/0

查看指定目录的大小

[root@pdai.tech ~]# du -sh

803M

查看内存总量

[root@pdai.tech ~]# grep MemTotal /proc/meminfo

MemTotal:        1882088 kB

查看空闲内存量

[root@pdai.tech ~]# grep MemFree /proc/meminfo

MemFree:           74120 kB

查看系统负载磁盘和分区

[root@pdai.tech ~]# grep MemFree /proc/meminfo

MemFree:           74120 kB

查看系统负载磁盘和分区

[root@pdai.tech ~]# cat /proc/loadavg

0.01 0.04 0.05 2/174 32751

查看挂接的分区状态

[root@pdai.tech ~]# mount | column -t

sysfs       on  /sys                             type  sysfs       (rw,nosuid,nodev,noexec,relatime)
proc        on  /proc                            type  proc        (rw,nosuid,nodev,noexec,relatime)
devtmpfs    on  /dev                             type  devtmpfs    (rw,nosuid,size=930732k,nr_inodes=232683,mode=755)
securityfs  on  /sys/kernel/security             type  securityfs  (rw,nosuid,nodev,noexec,relatime)
...

查看所有分区

[root@pdai.tech ~]# fdisk -l

Disk /dev/vda: 42.9 GB, 42949672960 bytes, 83886080 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0008d73a

   Device Boot      Start         End      Blocks   Id  System
/dev/vda1   *        2048    83884031    41940992   83  Linux

查看所有交换分区

[root@pdai.tech ~]# swapon -s

Filename                                Type            Size    Used    Priority
/etc/swap                               file    2097148 261756  -2

查看硬盘大小

[root@pdai.tech ~]# fdisk -l |grep Disk

Disk /dev/vda: 42.9 GB, 42949672960 bytes, 83886080 sectors
Disk label type: dos
Disk identifier: 0x0008d73a

查看用户和组相关

查看活动用户

[root@pdai.tech ~]# w

 08:47:20 up 45 days, 18:54,  1 user,  load average: 0.01, 0.03, 0.05
USER     TTY      FROM             LOGIN@   IDLE   JCPU   PCPU WHAT
root     pts/0    xxx.194.1.200    08:32    0.00s  0.32s  0.32s -bash

查看指定用户信息

[root@pdai.tech ~]# id

uid=0(root) gid=0(root) groups=0(root)

查看用户登录日志

[root@pdai.tech ~]# last

root     pts/0        xxx.194.1.200    Fri Dec 20 08:32   still logged in
root     pts/0        xxx.73.164.60     Thu Dec 19 21:47 - 00:28  (02:41)
root     pts/0        xxx.106.236.255  Thu Dec 19 16:00 - 18:24  (02:23)
root     pts/1        xxx.194.3.173    Tue Dec 17 13:35 - 17:37  (04:01)
root     pts/0        xxx.194.3.173    Tue Dec 17 13:35 - 17:37  (04:02)
...

查看系统所有用户

[root@pdai.tech ~]# cut -d: -f1 /etc/passwd

root
bin
daemon
adm
...

查看系统所有组

cut -d: -f1 /etc/group

查看服务,模块和包相关

# 查看当前用户的计划任务服务
crontab -l 

# 列出所有系统服务
chkconfig –list 

# 列出所有启动的系统服务程序
chkconfig –list | grep on 

# 查看所有安装的软件包
rpm -qa 

# 列出加载的内核模块
lsmod 

查看系统,设备,环境信息

# 常用
env							# 查看环境变量资源
uptime						# 查看系统运行时间、用户数、负载
lsusb -tv					# 列出所有USB设备的linux系统信息命令
lspci -tv					# 列出所有PCI设备
head -n 1 /etc/issue		# 查看操作系统版本,是数字1不是字母L
uname -a					# 查看内核/操作系统/CPU信息的linux系统信息命令

# /proc/
cat /proc/cpuinfo			# 查看CPU相关参数的linux系统命令
cat /proc/partitions		# 查看linux硬盘和分区信息的系统信息命令
cat /proc/meminfo			# 查看linux系统内存信息的linux系统命令
cat /proc/version			# 查看版本,类似uname -r
cat /proc/ioports			# 查看设备io端口
cat /proc/interrupts		# 查看中断
cat /proc/pci				# 查看pci设备的信息
cat /proc/swaps				# 查看所有swap分区的信息
cat /proc/cpuinfo |grep "model name" && cat /proc/cpuinfo |grep "physical id"

tsar

tsar是淘宝开源的的采集工具很好用, 将历史收集到的数据持久化在磁盘上,所以我们快速来查询历史的系统数据当然实时的应用情况也是可以查询的啦大部分机器上都有安装

tsar					## 可以查看最近一天的各项指标
tsar --live				## 可以查看实时指标,默认五秒一刷
tsar -d 20161218		## 指定查看某天的数据,貌似最多只能看四个月的数据
tsar --mem
tsar --load
tsar --cpu				## 当然这个也可以和-d参数配合来查询某天的单个指标的情况 

具体可以看这篇文章:
linux 淘宝开源监控工具tsa

#
Java内存问题排查

内存泄漏
(memory leak):在Java中如果不再使用一个对象,但是该对象依然在GC ROOT的引用链上,这个对象就不会被垃圾回收器回收,这种情况就称之为内存泄漏。

  • PS:
    内存泄漏绝大多数情况都是由堆内存泄漏引起的

内存溢出
:指的是内存的使用量超过了Java虚拟机可以分配的上限,最终产生了内存溢出OutOfMemory的错误。

解决内存溢出的思路

  1. 发现问题
    :通过监控工具尽可能尽早地发现内存慢慢变大的现象。
  2. 诊断原因
    :通过分析内存快照或者在线分析方法调用过程,诊断问题产生的根源,定位到出现问题的源代码。
  3. 修复问题
    :尝试重现问题,如借助jmeter什么鬼之类的。之后修复,如源代码中的bug问题、技术方案不合理、业务设计不合理等等。
  4. 验证测试
    :在测试环境验证问题是否已经解决,最后发布上线。

内存溢出产生的原因

  1. 持续的内存泄漏
    :内存泄漏持续发生,不可被回收同时不再使用的内存越来越多,就像滚雪球雪球越滚越大,最终内存被消耗完无法分配更多的内存取使用,导致内存溢出。

这种原因一般就是代码中的内存泄漏,所以一般在测试阶段就会被测试出来,如下示例:

  • 不正确的
    eauals()

    hashcode()

    :定义新类时没有重写正确的equals()和hashCode()方法。在使用HashMap的场景下,如果使用这个类对象作为key,HashMap在判断key是否已经存在时会使用这些方法,如果重写方式不正确,会导致相同的数据被保存多份。

此种情况的解决方式:定义新实体类时记得重写这两个方法,且重写时使用“唯一标识”去区分不同对象,以及在使用HashMap时key使用实体的“唯一标识”。

  • 非静态内部类和匿名内部类的错误使用
    :非静态的内部类默认会持有外部类,尽管代码上不再使用外部类,所以如果有地方引用了这个非静态内部类,会导致外部类也被引用,垃圾回收时无法回收这个外部类。另外就是匿名内部类对象如果在非静态方法中被创建,会持有调用者对象,垃圾回收时无法回收调用者。

此种情况的解决方式:使用静态内部类和静态方法即可。

  • ThreadLocal的错误使用
    :由于线程池中的线程不被回收导致的ThreadLocal内存泄漏。

如果仅仅使用手动创建的线程,就算没有调用ThreadLocal的remove方法清理数据,也不会产生内存泄漏。因为当线程被回收时,ThreadLocal也同样被回收。但是如果使用线程池就不一定了。

此种情况的解决方式:线程方法执行完,记得调用ThreadLocal中的remove方法清理对象。

  • 静态变量的错误使用(很常见哦)
    :大量的数据在静态变量中被引用,但不再使用,就成为了内存泄漏。

如果大量的数据在静态变量中被长期引用,数据就不会被释放,如果这些数据不再使用,就成为了内存泄漏。

此种情况的解决方式:

一是:尽量减少将对象长时间的保存在静态变量中,如果不再使用,必须将对象删除(比如在集合中)或者将静态变量设置为null。

二是:使用单例模式时,尽量使用懒加载,而不是立即加载。

三是:Spring的Bean中不要长期存放大对象,如果是缓存用于提升性能,尽量设置过期时间定期失效。

  • 资源没有正常关闭
    :由于资源没有调用
    close()
    方法正常关闭,”可能“导致内存泄漏。

连接和流这些资源会占用内存,如果使用完之后没有关闭,
这部分内存"不一定"会出现内存泄漏
,但是会导致close方法不被执行。

不一定的原因:如下列代码

public static void lead() throws SQLException {	// 此方法执行完
    Startement stmt = null;
    Connection conn = DriverManager.getConnection(DB_URL, USER, PASS);
    // 则Connection不在GC Roots引用链上,就会被回收,从而conn关联的Startement、RestultSet这些对象也会被回收,从而不会造成内存泄漏
    
    stmt = conn.createStatement();
    String sql = "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx";
    RestultSet rs = stmt.executeQuery(sql);
    
    while(rs.next()){
        // ...............
    }
    
    // 最终没有关闭流管道
}

此种情况的解决方式:在finally块中关闭不再使用的资源。另外就是从 Java 7 开始,可以使用try-with-resources语法可以用于自动关闭资源。

image-20240106215225651

  1. 并发请求问题
    :用户通过发送请求向Java应用获取数据,正常情况下Java应用将数据返回之后,这部分数据就可以在内存中被释放掉。但是由于用户的并发请求量有可能很大,同时处理数据的时间很长,导致大量的数据存在于内存中,最终超过了内存的上限,导致内存溢出。

发现问题:可视化工具

Java 调试入门工具

声明:此节内容主要整理自
@pdai:调试排错 - Java 问题排查之工具单
,在此基础上做了改动。

jps:查看当前进程

jps是JDK提供的一个查看当前Java进程的小工具, 可以看做是Java Virtual Machine Process Status Tool的缩写

jps常用命令

jps								# 显示进程的ID 和 类的名称
jps –l							# 输出输出完全的包名,应用主类名,jar的完全路径名 
jps –v							# 输出JVM参数
jps –q							# 显示Java进程号
jps -m							# main 方法
jps -l xxx.xxx.xx.xx			# 远程查看


jps参数:

    -q							# 仅输出VM标识符,不包括Classname,jar name,arguments in main method 
    -m							# 输出main method的参数 
    -l							# 输出完全的包名,应用主类名,jar的完全路径名 
    -v							# 输出JVM参数 
    -V							# 输出通过flag文件传递到JVM中的参数(.hotspotrc文件或-XX:Flags=所指定的文件 
    -Joption					# 传递参数到vm,例如:-J-Xms512m

jps原理

Java程序在启动以后,会在Java.io.tmpdir指定的目录下,就是临时文件夹里,生成一个类似于hsperfdata_User的文件夹,这个文件夹里(在Linux中为/tmp/hsperfdata_{userName}/),有几个文件,名字就是Java进程的pid,因此列出当前运行的Java进程,只是把这个目录里的文件名列一下而已。至于系统的参数什么,就可以解析这几个文件获得

更多请参考
jps - Java Virtual Machine Process Status Tool

jstack:线程的栈信息

jstack是JDK自带的线程堆栈分析工具,使用该命令可以查看或导出 Java 应用程序中线程堆栈信息

jstack常用命令:

# 基本
jstack 2815

# Java和native c/c++框架的所有栈信息
jstack -m 2815

# 额外的锁信息列表,查看是否死锁
jstack -l 2815




jstack参数:

    -l			# 长列表. 打印关于锁的附加信息,例如属于Java.util.concurrent 的 ownable synchronizers列表.

    -F			# 当’jstack [-l] pid’没有相应的时候强制打印栈信息

    -m			# 打印Java和native c/c++框架的所有栈信息.

    -h | -help	# 打印帮助信息

更多请参考:
JVM 性能调优工具之 jstack

jinfo:查看参数信息

jinfo 是 JDK 自带的命令,可以用来查看正在运行的 Java 应用程序的扩展参数,包括Java System属性和JVM命令行参数;也可以动态的修改正在运行的 JVM 一些参数。当系统崩溃时,jinfo可以从core文件里面知道崩溃的Java应用程序的配置信息

jinfo常用命令:

# 输出当前 JVM 进程的全部参数和系统属性
jinfo 2815

# 输出所有的参数
jinfo -flags 2815

# 查看指定的 JVM 参数的值
jinfo -flag PrintGC 2815

# 开启/关闭指定的JVM参数
jinfo -flag +PrintGC 2815

# 设置flag的参数
jinfo -flag name=value 2815

# 输出当前 JVM 进行的全部的系统属性
jinfo -sysprops 2815



jinfo参数:

    no option				# 输出全部的参数和系统属性
    -flag name				# 输出对应名称的参数
    -flag [+|-]name			# 开启或者关闭对应名称的参数
    -flag name=value		# 设定对应名称的参数
    -flags					# 输出全部的参数
    -sysprops				# 输出系统属性

更多请参考:
JVM 性能调优工具之 jinfo

jmap:生成dump文件 和 查看堆情况

JDK自带的jmap是一个多功能的命令。它可以生成 Java 程序的 dump 文件, 也可以查看堆内对象示例的统计信息、查看 ClassLoader 的信息以及 finalizer 队列。

两个用途

# 查看堆的情况
jmap -heap 2815

# dump
jmap -dump:live,format=b,file=/tmp/heap2.bin 2815	# 只保留存货对象(GC Roots引用链上的对象)
jmap -dump:format=b,file=/tmp/heap3.bin 2815		# 全部对象(即在GC Roots引用链上和不在的都保存)
														# 使用情况:有时显示内存很高,但使用上面一种生成存活对象的快照时内存变很小了
														# 原因是生成dump时会进行Full GC,所有不利于分析,从而采用下面这种,让快照包含全部对象。

# 查看堆的占用
jmap -histo 2815 | head -10



jmap参数:

    no option					# 查看进程的内存映像信息,类似 Solaris pmap 命令
    heap						# 显示Java堆详细信息
    histo[:live]				# 显示堆中对象的统计信息
    clstats						# 打印类加载器信息
    finalizerinfo				# 显示在F-Queue队列等待Finalizer线程执行finalizer方法的对象
    dump:<dump-options>			# 生成堆转储快照
    F							# 当-dump没有响应时,使用-dump或者-histo参数. 在这个模式下,live子参数无效.
    help						# 打印帮助信息
    J<flag>						# 指定传递给运行jmap的JVM的参数

更多请参考:

  1. JVM 性能调优工具之 jmap
  2. jmap - Memory Map

#
jstat:总结垃圾回收统计

缺点:无法精确到GC产生的时间,只能用于判断GC是否存在问题。

jstat参数众多,但是使用一个就够了。

# 命令格式:jstat -gcutil pid interval(间隔,单位ms)
jstat -gcutil 2815 1000
  • C代表Capacity容量,U代表Used使用量

  • S – 幸存者区,E – 伊甸园区,O – 老年代,M – 元空间

  • YGC、YGT:年轻代GC次数和GC耗时(单位:秒)

  • FGC、FGCT:Full GC次数和Full GC耗时

  • GCT:GC总耗时

更多请参考:
Java的jstat命令使用详解

jdb:预发debug

jdb可以用来预发debug,假设你预发的Java_home是/opt/Java/,远程调试端口是8000,那么

jdb -attach 8000

出现以上代表jdb启动成功。后续可以进行设置断点进行调试。

具体参数可见oracle官方说明
jdb - The Java Debugger

Linux:Top命令

top除了看一些基本信息之外,剩下的就是配合来查询vm的各种问题了。

缺点:只能查看最基础的进程信息,无法查看到每个部分的内存占用(堆、方法区、堆外)

top命令是Linux下用来查看系统信息的一个命令,它提供给我们去实时地去查看系统的资源,比如执行时的进程、线程和系统参数等信息。

关于下列两个概念的说明:

  1. 常驻内存
    :当前进程总的使用了多少内存。
  • PS:常驻内存包含了“共享内存”,所以当前进程真正使用的内存是:常驻内存 - 共享内存。
  1. 共享内存
    :当前进程第三方依赖需要的内存。只加载一次,其他地方就可以用了,故而称为“共享”。
# top -H -p pid

top - 08:37:51 up 45 days, 18:45,  1 user,  load average: 0.01, 0.03, 0.05
Threads:  28 total,   0 running,  28 sleeping,   0 stopped,   0 zombie
%Cpu(s):  0.7 us,  0.7 sy,  0.0 ni, 98.6 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem :  1882088 total(堆的总内存),    74608 free(空闲内存,若此值极小则说明本服务器的程序有问题),   202228 used(已使用内存),  1605252 buff/cache(缓存)		# 关注点
KiB Swap:  2097148 total,  1835392 free,   261756 used.  1502036 avail Mem


# %CPU		当前进程对CPU的使用率				 若此值长期保持很高,则需要关注程序请求量是否过大,或出现死循环之类的
# %MEM		当前进程占总内存的比率					若上面的 free值很小,而此值很高,则可以确定系统内存不足就是当前进程所造成的
# TIME+		当前进程自启动以来所消耗的CPU累计时间
# COMMAND	启动命令
  PID USER      PR  NI    VIRT(虚拟内存)    RES(常驻内存)    SHR(共享内存) S %CPU %MEM     TIME+ COMMAND
 1347 root      20   0 2553808 				113752   		 1024 			S  0.3  6.0  48:46.74 VM Periodic Tas
 1249 root      20   0 2553808 				113752   		 1024 			S  0.0  6.0   0:00.00 Java
 1289 root      20   0 2553808 				113752   		 1024 			S  0.0  6.0   0:03.74 Java
...

JConsole:本地+远程监控

Jconsole (Java Monitoring and Management Console),JDK自带的基于JMX的可视化监视、管理工具 官方文档可以参考
这里

路径:JDK\bin\jconsole.exe

本地连接 或 远程连接:

注:远程连接在“测试环境”用就可以了,别在线上环境用。

image-20240106195445531

image-20240106195600896

VisualVM:本地+远程监控

VisualVM 是一款免费的,集成了多个 JDK 命令行工具的可视化工具,整合了命令行 JDK 工具和轻量级分析功能,它能为您提供强大的分析能力,对 Java 应用程序做性能分析和调优这些功能包括生成和分析海量数据、跟踪内存泄漏、监控垃圾回收器、执行内存和 CPU 分析,同时它还支持在 MBeans 上进行浏览和操作。

注:这款软件在Oracle JDK 6~8 中发布(路径:JDK\bin\jvisualvm.exe),但是在 Oracle JDK 9 之后不在JDK安装目录下需要单独下载。下载地址:
https://visualvm.github.io/

优点:支持Idea插件,开发过程中也可以使用。

缺点:对大量集群化部署的Java进程需要手动进行管理。

本地连接:JDK\bin\jvisualvm.exe的方式,这种是中文版

image-20240106200430766

IDEA插件的方式:

image-20240106200638281

以下两种方式均可启动VisualVM

image-20240106200750834

远程连接:

注:
只可用于“测试环境”,不可用于“生产环境”
。因为操作VisualVM中提供的功能时会停掉线程,从而影响用户。

  1. 服务器中开启JMX远程连接
java -jar \
-Djava.rmi.server.hostname=xxxxxxxx \					# 配置主机名	就是服务器ip
-Dcom.sun.management.jmxremote \						# 开启JMX远程连接
-Dcom.sun.management.jmxremote.port=xxxx \				# 设置连接的端口号
-Dcom.sun.management.jmxremote.ssl=false \				# 关闭ssl连接
-Dcom.sun.management.jmxremote.authenticate=false \		# 关闭身份验证
xxxxx.jar												# 要启动的服务jar包
  1. 使用VisualVM建立远程连接

image-20240106202155366

Arthas Tunnel

官网地址:
https://arthas.aliyun.com/doc/tunnel.html

优点:

  1. 功能强大,不止于监控基础的信息,还能监控单个方法的执行耗时等细节内容。
  2. 支持应用的集群管理.

大概流程如下:

image-20240106202700733

大概操作流程如下:

  1. 添加依赖(目前仅支持Spring Boot2.x版本),在配置文件中添加tunnel服务端的地址,便于tunnel去监控所有的程序。
<dependency>
    <groupId>com.taobao.arthas</groupId>
    <artifactId>arthas-spring-boot-starter</artifactId>
    <version>3.7.1</version>
</dependency>

YAML配置:

arthas:
  # tunnel部署的地址
  tunnel-server: ws://localhost:7777/ws
  # tunnel显示的应用名称:注册到tunnel上的每个服务都要有个名称
  app-name: ${spring.application.name}
  # arthas http访问的端口 和 远程连接的端口		这两个端口不可重复
  http-port: 8888
  telnet-port: 9999
  1. 将tunnel服务端程序部署在某台服务器上并启动

注:需要去官网
下载
tunnel的jar包丢在服务器目录中,

# 启动命令
nohup java -jar \										# nohup 即no hang up(不挂起),后台不挂断
-Darthas.detail.pages=true \							# 打开可视化页面	注:这个页面占用的端口是80
arthas-tunnel-server-下载的某版本-fatjar.jar $			# 别忘了有个 $	即:将这个任务放到后台执行

页面网址:部署tunnel的ip:8080/apps.html

  1. 启动Java程序,然后再上一步的页面中就可以看到对应的应用名称了。打开tunnel的服务端页面,查看所有的进程列表,并选择进程(应用名称)就可进入arthas进行arthas的操作。

排错:在arthas-tunnel-server-下载的某版本-fatjar.jar所在的目录中有一个nohup.out文件,打开即可排错,如:有些服务没注册上来之类的。

Eclipse Memory Analyzer (MAT)

这玩意儿可以说在开发中都会接触到,所以需要好好了解一下

MAT 是一种快速且功能丰富的 Java 堆分析器,可帮助你发现内存泄漏并减少内存消耗。MAT在的堆内存分析问题使用极为广泛,需要重点掌握。

可以在
这里
下载, 官方文档可以看
这里

提示:启动时可能会提示某某版本的JDK不支持,需要某某版本或以上,那安装对应的JDK版本,然后将其直到bin目录的路径放到path配置中即可,但:建议将此版本配置移到最上面或比其他版本的JDK更靠上。

先来了解三个东西:也是MAT的原理

  1. 支配树树(Dominator Tree)
    :MAT提供了支配树的对象图。
    支配树展示的是对象实例间的支配关系

image-20240106221449391

如上图所示:

  • 对于B来说:B引用了A,而B并没有再引用其他的(即:到B只有一条路,A ->B),所以就是说:A支配B(如右图所示)。
  • 而C是同理,对于D和F来说(用D来举例):D引用了B,而B引用了A;同时D引用了C,而C引用了A(所以是两条线),但归根到底就是A支配了D。
  • 其他E、F也是和D是同理分析的。
  1. 深堆(Retained Heap)和浅堆(Shallow Heap)

浅堆(Shallow Heap)
:支配树中对象本身占用的空间。

深堆(Retained Heap)
:支配树中对象的子树就是所有被该对象支配的内容,这些内容组成了对象的深堆(Retained Heap),也称之为保留集( Retained Set ) 。
深堆的大小表示该对象如果可以被回收,能释放多大的内存空间

image-20240106222618607

如上图所示:在这个支配树中,对于C这个对象来说

  • 这个对象本身占用的空间就是"浅堆"。
  • C这个对象 以及 它的子树 所组成的空间大小就是深堆,若C对象被回收,那能够回收的空间大小就是:C对象本身+其子树E对象 这二者的总空间大小。

MAT内存泄漏检测的原理:MAT就是根据支配树,从叶子节点向根节点遍历,如果发现深堆的大小超过整个堆内存的一定比例阈值,就会将其标记成内存泄漏的“嫌疑对象”。

使用MAT发现问题

  1. 当堆内存溢出时,可以在堆内存溢出时将整个堆内存保存下来,生成内存快照(Heap Profile )文件。

使用内存快照的目的:找出是程序哪里引发的问题、定位到问题出现的地方。

生成内存快照的Java虚拟机参数:

-XX:+HeapDumpOnOutOfMemoryError				发生OutOfMemoryError错误时,自动生成hprof内存快照文件

-XX:HeapDumpPath=<path>						指定hprof文件的输出路径
  1. 使用MAT打开hprof文件(file -> open head dump),并选择内存泄漏检测功能(Leak Suspects Report 即内存泄漏检测报告),MAT会自行根据内存快照中保存的数据分析内存泄漏的根源。

image-20240106231454300

服务器中导出运行中系统的内存快照的简单方式:场景为内存在持续增长,但未发生内存泄漏,所以上面的
-XX:+HeapDumpOnOutOfMemoryError
就不能用。

  1. 通过JDK自带的jmap命令导出,格式为:
# 生成存活对象的内存快照(GC Roots引用链上的对象)
jmap -dump:live,format=b,file=文件路径和文件名 进程ID

# 进程ID获取方式
ps -ef|grep java
  1. 通过arthas的heapdump命令导出,格式为:
heapdump --live 文件路径\文件名

导出的dump文件还可以直接使用在线工具
HeapHero
打开来分析。

生成的堆内存报告很大怎么办?

机器内存范围之内的快照文件,直接使用MAT打开分析即可。

但是经常会遇到生成的快照文件很大,要下载到本地来也要很久。此时就需要下载服务器操作系统对应的MAT。下载地址:
https://eclipse.dev/mat/downloads.php

然后将下载的对应版本MAT丢在某服务器中,如:Linux中。

注意:服务器中放MAT的目录记得将读写权限打开。

之后通过MAT中的脚本生成分析报告:生成的报告就是像上面那种静态页面

注意:默认MAT分析时只使用了1G的堆内存,如果快照文件超过1G,需要修改MAT目录下的MemoryAnalyzer.ini配置文件调整最大堆内存(
-Xmx值
)。

# 生成之后,在快照文件路径中会有几个压缩包,对应:内存泄漏报告、系统总览图、组件,下载自己需要的压缩包到本地即可
./ParseHeapDump.sh 快照文件路径 org.eclipse.mat.api:suspects org.eclipse.mat.api:overview org.eclipse.mat.api:top_components

最后将分析报告下载到本地,打开即可(一般有一个index.html)。

涉及到SpringMVC时,怎么定位到是哪个接口导致的问题?

  1. 生成内存快照,使用MAT打开
  2. 打开支配树,使用深堆(Retained Heap)排序,找到当前执行线程,如下面的taskThread,随便打开一个即可。

image-20240106235928972

  1. 找到当前线程正在执行的方法是哪一个。即找handleMethod,右键选择list objects(当前对象关联的对象) -> outgoing references(当前对象引用了哪些对象)

image-20240107000728753

  1. 找到description,这里就可找到到底是哪个controller的哪个方法导致的问题。
  2. 然后将本地代码的Java虚拟机参数弄成和服务器一样,之后重现问题(借助压测jmeter什么鬼之类的)。
  3. 最后结合前面内存快照得到的原因,解决问题,验证测试即可。

在线定位问题:Arthas之stack命令 和 btrace工具

诊断和解决问题一般有两种方案:离线分析(即生成内存快照分析)、在线定位。

内存快照分析:

优点:有完整的内存快照,从而能更准确地判断出问题的原因。

缺点:

  • 内存较大时,生成内存快照较慢,这个过程会影响用户的使用。
  • 通过MAT分析内存快照,至少要准备 1.5 - 2倍大小的内存空间。

在线定位

优点:无需生成内存快照,整个过程对用户的影响“较小”。

缺点:

  • 无法查看到详细的内存信息。
  • 需要具备一定的经验。而且一般还需要借助另外的工具(本章节使用arthas的stack命令 和 btrace工具)。

Arthas的stacke在线定位大致思路

  1. 将内存中存活对象以直方图的形式保存到文件中,这个过程会影响用户的时间,但是时间比较短暂。使用命令如下:
jmap -histo:live 进程ID > 文件路径/文件名		# 表示:将 > 符号左边的内容 输出到 右边这个路径中
  1. 查看直方图,分析内存占用最多的对象(直方图是排好序的),一般这些对象就是造成内存泄漏的原因。
  2. 使用arthas的
    stack
    命令,追踪第2步中分析的对象创建的方法被调用的调用路径,找到对象创建的根源。

使用命令如下:假设2中分析出来的对象是UserEntity

注意:别忘了把Arthas的jar包上传到服务器目录中,不然下面的命令能用个毛线。

stack com.zixieqing.jvm.entity.UserEntity -n 1	# 意思:输出1次com.zixieqing.jvm.entity.UserEntity这个类的所有方法的调用路径

通过上面的方式就可以找到是:哪个类那个方法哪一行了,然后尝试重现问题,修复问题、验证测试即可。

btrace工具

btrace是一个在Java 平台上执行的追踪工具,可以有效地用于线上运行系统的方法追踪,具有侵入性小、对性能的影响微乎其微等特点。是生产环境&预发的排查问题大杀器。项目中可以使用btrace工具,实现定制化,打印出方法被调用的栈信息等等。

使用方法:btrace 具体可以参考这里:
https://github.com/btraceio/btrace

  1. 下载btrace工具, 官方地址:
    https://github.com/btraceio/btrace/releases/latest
  2. 编写btrace脚本,通常是一个Java文件。如下两个示例:

编写时为了有提示和提供对应注解方法且不报错,可以加入如下依赖:路径改为自己下载的本地btrace

<dependency>
    <groupId>org.openjdk.btrace</groupId>
    <artifactId>btrace-agent</artifactId>
    <version>${btrace.version}</version>
    <scope>system</scope>
    <systemPath>D:Install\btrace-v2.2.4-bin\libs\btrace-agent.jar</systemPath>
</dependency>
<dependency>
    <groupId>org.openjdk.btrace</groupId>
    <artifactId>btrace-boot</artifactId>
    <version>${btrace.version}</version>
    <scope>system</scope>
    <systemPath>D:Install\btrace-v2.2.4-bin\libs\btrace-boot.jar</systemPath>
</dependency>
<dependency>
    <groupId>org.openjdk.btrace</groupId>
    <artifactId>btrace-client</artifactId>
    <version>${btrace.version}</version>
    <scope>system</scope>
    <systemPath>D:Install\btrace-v2.2.4-bin\libs\btrace-client.jar</systemPath>
</dependency>
  • 查看当前谁调用了ArrayList的add方法,同时只打印当前ArrayList的size大于500的线程调用栈。编写如下Java代码
@BTrace
public class TracingAdd {
    
    @OnMethod(clazz = "Java.util.ArrayList", method="add", 
          location = @Location(value = Kind.CALL, clazz = "/./", method = "/./")
         )
    public static void m(@ProbeClassName String probeClass, @ProbeMethodName String probeMethod, 
                         @TargetInstance Object instance, @TargetMethodOrField String method) {

        if(getInt(field("Java.util.ArrayList", "size"), instance) > 479){
            println("check who ArrayList.add method:" + probeClass + "#" + probeMethod  + ", method:" + method + ", size:" + getInt(field("Java.util.ArrayList", "size"), instance));
            jstack();
            println();
            println("===========================");
            println();
        }
	}
}
  • 监控当前服务方法被调用时返回的值以及请求的参数
@BTrace
public class TaoBaoNav {
    @OnMethod(clazz = "com.taobao.sellerhome.transfer.biz.impl.C2CApplyerServiceImpl", method="nav", 
          location = @Location(value = Kind.RETURN)
         )
    public static void mt(long userId, int current, int relation, 
                          String check, String redirectUrl, @Return AnyType result) {

        println("parameter# userId:" + userId + ", current:" + current + ", relation:" + relation + ", check:" + check + ", redirectUrl:" + redirectUrl + ", result:" + result);
    }
}
  1. 将btrace工具和脚本上传到服务器,在服务器上执行如下格式的命令:

注意:需要配置环境变量BTRACE_HOME,和配置JDK是一样的。

btrace 进程ID 脚本文件名
  1. 观察执行结果。

上面示例看起来懵的话,直接去看这个示例:
https://www.cnblogs.com/wei-zw/p/9502274.html

IDEA本地调试和远程调试

声明:

Debug用来追踪代码的运行流程,通常在程序运行过程中出现异常,启用Debug模式可以分析定位异常发生的位置,以及在运行过程中参数的变化;并且在实际的排错过程中,还会用到Remote Debug IDEA 。相比 Eclipse/STS效率更高,本文主要介绍基于IDEA的Debug和Remote Debug的技巧。

Debug开篇

首先看下IDEA中Debug模式下的界面:

img

如上是在IDEA中启动Debug模式,进入断点后的界面,我这里是Windows,可能和Mac的图标等会有些不一样。就简单说下图中标注的8个地方:

  • ① 以Debug模式启动服务,左边的一个按钮则是以Run模式启动。在开发中,我一般会直接启动Debug模式,方便随时调试代码
  • ② 断点:在左边行号栏单击左键,或者快捷键Ctrl+F8 打上/取消断点,断点行的颜色可自己去设置
  • ③ Debug窗口:访问请求到达第一个断点后,会自动激活Debug窗口;如果没有自动激活,可以去设置里设置,如下图Show debug window on breakpoint设置
  • ④ 调试按钮:一共有8个按钮,调试的主要功能就对应着这几个按钮,鼠标悬停在按钮上可以查看对应的快捷键。在菜单栏Run里可以找到同样的对应的功能,如下图Run的设置
  • ⑤ 服务按钮:可以在这里关闭/启动服务,设置断点等
  • ⑥ 方法调用栈:这里显示了该线程调试所经过的所有方法,勾选右上角的[Show All Frames]按钮,就不会显示其它类库的方法了,否则这里会有一大堆的方法
  • ⑦ Variables:在变量区可以查看当前断点之前的当前方法内的变量
  • ⑧ Watches:查看变量,可以将Variables区中的变量拖到Watches中查看

在设置里勾选Show debug window on breakpoint,则请求进入到断点后自动激活Debug窗口

img

如果你的IDEA底部没有显示工具栏或状态栏,可以在View里打开,显示出工具栏会方便我们使用可以自己去尝试下这四个选项

img

在菜单栏Run里有调试对应的功能,同时可以查看对应的快捷键

img

基本用法&快捷键

Debug调试的功能主要对应着上面开篇中图一的4和5两组按钮:

首先说第一组按钮,共8个按钮
,从左到右依次如下:

image-20240107163131696

  • Show Execution Point
    (Alt + F10):如果你的光标在其它行或其它页面,点击这个按钮可跳转到当前代码执行的行
  • Step Over
    (F8):步过,一行一行地往下走,如果这一行上有方法不会进入方法
  • Step Into
    (F7):步入,如果当前行有方法,可以进入方法内部,一般用于进入自定义方法内,不会进入官方类库的方法,如第25行的put方法
  • Force Step Into
    (Alt + Shift + F7):强制步入,能进入任何方法,查看底层源码的时候可以用这个进入官方类库的方法
  • Step Out
    (Shift + F8):步出,从步入的方法内退出到方法调用处,此时方法已执行完毕,只是还没有完成赋值
  • Drop Frame
    (默认无):回退断点,后面章节详细说明
  • Run to Cursor
    (Alt + F9):运行到光标处,你可以将光标定位到你需要查看的那一行,然后使用这个功能,代码会运行至光标行,而不需要打断点
  • Evaluate Expression
    (Alt + F8):计算表达式,后面章节详细说明

第二组按钮,共7个按钮
,从上到下依次如下:

image-20240107163408102

  • Rerun 'xxxx'
    :重新运行程序,会关闭服务后重新启动程序
  • Modify Run Configuration
    :更新程序,一般在你的代码有改动后可执行这个功能。而这个功能对应的操作则是在服务配置里,如下“更新程序”图一
  • Resume Program
    (F9):恢复程序,比如,你在第20行和25行有两个断点,当前运行至第20行,按F9,则运行到下一个断点(即第25行),再按F9,则运行完整个流程,因为后面已经没有断点了
  • Pause Program
    :暂停程序,启用Debug目前没发现具体用法
  • Stop 'xxx'
    (Ctrl + F2):连续按两下,关闭程序。有时候你会发现关闭服务再启动时,报端口被占用,这是因为没完全关闭服务的原因,你就需要查杀所有JVM进程了
  • View Breakpoints
    (Ctrl + Shift + F8):查看所有断点,后面章节会涉及到
  • Mute Breakpoints
    :哑的断点,选择这个后,所有断点变为灰色,断点失效,按F9则可以直接运行完程序。再次点击,断点变为红色,有效。如果只想使某一个断点失效,可以在断点上右键取消Enabled,则该行断点失效

更新程序

img

  • On 'Update' actions
    ,执行更新操作时所做的事情,一般选择
    'Update Classes and resources'
    ,即更新类和资源文件

一般配合热部署插件会更好用,如JRebel,这样就不用每次更改代码后还要去重新启动服务。
激活JRebe戳这里
,另外会涉及到邮箱问题:
临时邮箱在线生成

  • On frame deactivation
    ,在IDEA窗口失去焦点时触发,即一般你从idea切换到浏览器的时候,idea会自动帮你做的事情,一般可以设置Do nothing,频繁切换会比较消耗资源的

img

变量查看

在Debug过程中,跟踪查看变量的变化是非常必要的,这里就简单说下IDEA中可以查看变量的几个地方,相信大部分人都了解。

如下,在IDEA中,参数所在行后面会显示当前变量的值

img

光标悬停到参数上,显示当前变量信息。点击打开详情如下图。我一般会使用这种方式,快捷方便

img

img

在Variables里查看,这里显示当前方法里的所有变量

img

在Watches里,点击New Watch,输入需要查看的变量或者可以从Variables里拖到Watche里查看

img

如果你发现你没有Watches,可能在下图所在的地方

img

img

计算表达式

在前面提到的计算表达式如下图的按钮,Evaluate Expression (Alt + F8) 可以使用这个操作在调试过程中计算某个表达式的值,而不用再去打印信息

image-20240107172245056

按Alt + F8或按钮,或者,你可以选中某个表达式再Alt + F8,弹出计算表达式的窗口,如下,回车或点击Evaluate计算表达式的值

这个表达式不仅可以是一般变量或参数,也可以是方法,当你的一行代码中调用了几个方法时,就可以通过这种方式查看查看某个方法的返回值

img

设置变量,在计算表达式的框里,可以改变变量的值,这样有时候就能很方便我们去调试各种值的情况了不是

img

智能步入

想想,一行代码里有好几个方法,怎么只选择某一个方法进入。之前提到过使用Step Into (Alt + F7) 或者 Force Step Into (Alt + Shift + F7)进入到方法内部,但这两个操作会根据方法调用顺序依次进入,这比较麻烦

那么智能步入就很方便了,智能步入,这个功能在Run -> Debugging Action里可以看到,Smart Step Into (Shift + F7),如下图

image-20240107172759629

按Shift + F7,会自动定位到当前断点行,并列出需要进入的方法,如下图,点击方法进入方法内部

如果只有一个方法,则直接进入,类似Force Step Into

img

断点条件设置

通过设置断点条件,在满足条件时,才停在断点处,否则直接运行。

通常,当我们在遍历一个比较大的集合或数组时,在循环内设置了一个断点,难道我们要一个一个去看变量的值?那肯定很累,说不定你还错过这个值得重新来一次。

设置当前断点的条件

在断点上右键直接
设置当前断点的条件
,如下图设置exist为true时断点才生效

img

查看所有断点

点击View Breakpoints (Ctrl + Shift + F8),查看所有断点

  • Java Line Breakpoints 显示了所有的断点,在右边勾选Condition,设置断点的条件
  • 勾选Log message to console,则会将当前断点行输出到控制台,如下图二
  • 勾选Evaluate and log,可以在执行这行代码时计算表达式的值,并将结果输出到控制台

img

img

右边的Filters过滤

再说说右边的Filters过滤:这些一般情况下不常用,简单说下意思

img

  • Instance filters:实例过滤,输入实例ID(如下图中的实例ID)。
  • Class filters:类过滤,根据类名过滤。
  • Pass count:用于循环中,如果断点在循环中,可以设置该值,循环多少次后停在断点处,之后的循环都会停在断点处

img

异常断点:通过设置异常断点,在程序中出现需要拦截的异常时,会自动定位到异常行

如下图,点击+号添加Java Exception Breakpoints,添加异常断点然后输入需要断点的异常类

img

之后可以在Java Exception Breakpoints里看到添加的异常断点

image-20240107175709961

这里添加了一个NullPointerException异常断点,出现空指针异常后,自动定位在空指针异常行

img

多线程调试

一般情况下,我们调试的时候是在一个线程中的,一步一步往下走。但有时候你会发现在Debug的时候,想发起另外一个请求都无法进行了?

那是因为IDEA在Debug时默认阻塞级别是ALL,会阻塞其它线程,只有在当前调试线程走完时才会走其它线程。可以在View Breakpoints里选择Thread,如下图,然后点击Make Default设置为默认选项。

img

切换线程,在下图中Frames的下拉列表里,可以切换当前的线程,如下我这里有两个Debug的线程,切换另外一个则进入另一个Debug的线程

img

回退断点

在调试的时候,想要重新走一下流程而不用再次发起一个请求?

首先认识下这个
方法调用栈
,如下图,首先请求进入DemoController的insertDemo方法,然后调用insert方法,其它的invoke我们且先不管,最上面的方法是当前断点所在的方法。

img

断点回退

  • 注意:断点回退只是重新走一下流程,之前的某些参数/数据的状态已经改变了的是无法回退到之前的状态的,如对象、集合、更新了数据库数据等等。

所谓的断点回退,其实就是回退到上一个方法调用的开始处,在IDEA里测试无法一行一行地回退或回到上一个断点处,而是回到上一个方法。

回退的方式有两种:一种是Drop Frame按钮,按调用的方法逐步回退,包括三方类库的其它方法。

img

取消Show All Frames按钮会显示三方类库的方法。

img

第二种方式,在调用栈方法上选择要回退的方法,右键选择Drop Frame,回退到该方法的上一个方法调用处,此时再按F9(Resume Program),可以看到程序进入到该方法的断点处了

img

中断Debug

想要在Debug的时候,中断请求,不要再走剩余的流程了?

有些时候,我们看到传入的参数有误后,不想走后面的流程了,怎么中断这次请求呢(后面的流程要删除数据库数据呢....),难道要关闭服务重新启动程序?嗯,我以前也是这么干的。

确切的说,我也没发现可以直接中断请求的方式(除了关闭服务),但可以通过Force Return,即强制返回来避免后续的流程,如图:

img

点击Force Return,弹出Return Value的窗口,我这个方法的返回类型为Map,所以,我这里直接返回 results,来强制返回,从而不再进行后续的流程或者你可以
new HashMap<>()

img

远程调试(Remote Debug)

有时候,本地调试的时候没有问题,打包部署到测试环境的时候却爆出一堆莫名其妙的问题,这时该怎么办呢?

使用特定JVM参数运行服务端代码

要让远程服务器运行的代码支持远程调试,则启动的时候必须加上特定的JVM参数,这些参数是:

-Xdebug -Xrunjdwp:transport=dt_socket,suspend=n,server=y,address=${debug_port}

其中的
${debug_port}
是用户自定义的,为debug端口,本例以6666665端口为例。

本人在这里踩过一个坑,必须要说一下:在使用公司内部的自动化部署平台NDP进行应用部署时,该平台号称支持远程调试,只需要在某个配置页面配置一下调试端口号(没有填写任何IP相关的信息),并且重新发布一下应用即可。事实上也可以发现,上述JVM参数中唯一可变的就是${debug_port}。但是实际在本地连接时发现却始终连不上6666665 的调试端口,仔细排查才发现,下面截取了NDP发布的应用所有JVM参数列表中与远程调试相关的JVM启动参数如下:

-Xdebug -Xrunjdwp:transport=dt_socket,suspend=n,server=y,address=127.0.0.1:6666665

将address设置为127.0.0.1:6666665,表示将调试端口限制为本地访问,远程无法访问,这个应该是NDP平台的一个bug,我们在自己设置JVM的启动参数时也需要格外注意。

如果只是临时调试,在端口号前面不要加上限制访问的IP地址,调试完成之后,将上述JVM参数去除掉之后重新发布下,防范开放远程调试端口可能带来的安全风险。

本地连接远程服务器debug端口

打开IDEA,在顶部靠右的地方选择”Edit Configurations…”,进去之后点击+号,选择”Remote”,按照下图的只是填写红框内的内容,其中Name填写名称,这里为remote webserver,host为远程代码运行的机器的ip/hostname,port为上一步指定的debug_port,本例是6666665。然后点击Apply,最后点击OK即可

img

现在在上一步选择”Edit Configurations…”的下拉框的位置选择上一步创建的remote webserver,然后点击右边的debug按钮(长的像臭虫那个),看控制台日志,如果出现类似“Connected to the target VM, address: ‘xx.xx.xx.xx:6666665’, transport: ‘socket’”的字样,就表示连接成功过了,我这里实际显示的内容如下:

Connected to the target VM, address: '10.185.0.192:16666665', transport: 'socket'
设置断点,开始调试

特别注意:用于远程debug的代码必须与远程部署的代码完全一致,不能发生任何的修改,否则打上的断点将无法命中,切记切记!

远程debug模式已经开启,现在可以在需要调试的代码中打断点了,比如:

img

如图中所示,如果断点内有√,则表示选取的断点正确

现在在本地发送一个到远程服务器的请求,看本地控制台的bug界面,划到debugger这个标签,可以看到当前远程服务的内部状态(各种变量)已经全部显示出来了,并且在刚才设置了断点的地方,也显示了该行的变量值

img

后续

上述内容已由8万多字,限于内容篇幅大小,后续还有3万多的字就不放在这里了,请需要的人去Github下载md文档阅读:
JVM整理

后续内容如下:

  1. 调试工具Arthas相关内容

image-20240129125735976

  1. Java动态调试技术原理(Arthas就用了它)

image-20240129125834673

  1. GC调优

image-20240129125913467

  1. 性能调优

image-20240129125939546