欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

支持生产阻塞的Java线程池

程序员文章站 2024-02-26 00:01:21
通常来说,生产任务的速度要大于消费的速度。一个细节问题是,队列长度,以及如何匹配生产和消费的速度。 一个典型的生产者-消费者模型如下: &nbs...

通常来说,生产任务的速度要大于消费的速度。一个细节问题是,队列长度,以及如何匹配生产和消费的速度。

一个典型的生产者-消费者模型如下:

支持生产阻塞的Java线程池
 

在并发环境下利用j.u.c提供的queue实现可以很方便地保证生产和消费过程中的线程安全。这里需要注意的是,queue必须设置初始容量,防止生产者生产过快导致队列长度暴涨,最终触发outofmemory。

对于一般的生产快于消费的情况。当队列已满时,我们并不希望有任何任务被忽略或得不到执行,此时生产者可以等待片刻再提交任务,更好的做法是,把生产者阻塞在提交任务的方法上,待队列未满时继续提交任务,这样就没有浪费的空转时间了。阻塞这一点也很容易,blockingqueue就是为此打造的,arrayblockingqueue和linkedblockingqueue在构造时都可以提供容量做限制,其中linkedblockingqueue是在实际操作队列时在每次拿到锁以后判断容量。

更进一步,当队列为空时,消费者拿不到任务,可以等一会儿再拿,更好的做法是,用blockingqueue的take方法,阻塞等待,当有任务时便可以立即获得执行,建议调用take的带超时参数的重载方法,超时后线程退出。这样当生产者事实上已经停止生产时,不至于让消费者无限等待。

于是一个高效的支持阻塞的生产消费模型就实现了。

等一下,既然j.u.c已经帮我们实现了线程池,为什么还要采用这一套东西?直接用executorservice不是更方便?

我们来看一下threadpoolexecutor的基本结构:

支持生产阻塞的Java线程池
 

可以看到,在threadpoolexecutor中,blockingqueue和consumer部分已经帮我们实现好了,并且直接采用线程池的实现还有很多优势,例如线程数的动态调整等。

但问题在于,即便你在构造threadpoolexecutor时手动指定了一个blockingqueue作为队列实现,事实上当队列满时,execute方法并不会阻塞,原因在于threadpoolexecutor调用的是blockingqueue非阻塞的offer方法:

复制代码 代码如下:

public void execute(runnable command) {
    if (command == null)
        throw new nullpointerexception();
    if (poolsize >= corepoolsize || !addifundercorepoolsize(command)) {
        if (runstate == running && workqueue.offer(command)) {
            if (runstate != running || poolsize == 0)
                ensurequeuedtaskhandled(command);
        }
        else if (!addifundermaximumpoolsize(command))
            reject(command); // is shutdown or saturated
    }
}

这时候就需要做一些事情来达成一个结果:当生产者提交任务,而队列已满时,能够让生产者阻塞住,等待任务被消费。

关键在于,在并发环境下,队列满不能由生产者去判断,不能调用threadpoolexecutor.getqueue().size()来判断队列是否满。

线程池的实现中,当队列满时会调用构造时传入的rejectedexecutionhandler去拒绝任务的处理。默认的实现是abortpolicy,直接抛出一个rejectedexecutionexception。

几种拒绝策略在这里就不赘述了,这里和我们的需求比较接近的是callerrunspolicy,这种策略会在队列满时,让提交任务的线程去执行任务,相当于让生产者临时去干了消费者干的活儿,这样生产者虽然没有被阻塞,但提交任务也会被暂停。

复制代码 代码如下:

public static class callerrunspolicy implements rejectedexecutionhandler {
    /**
     * creates a <tt>callerrunspolicy</tt>.
     */
    public callerrunspolicy() { }

    /**
     * executes task r in the caller's thread, unless the executor
     * has been shut down, in which case the task is discarded.
     * @param r the runnable task requested to be executed
     * @param e the executor attempting to execute this task
     */
    public void rejectedexecution(runnable r, threadpoolexecutor e) {
        if (!e.isshutdown()) {
            r.run();
        }
    }
}

但这种策略也有隐患,当生产者较少时,生产者消费任务的时间里,消费者可能已经把任务都消费完了,队列处于空状态,当生产者执行完任务后才能再继续生产任务,这个过程中可能导致消费者线程的饥饿。

参考类似的思路,最简单的做法,我们可以直接定义一个rejectedexecutionhandler,当队列满时改为调用blockingqueue.put来实现生产者的阻塞:

复制代码 代码如下:

new rejectedexecutionhandler() {
        @override
        public void rejectedexecution(runnable r, threadpoolexecutor executor) {
                if (!executor.isshutdown()) {
                        try {
                                executor.getqueue().put(r);
                        } catch (interruptedexception e) {
                                // should not be interrupted
                        }
                }
        }
};

这样,我们就无需再关心queue和consumer的逻辑,只要把精力集中在生产者和消费者线程的实现逻辑上,只管往线程池提交任务就行了。

相比最初的设计,这种方式的代码量能减少不少,而且能避免并发环境的很多问题。当然,你也可以采用另外的手段,例如在提交时采用信号量做入口限制等,但是如果仅仅是要让生产者阻塞,那就显得复杂了。