ThreadPoolExecutor 机制
本文系作者原创,转载请注明出处:http://www.cnblogs.com/further-further-further/p/7681529.html
解决问题:
1、 处理大量异步任务时能减少每个任务的资源开销;
2、 线程通过线程池管理,减少线程的资源开销;
3、 统计当前任务完成数量以及活跃线程数;
个人认为关键是线程池与任务队列如何完美协作
通过下图说明ThreadPoolExecutor机制
1. 线程池中现有线程(current threads) < corePoolSize(线程池基本线程) i> 保证线程池中线程数量达到corePoolSize大小 (allowCoreThreadTimeOut=true 除外)
ii> 如果新提交一个任务(new task submitted),即使当前现有线程处于idle状态,线程池也会启动一个新的线程来处理该任务;
iii> 如果新提交一个任务(new task submitted),线程池(Executor)优先开启线程处理task,而不是进queue, 直到current threads >= corePoolSize时,new task 先进入queue然后等待处理;
2. corePoolSize(线程池基本线程) < 线程池中现有线程 < maximumPoolSize(线程池最大线程)
i> 如果新提交一个任务(new task submitted),只有当queue已满的情况下,线程池才会启动一个新的线程来处理, 否则只有等当前线程处理完任务后再来处理new task;
ii> 超过了线程驻留时间(Keep-alive time),超过的线程(currrent size - corePoolSize)终止,释放资源; setKeepAliveTime动态调整驻留空闲时间;
3. 线程池中现有线程(current threads) > maximumPoolSize(线程池最大线程)
i> 如果新提交一个任务(new task submitted),线程池还是会创建一个新的线程,只不过new task 被拒绝(rejected);
new task 被拒绝(rejected)处理策略:
a> ThreadPoolExecutor.AbortPolicy : 运行时抛出异常(RejectedExecutionException)
b> ThreadPoolExecutor.CallerRunsPolicy: 该线程通过简单的反馈控制机制来重新处理该任务的请求,减慢任务入队列的时间, 从而达到线程处理任务的速度快于任务到达队列的速度;
优点:不抛出异常中断线程,不丢失任务;如下图
c> ThreadPoolExecutor.DiscardPolicy: 直接扔掉任务
d> ThreadPoolExecutor.DiscardOldestPolicy: 按照进入顺序扔掉队列另一端最先进入的任务,腾出空间,然后将新任务入队列;
不要让懒惰占据你的大脑,不要让妥协拖垮你的人生。青春就是一张票,能不能赶上时代的快车,你的步伐掌握在你的脚下。