记录工作中遇到的GC问题以及解决方案

记录工作中遇到的GC问题以及解决方案,第1张

记录工作中遇到的GC问题以及解决方案 问题一:多线程 new Thread()

工作中没用过多线程,第一次使用多线程,就直接使用new Thread(),一到线上环境就GG了,之后使用下面的方式解决这个问题

ThreadPoolExecutor(int corePoolSize, int maximumPoolSize, long keepAliveTime, TimeUnit unit, BlockingQueue workQueue, ThreadFactory threadFactory, RejectedExecutionHandler handler);

虽然很熟悉创建多线程的方式:实现Runnable接口和继承Thread类,但是这些并不适用于生产环境,最好使用线程池来实用多线程的方法。线程池可以管理线程、复用线程,减少线程频繁新建、销毁等带来的开销。频繁的new Thread就会炸了。

问题二、产生大量临时对象

对于这种情况,能复用临时对象就复用,new 大量的对象,占据了大量内存。

问题三、产生大量的log

打印大量的日志,虽然没遇到过GC的情况,但是还真遇到项目卡的情况。之前写过这篇文章,可以去看看
记录工作中遇到的坑以及解决办法

问题四、集合存数据

第一次遇到这种问题,当用map存储大量数据的时候,会导致GC异常。Map结构是hashset嵌套了hashset了,本地测试了1百万和1千万条数据,1百万的时候,还是扛得住,1千万条数据直接抗不住了。感兴趣的可以去试试。

@Test
public void test09() {
    long startTime = System.currentTimeMillis();
    Map> hashMap = new HashMap<>();
    for(int i = 0;i < 10000000; i++) {
        Set name = new HashSet<>();
        name.add("" + i);
        hashMap.put("" + i, name);
    }
    long endTime = System.currentTimeMillis();
    long spendTime = endTime - startTime;
    System.out.println(spendTime/1000);
}

我这里了解到hashset会开辟大量的空间,导致空间和时间浪费,当数据量上来了,其后果更加明显。
我改成Map结构,存储1千万条数据,还是扛得住,当然,本地配置高,到了线上环境就不一定了。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5707156.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存