SSH项目中,是如何 *** 作大批量数据的?尽量详细,谢谢

SSH项目中,是如何 *** 作大批量数据的?尽量详细,谢谢,第1张

Hibernate批量处理其实从性能上考虑,它是很不可取的,浪费了很大的内存。从它的机制上讲,Hibernate它是先把符合条件的数据查出来,放到内存当中,然后再进行 *** 作。实际使用下来性能非常不理想,在实际使用中采用下面的第三种优化方案的数据是:100000条数据插入数据库,主流台式机的配置,需要约30分钟,呵呵,晕倒.

总结下来有三种来处理以解决性能问题:

1:绕过Hibernate API ,直接通过 JDBC API 来做,这个方法性能上是比较好的。也是最快的.

2:运用存储过程。

3:还是用Hibernate API 来进行常规的批量处理,可以也有变,变就变在,我们可以在查找出一定的量的时候,及时的将这些数据做完 *** 作就

删掉,session.flush()session.evict(XX对象集)这样也可以挽救一点性能损失。这个“一定的量”要就要根据实际情况做定量参考了。一般为30-60左右,但效果仍然不理想.

这个没好办法, 普通用户不存消息记录, 付费用户存1-3月记录,

新消息内容 直接写到cookie里 大概能存最近5条吧. 超过 140字不让发

采购服务器顶级硬件.


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/sjk/10002181.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-04
下一篇 2023-05-04

发表评论

登录后才能评论

评论列表(0条)

保存