限制* Large * Django QuerySet中的内存使用

限制* Large * Django QuerySet中的内存使用,第1张

限制* Large * Django QuerySet中的内存使用

因此,我实际上最终要做的是构建可以“包装”
QuerySet的内容。它可以通过使用slice语法对QuerySet进行

some_queryset[15:45]
拷贝来工作(例如,),但随后会对原始QuerySet进行另一次深拷贝。当切片已完全迭代通过时。这意味着仅在“此”特定切片中返回的对象集存储在内存中。

class MemorySavingQuerysetIterator(object):    def __init__(self,queryset,max_obj_num=1000):        self._base_queryset = queryset        self._generator = self._setup()        self.max_obj_num = max_obj_num    def _setup(self):        for i in xrange(0,self._base_queryset.count(),self.max_obj_num): # By making a copy of of the queryset and using that to actually access # the objects we ensure that there are only `max_obj_num` objects in # memory at any given time smaller_queryset = copy.deepcopy(self._base_queryset)[i:i+self.max_obj_num] logger.debug('Grabbing next %s objects from DB' % self.max_obj_num) for obj in smaller_queryset.iterator():     yield obj    def __iter__(self):        return self    def next(self):        return self._generator.next()

所以代替…

for obj in SomeObject.objects.filter(foo='bar'): <-- Something that returns *a lot* of Objects    do_something(obj);

你会做…

for obj in MemorySavingQuerysetIterator(in SomeObject.objects.filter(foo='bar')):    do_something(obj);

请注意,这样做的目的是为了 节省 Python解释 中的 内存 。它实质上是通过进行 更多的
数据库查询来实现的。通常,人们正试图做与之完全相反的事情,即,在不考虑内存使用情况的情况下,尽可能减少数据库查询。希望有人会发现这很有用。



欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5631153.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-15
下一篇 2022-12-15

发表评论

登录后才能评论

评论列表(0条)

保存