因此,我实际上最终要做的是构建可以“包装”
QuerySet的内容。它可以通过使用slice语法对QuerySet进行
some_queryset[15:45]深拷贝来工作(例如,),但随后会对原始QuerySet进行另一次深拷贝。当切片已完全迭代通过时。这意味着仅在“此”特定切片中返回的对象集存储在内存中。
class MemorySavingQuerysetIterator(object): def __init__(self,queryset,max_obj_num=1000): self._base_queryset = queryset self._generator = self._setup() self.max_obj_num = max_obj_num def _setup(self): for i in xrange(0,self._base_queryset.count(),self.max_obj_num): # By making a copy of of the queryset and using that to actually access # the objects we ensure that there are only `max_obj_num` objects in # memory at any given time smaller_queryset = copy.deepcopy(self._base_queryset)[i:i+self.max_obj_num] logger.debug('Grabbing next %s objects from DB' % self.max_obj_num) for obj in smaller_queryset.iterator(): yield obj def __iter__(self): return self def next(self): return self._generator.next()
所以代替…
for obj in SomeObject.objects.filter(foo='bar'): <-- Something that returns *a lot* of Objects do_something(obj);
你会做…
for obj in MemorySavingQuerysetIterator(in SomeObject.objects.filter(foo='bar')): do_something(obj);
请注意,这样做的目的是为了 节省 Python解释 器 中的 内存 。它实质上是通过进行 更多的
数据库查询来实现的。通常,人们正试图做与之完全相反的事情,即,在不考虑内存使用情况的情况下,尽可能减少数据库查询。希望有人会发现这很有用。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)