Python中读取大文件的简单方法?

Python中读取大文件的简单方法?,第1张

Python中读取大文件的简单方法?

要编写一个简单函数,只需使用

yield

def read_in_chunks(file_object, chunk_size=1024):    """Lazy function (generator) to read a file piece by piece.    Default chunk size: 1k."""    while True:        data = file_object.read(chunk_size)        if not data: break        yield datawith open('really_big_file.dat') as f:    for piece in read_in_chunks(f):        process_data(piece)

另一个选择是使用

iter
和辅助功能:

f = open('really_big_file.dat')def read1k():    return f.read(1024)for piece in iter(read1k, ''):    process_data(piece)

如果文件是基于行的,则文件对象已经是行的惰性生成器

for line in open('really_big_file.dat'):    process_data(line)


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/4925011.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-11-12
下一篇 2022-11-12

发表评论

登录后才能评论

评论列表(0条)

保存