python读取较大数据文件

python读取较大数据文件,第1张

常用方式一:

上述方式不会一次性读取整个文件,类似buffer机制。

对可迭代对象 f,进行迭代遍历: for line in f ,会自动地使用缓冲IO(buffered IO)以及内存管理。

方式二:

自己实现类似于buffer:

== 不适合的方法 ==

如果文件太大而无法生成Excel,可以尝试使用Pandas库来处理大文件,并将其转换为Excel文件。Pandas库提供了一系列的函数和方法,可以帮助用户处理大文件,并将其转换为Excel文件。

1.方法一:利用yield生成器

2. 方法二:利用open()自带方法生成迭代对象,这个是一行一行的读取

总结:二者的比较

方法一:可以灵活控制一次读取的size,在速度上较2有优势,适用于一些大的二进制文件,比如读取一些大的视频或者图片等。

方法二:在处理一些文本的时候感觉更加便利,按行读更容易对文本进行处理。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/11727742.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-18
下一篇 2023-05-18

发表评论

登录后才能评论

评论列表(0条)

保存