处理大文件的最快方法?

处理大文件的最快方法?,第1张

处理大文件的最快方法?

听起来您的代码受I / O约束。这意味着多处理将无济于事-如果您花费90%的时间从磁盘读取数据,那么等待下一次读取的额外7个进程将无济于事。

而且,尽管使用CSV读取模块(无论是stdlib

csv
还是NumPy或Pandas之类的东西)可能都是一个简单的好主意,但不太可能在性能上产生很大差异。

尽管如此,还是值得检查一下您是否确实 I /
O约束,而不仅仅是猜测。运行程序,查看您的CPU使用率是接近0%还是接近100%还是一个核心。执行Amadan在注释中建议的 *** 作,然后仅

pass
出于处理目的运行您的程序,看看这是减少5%的时间还是减少70%的时间。你甚至可以尝试用遍历比较
os.open
os.read(1024*1024)
什么的,看看这是任何更快。


由于您使用的是Python 2.x,因此Python依靠C
stdio库来一次猜测要缓冲多少,因此可能值得强迫它缓冲更多。最简单的方法是使用

readlines(bufsize)
一些大型的
bufsize
。(您可以尝试使用不同的数字进行测量,以查看峰值在哪里。根据我的经验,通常从64K-8MB的任何东西都差不多,但是取决于您的系统可能有所不同,尤其是如果您正在阅读网络文件系统具有很高的吞吐量,但可怕的延迟使实际物理驱动器的吞吐量与等待时间相比变得无能为力,而 *** 作系统的缓存也是如此。)

因此,例如:

bufsize = 65536with open(path) as infile:     while True:        lines = infile.readlines(bufsize)        if not lines: break        for line in lines: process(line)

同时,假设您使用的是64位系统,则可能首先要尝试使用

mmap
而不是读取文件。当然不能
保证 会更好,但是 可能 会更好,具体取决于您的系统。例如:

with open(path) as infile:    m = mmap.mmap(infile, 0, access=mmap.ACCESS_READ)

Python

mmap
有点像一个怪异的对象,它的作用类似于
str
file
,因此,例如,您可以手动迭代扫描换行符,也可以
readline
像对待文件一样对其进行调用。与将文件作为行或批处理进行迭代相比,这两种方法都将需要更多的Python处理
readlines
(因为C语言中的循环现在在纯Python中……尽管也许可以使用
re
或使用简单的Cython扩展来解决该问题?)
…但是, *** 作系统知道您正在使用映射进行 *** 作的I / O优势可能会淹没CPU的劣势。

不幸的是,Python并未公开

madvise
您用于调整事物以优化C语言的调用(例如,显式设置
MADV_SEQUENTIAL
而不是让内核猜测或强制透明大页面),但实际上您可以使用
ctypes
该函数出
libc



欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5652771.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存