所以,只能理解你的要求是想要在多个线程上“不同时” *** 作一个文件。这种情况下,一般的建议是使用一个临界区对象(百度一下很多很多),然后维护一个队列,按顺序处理各个线程的读写要求。如果嫌麻烦的话,可以使用.Net托管的文件流中的Begin系列异步读写函数(BeginRead,BeginWrite....百度一下还是很多很多),就不会阻塞各个线程,也不会造成意料之外的文件读写混乱了....
顺便补充说明,一个文件只需要一个FileStream来维护。可以认为文件流就是文件的一个抽象接口...
先说几个要点:a、文件在 *** 作系统级,有描述符标记,关联到打开的文件表项,文件表项纪录了一个很重要的信息,当前文件的指针;
b、cpu要干的工作比读文件快不,读一次文件的速度要慢于cpu处理一次的速度,没必要多多线程,多线程提升不了多少性能,还增加编程的难度,单线程处理即可。
c、待处理文件,必须知道一定的边界值,如分页边界或单条纪录边界。
有了上面的前提,每个线程维护单独的缓冲区,缓存区大小就是c点提到的边界纪录大小。线程启动,把缓冲区读满,处理数据。此处有个要点,必须做文件锁,把要读的边界锁住。否则读出来的数据会产生混乱。(如果强行打开多个不同的文件不划算,内存占用可能会过多)。产生混乱的原因简单,读文件实际上是进行系统调用,系统调用有自己的缓冲区,这缓冲区未必跟你设置的缓冲区一样大。多次读多次移动指针,不加文件锁处理的数据必定会乱。
文件锁两种方式加锁,对整个文件加锁,对字节区间加锁。都不是什么难事。
实现方式1:对整个文件加锁,因为我们要保证的是读到的数据别混乱。
实现方式2:如果内存足够大,维护n个独立的文件描述符,这些文件描述符必须有独立的文件指针, *** 作系统上有对应实现。每个线程 *** 作未读纪录,这么做还需要维护共享的已读纪录指针。防止重复处理。这么做处理完成如果需要按顺序合并文件是难点。处理过的数据有新的纪录边界。要视实际情况而定能不能这么做。写程序要优先保证的是正确性,之后才是提升效率。
我说的理论,依据是 *** 作系统提供的api处理。别的语言要依赖 *** 作系统运行。原理差不多,目标语言有没有 *** 作系统提供的api强悍。依据使用的目标语言而定。绝大多数能叫编程语言的语言都会提供 *** 作系统api对应的方法。(脚本语言例外,如shell,perl,javascript,vbscript,就可能没这么强的控制能力。),java,objective-c,swift,php,python一般是不会有问题的。
封装一个静态类(Lock),定义两个锁(静态属性,实际上为信号量),分别为 写锁(_m_WriteLock) 和读锁(_m_ReadLock):public static ReaderWriterLock _m_ReadLock = new ReaderWriterLock()public static ReaderWriterLock _m_WriteLock = new ReaderWriterLock()当线程写入时,同时锁住 读写锁:LjLock._m_WriteLock.AcquireWriterLock(10000)//写资源锁.数字为超时时间 *** 作结束后 LjLock._m_WriteLock.ReleaseWriterLock()当读 *** 作时只锁写 *** 作:LjLock._m_ReadLock.AcquireReaderLock(10000)//读锁LjLock._m_ReadLock.ReleaseReaderLock()即可。记住:一定要在 *** 作完后ReleaseReaderLock()或ReleaseWriterLock()进行释放。欢迎分享,转载请注明来源:内存溢出
评论列表(0条)