MPI 程序 计算时间问题

MPI 程序 计算时间问题,第1张

关于MPI程序中计时,推荐用函数MPI_Wtick.

至于单进程排序时间变少,应该是因为你用的机器的性能太好,排序 *** 作所花费的时间相对与进程通信所花费的时间并不明显,于是就出现了多进程处理比单进程处理花费的时间大很多的表象。

MPI必须是以服务的形式运行的,不能加到自己的代码中。 这涉及到进程间通信,但是可以采用这样的三种形式:1,QT应用中启动一个MPI的exe进程,将参数作为启动参数传递给这个进程。2,可以在QT应用中将参数写到一个外部文件中,MPI进程就不断监听这个文件。文件有内容,MPI程序就开始执行。3,QT应用MPI进程,一个作为TCP的服务器,一个作为TCP的客户端。用套接字进行通信。

如果你是在linux上,可以参考很多IPC机制(进程间通信机制)。

OpenMP和MPI是并行编程的两个手段,对比如下:

OpenMP:线程级(并行粒度);共享存储;隐式(数据分配方式);可扩展性差;

MPI:进程级;分布式存储;显式;可扩展性好。

OpenMP采用共享存储,意味着它只适应于SMP,DSM机器,不适合于集群。MPI虽适合于各种机器,但它的编程模型复杂:

需要分析及划分应用程序问题,并将问题映射到分布式进程集合;

需要解决通信延迟大和负载不平衡两个主要问题;

调试MPI程序麻烦;

MPI程序可靠性差,一个进程出问题,整个程序将错误;

其中第2个问题感受深刻。每次听我们部门并行组的人做报告,总是听到他们在攻克通信延迟大和负载不平衡的问题。一种并行算法的好坏就看它有没有很好的解决这两个问题。

与OpenMP,MPI相比,MapReduce的优势何在呢?

自动并行;

容错;

MapReduce学习门槛低。

附:

SMP(Symmetric multi-processing),共享总线与内存,单一 *** 作系统映象。在软件上是可扩展的,而硬件上不能。

DSM(distributed shared memory),SMP的扩展。物理上分布存储;单一内存地址空间;非一致内存访问;单一 *** 作系统映象。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/11726439.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-18
下一篇 2023-05-18

发表评论

登录后才能评论

评论列表(0条)

保存