一,如果是一台全新的S7-300CPU, 在你第一次插及MMC内存卡时,有或者你把MMC内存卡拔下来又重新插回CPU时,记着一定要复位一下CPU。
1,这里说明一下复位CPU的方法:当第一次把CPU上的拔码开关打到MRES 时,记着不可松手,STOP灯会慢慢闪烁几次,当STOP灯从不闪变成常亮时,松手后随便把开关打回RUN或STOP位置,复位完成,(百度有很多S7-300PLC复位说明,可自行查找)
2, 还有一种现象就是S7-300PLC上有内存卡,但不能复位的情况:当把CPU上的拔码开关打到MRES 时,复位OK后,在把开关打到RUN位置。RUN灯不亮,而STOP常亮。(正常情况是复位后,开关打到RUN,RUN灯亮。开关打到STOP, STOP灯亮)
注意:说明2 中是不正常的情况,出现这种情况后,可以先把MMC内存卡拔下来,一般可以正常复位,也能正常通信。出现这种问题,有2个原因:1,MMC卡坏。 2,MMC卡容量过大,CPU识别不了,更换小容量的内存卡,一般都可以解决。
二, 如果复位后仍然提示节点过高,可以试着把软件中设置PC/PG接口中,PC ADAPTER(MPI)协义里的波行率改成19.2试一下,也可选择PC ADAPTER(ATUO)协义自动查找一下波行率。还有就是OCB20电缆同时也支持S7-200PLC通信,你可以用它与S7-200PLC通信来检测电缆是否损坏。
虚拟机CentOS中配置MPI多节点并行计算完整版,这是一个新手教程,从一个空白的CentOS到能正常运行的基础环境,尽量详细写了每个步骤我的环境如下:
宿主机:Windows 10 Pro
虚拟机:VMware 12 + CentOS 6.6
一、 虚拟机网络配置实现多节点互访
硬件资源有限,所以我只开了两台虚拟机均为 Centos 6.6。
1.修改网卡配置文件
/etc/sysconfig/network-scripts/ifcfg-eth0 将其中内容修改如下:
DEVICE=eth0
HWADDR=00:0C:29:A0:3A:CA
TYPE=Ethernet
UUID=bf583745-f834-451c-890c-39821a590543
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.207.128
NETMASK=255.255.255.0
DNS1=192.168.207.2
将每一台虚拟机都如此配置,IPADDR是ip地址,不要重复
2.修改网关及主机名
/etc/sysconfig/network
ETWORKING=yes
HOSTNAME=node1
NTPSERVERARGS=iburst
GATEWAY=192.168.207.2
一些文章中提到还需要修改VMware的设置(关闭本地DHCP服务),实际上,Centos 中设置好后就不需要动VMware的设置了
二、 在虚拟机中添加同名用户
在不同节点中需要有同名的用户以方便免密码SSH连接
node1和node2中以root用户执行下列命令
# useradd mpiuser
三、 实现免密码SSH登陆
当前节点为node1,用户为mpiuser,工作目录为 ~ 家目录
1.生成 SSH 私钥对
$ ssh-keygen -t rsa 一路回车就好
2.进入 .ssh 目录
$ cd ./.ssh
3.生成authorized_keys文件
$ cp id_rsa.pub authorized_keys
4.回到mpiuser的家目录
$ cd ~
5.建立本身的信任连接
$ ssh node1
6.设置 node2
$ ssh-keygen -t rsa 生成.ssh文件夹
$ scp node1:~/.ssh/* ./ 拷贝node1上的.ssh文件夹到node2
# scp node1:/etc/hosts /etc/hosts 拷贝node1上的hosts文件到node2,可能需要root权限
$ ssh node2
$ ssh node1
7.如果还有其他节点,设置方法同node2
设置成功后,在任意节点执行SSH连接其他节点都不需要密码,注意必需每个节点都有mpiuser这个用户,之所以使用一个普通用户,是为了避免root执行mpi程序时遇到风险。在一些mpi实现中,也不允许以root用户执行。
四、 配置MPI运行环境
1. 下载 mpich
官方网站 http://www.mpich.org 下载其中的mpich-3.2.tar.gz
2. 解压并进入目录
# tar xvf mpich-3.2.tar.gz
# cd mpich-3.2
# ./configure –prefix=/usr/local/mpich
# make
# make install
3. 设置环境变量,修改 /etc/profile ,加入下面几行代码
PATH=$PATH:/usr/local/mpich/bin
MANPATH=$MANPATH:/usr/local/mpich/man
export PATH MANPATH
4. 使刚刚的修改生效
# source /etc/profile
5. mpi多节点配置
新建一个配置文件
# touch /usr/local/mpich/servers
修改其中内容为:
node1:2 #在node1上运行两个进程
node2:2
如果有多个节点继续往下写
五、 单节点测试
将源码包中的 examples 拷贝到 mpich 的安装目录
# cp -r ./examples /usr/local/mpich/
用示例程序进行测试
$ mpirun -np 4 /usr/local/mpich/examples/cpi
Process 1 of 4 is on node1
Process 0 of 4 is on node1
Process 3 of 4 is on node1
Process 2 of 4 is on node1
pi is approximately 3.1415926544231239, Error is 0.0000000008333307
wall clock time = 0.081049
得到如图的回显结果证明mpich的运行环境正常
六、 多节点测试
$ mpiexec -np 4 -f /usr/local/mpich/servers /usr/local/mpich/examples/cpi
Process 1 of 4 is on node1
Process 0 of 4 is on node1
Process 3 of 4 is on node2
Process 2 of 4 is on node2
pi is approximately 3.1415926544231239, Error is 0.0000000008333307
wall clock time = 0.139722
如上,在两个节点上分别运行了两个进程,配置过程到此结束
两种方式:
1. mpirun -np n -machinefile your_node_list_file program
(参看man mpirun)
2. 修改MPI运行环境的机器列表(MPICH是$(INSTLL_ROOT)/util/machines/machines.LINUX
LAM/MPI 好像用lamnodes命令
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)