服务器文件权限设置为777,这是为什么呢?

服务器文件权限设置为777,这是为什么呢?,第1张

Unix和Linux的各种 *** 作系统下,每个文件(文件夹也被看作是文件)都按读、写、运行设定权限。
例如我用ls -l命令列文件表时,得到如下输出:
-rw-r--r-- 1 bu users 2254 2006-05-20 13:47 tthtm
从第二个字符起rw-是说用户bu有读、写权,没有运行权,接着的r--表示用户组users只有读权限,没有运行权,最后的r--指其他人(others)只有读权限,没有写权和运行权。这是系统默认设置,我可以改写tthtm,同组的人和其他人只有权读,没人有权运行,因为只是一个html文件,不必运行。这在Novell的directory services之前很先进。
读、写、运行三项权限可以用数字表示,就是r=4,w=2,x=1。所以,上面的例子中的rw-r--r--用数字表示成644。
反过来说777就是rwxrwxrwx,意思是该登录用户(可以用命令id查看)、他所在的组和其他人都有最高权限。
再多一句。我用chmod o-r tthtm命令改权限,o-r是others的权限中减掉读。结果是
-rw-r----- 1 bu users 2254 2006-05-20 13:47 tthtm
如果用命令chmod 777 tthtm,结果是
-rwxrwxrwx 1 bu users 2254 2006-05-20 13:47 tthtm
任何人都有读、写、运行三项权限。

名思义,服务器电源就是指使用在服务器上的电源(POWER),它和PC(个人电脑)电源一样,都是一种开关电源。
服务器电源按照标准可以分为ATX电源和SSI电源两种。ATX标准使用较为普遍,主要用于台式机、工作站和低端服务器;而SSI标准是随着服务器技术的发展而产生的,适用于各种档次的服务器。
ATX标准
ATX标准是Intel在1997年推出的一个规范,输出功率一般在125瓦~350瓦之间。ATX电源通常采用20Pin(20针)的双排长方形插座给主板供电。随着Intel推出Pentium4处理器,电源规范也由ATX修改为ATX12V,和ATX电源相比,ATX12V电源主要增加了一个4Pin的12V电源输出端,以便更好地满足Pentium4的供电要求(2GHz主频的P4功耗达到524瓦)。
SSI标准
SSI(Server System Infrastructure)规范是Intel联合一些主要的IA架构服务器生产商推出的新型服务器电源规范,SSI规范的推出是为了规范服务器电源技术,降低开发成本,延长服务器的使用寿命而制定的,主要包括服务器电源规格、背板系统规格、服务器机箱系统规格和散热系统规格。
根据使用的环境和规模的不同,SSI规范又可以分为TPS、EPS、MPS、DPS四种子规范。
EPS规范(Entry Power Supply Specification):主要为单电源供电的中低端服务器设计,设计中秉承了ATX电源的基本规格,但在电性能指标上存在一些差异。它适用于额定功率在300瓦~400瓦的电源,独立使用,不用于冗余方式。后来该规范发展到EPS12V(Version20),适用的额定功率达到450瓦~650瓦,它和ATX12V电源最直观的区别在于提供了24Pin的主板电源接口和8Pin的CPU电源接口。联想万全2200C/2400C就采用了EPS标准的电源,输出功率为300W,该电源输入电压宽范围为90~264V,功率因数大于095,由于选用了高规格的元器件,它的平均无故障时间(MTBF)大于150000小时。
TPS规范(Thin Power Supply Specification):适用于180瓦~275瓦的系统,具有PFC(功率因数校正)、自动负载电流分配功能。电源系统最多可以实现4组电源并联冗余工作,由系统提供风扇散热。TPS电源对热插拔和电流均衡分配要求较高,它可用于N+1冗余工作,有冗余保护功能。
MPS规范(Midrange Power Supply Specification):这种电源被定义为针对4路以上CPU的高端服务器系统。MPS电源适用于额定功率在375瓦~450瓦的电源,可单独使用,也可冗余使用。它具有PFC、自动负载电流分配等功能。采用这种电源元件电压、电流规格设计和半导体、电容、电感等器件工作温度的设计裕量超过15%。在环境温度25度以上、最大负载、冗余工作方式下MTBF可到150000小时。
DPS规范(Distributed Power Supply Specification):电源是单48V直流电压输出的供电系统,提供的最小功率为800瓦,输出为+48V和+12VSB。DPS电源采用二次供电方式,输入交流电经过AC-DC转换电路后输出48V直流电,48VDC再经过DC-DC转换电路输出负载需要的+5V、+12V、+33V直流电。制定这一规范主要是为简化电信用户的供电方式,便于机房供电,使IA服务器电源与电信所采用的电源系统接轨。
虽然目前服务器电源存在ATX和SSI两种标准,但是随着SSI标准的更加规范化,SSI规范更能适合服务器的发展,以后的服务器电源也必将采用SSI规范。SSI规范有利于推动IA服务器的发展,将来可支持的CPU主频会越来越高,功耗将越来越大,硬盘容量和转速等也越来越大,可外挂高速设备越来越多。为了减少发热和节能,未来SSI服务器电源将朝着低压化、大功率化、高密度、高效率、分布式化等方向发展。服务器采用的配件相当多,支持的CPU可以达到4路甚至更多,挂载的硬盘能够达到4~10块不等,内存容量也可以扩展到10GB之多,这些配件都是消耗能量的大户,比如中高端工业标准服务器采用的是Xeon(至强)处理器,其功耗已经达到80多瓦特(W),而每块SCSI硬盘消耗的功率也在10瓦特(W)以上,所以服务器系统所需要的功率远远高于PC,一般PC只要200瓦电源就足够了,而服务器则需要300瓦以上直至上千瓦的大功率电源。在实际选择中,不同的应用对服务器电源的要求不同,像电信、证券和金融这样的行业,强调数据的安全性和系统的稳定性,因而服务器电源要具有很高的可靠性。目前高端服务器多采用冗余电源技术,它具有均流、故障切换等功能,可以有效避免电源故障对系统的影响,实现24×7的不停顿运行。冗余电源较为常见的是N+1冗余,可以保证一个电源发生故障的情况下系统不会瘫痪(同时出现两个以上电源故障的概率非常小)。冗余电源通常和热插拔技术配合,即热插拔冗余电源,它可以在系统运行时拔下出现故障的电源并换上一个完好的电源,从而大大提高了服务器系统的稳定性和可靠性。
在购买服务器时要注意一下本机电源,起码应该关注如下两点:
1电源的品质,包括输出功率、效率、纹波噪音、时序、保护电路等指标是否达标或者满足需要;
2注意电源生产厂家的信誉、规模和支持力度,信誉比较好、规模较大、支持及时的厂家,比如台达、全汉、新巨等等,一般质量较可靠,在性价比方面也会好很多。选购时具体可参考以下指标:
功率的选择:市场上常见的是300W和400W两种,对于个人用户来说选用300W的已经够用,而对于服务器来说,因为要面临升级以及不断增加的磁盘阵列,就需要更大的功率支持它,为此使用400W电源应该是比较合适的。
安规认证:只有严格地考虑到产品品质、消费者的安全、健康等因素,对产品按不同的标准进行严格的检测,才能通过国际合格认证,安规认证是我们选购电源的重要指标,这应该是我们选择电源时最重要的一点。因为它关系着我们的安全和健康。不好的电源噪声很大,对人的身体有影响。在这方面省下几百块钱是得不偿失的。现在的电源都要求通过3C认证。(3C认证是"中国国家强制性产品认证(China Compulsory Cerlification)"的简称。实际上是将CCEE(中国电子电工产品安全认证)、CCIB(中国进口电子产品安全认证)、EMC(电磁兼容性认证)三证合一,在2003年5月1日后强制执行3C认证。)
电压保持时间:对于这个参数主要是考虑UPS的问题,一般的电源都能满足需要,但是如果UPS质量不可靠的话,最好选一个电压保持时间长的电源。
冗余电源选择:这主要针对对系统稳定性要求比较高的服务器,冗余一般有二重冗余和三重冗余。
对主板的支持:这个因素看起来不重要,在家用PC也很少见,但在服务器中却存在这种现象,因此在选购时也要注意。

权限设定具体说明:
RL 只能读文件,下载文件
RWL 可以写文件,所以可以上载文件
RWML M是可以删除的权限
RWAMEL A是添加权限,E是执行权限
RWLCD C是目录创建权限,D是目录删除权限
问题是。。。你需要这方面内容,应该是应急方案吧?建议还是找专业技术处理吧

一、NFS服务器配置实例

实验拓扑

二、实验要求及环境

21实验环境

NFS服务器 IP:19216885

环境:

[root@server7 ~]# uname -a

Linux server7ctoszu 3100-514el7centosplusi686 #1 SMP Wed Jan 25 12:55:04 UTC 2017 i686 i686 i386 GNU/Linux

[root@server7 ~]# cat /etc/redhat-release

CentOS release 731611 (AltArch)

客户端IP:19216887

环境:

[root@client-A ~]# uname -a

Linux client-Actoszu 2632-696el6i686 #1 SMP Tue Mar 21 18:53:30 UTC 2017 i686 i686 i386 GNU/Linux

[root@client-A ~]# cat /etc/redhat-release

CentOS release 69 (Final)

22、实验要求

NFS服务器

1、/home/share 目录可读写,并且不限制用户身份,共享给19216880/24网段不的所有主机;

2、/home/zhidata 这个目录仅共享给19216887这台主机,以供该主机上面的zhi这个用户来使用,

也就是说zhi在19216885和19216887上均有账号,且账号均为zhi;

3、/home/upload 这个目录做为19216880/24网段的数据上传目录,其中/home/upload

的用户和所属组为nfs-upload这个名字,它的UID和GID均为222;

4、/home/nfs  这个目录的属性为只读,可提供除了网段内的工作站外,向Internet也提供数据内容。

三、服务器端设置

1、 编辑/etc/exports内容

[root@server7 etc]# cat /etc/exports

/home/share  19216880/24(rw,no_root_squash)

/home/zhidata  19216887(rw)

/home/upload   19216880/24(rw,all_squash,anonuid=222,anongid=222)

/home/nfs     19216880/24(ro)  (ro,all_squash)

2、按要求建立每个对应目录

    21、创建/home/share目录 任何人都可以在 /home/share内新增、修改文件,但

    仅有该文件/目录的建立者与root能够删除自己的目录或文件。
    [root@server7 etc]# mkdir -p  /home/share

    [root@server7 etc]# ll -d /home/share/

    drwxr-xr-x 2 root root 6 9月   5 15:50 /home/share/

    [root@server7 etc]# chmod 1777  /home/share/

    [root@server7 etc]# ll -d /home/share/

    drwxrwxrwt 2 root root 6 9月   5 15:50 /home/share/
    22、创建/home/nfs
    [root@server7 etc]# ll -d /home/nfs/

    drwxr-xr-x 2 root root 6 9月   5 16:52 /home/nfs/
    23、创建/home/zhidata目录
    [root@server7 etc]# mkdir -v /home/zhidata

    mkdir: 已创建目录 "/home/zhidata"

    [root@server7 etc]# ll -d /home/zhidata/

    drwxr-xr-x 2 root root 6 9月   5 16:57 /home/zhidata/

    [root@server7 etc]# useradd zhi

    root@server7 etc]# passwd zhi

    更改用户 zhi 的密码 。

    新的 密码:

    无效的密码: 密码少于 8 个字符

    重新输入新的 密码:

    passwd:所有的身份验证令牌已经成功更新。

    [root@server7 etc]# cat /etc/passwd | grep zhi

    zhi:x:1000:1000:zhi:/home/zhi:/bin/bash

    [root@server7 etc]# chmod 700 /home/zhidata/

    [root@server7 etc]# chown -R zhi:zhi /home/zhidata/

    [root@server7 etc]# ll -d /home/zhidata/

    drwx------ 2 zhi zhi 6 9月   5 16:57 /home/zhidata/
    24、创建/home/upload目录

#先建立对应账号与组名及UID

[root@server7 etc]# groupadd  -g 222 nfs-upload

[root@server7 etc]# useradd -g 222 -u 222 -M nfs-upload

[root@server7 etc]# cat /etc/passwd|grep nfs

rpcuser:x:29:29:RPC Service User:/var/lib/nfs:/sbin/nologin

nfsnobody:x:65534:65534:Anonymous NFS User:/var/lib/nfs:/sbin/nologin

nfs-upload:x:222:222::/home/nfs-upload:/bin/bash

#创建目录,修改属主

[root@server7 etc]# mkdir /home/upload

[root@server7 etc]# chown -R nfs-upload:nfs-upload  /home/upload/

[root@server7 etc]# ll -d /home/upload/

drwxr-xr-x 2 nfs-upload nfs-upload 6 9月   6 08:38 /home/upload/

25、重启NFS服务

[root@server7 etc]# systemctl restart  nfs

[root@server7 etc]# systemctl status  nfs

● nfs-serverservice - NFS server and services

   Loaded: loaded (/usr/lib/systemd/system/nfs-serverservice; enabled; vendor preset: disabled)

   Active: active (exited) since 三 2017-09-06 08:41:40 CST; 8s ago

  Process: 9171 ExecStopPost=/usr/sbin/exportfs -f (code=exited, status=0/SUCCESS)

  Process: 9169 ExecStopPost=/usr/sbin/exportfs -au (code=exited, status=0/SUCCESS)

  Process: 9168 ExecStop=/usr/sbin/rpcnfsd 0 (code=exited, status=0/SUCCESS)

  Process: 9181 ExecStart=/usr/sbin/rpcnfsd $RPCNFSDARGS (code=exited, status=0/SUCCESS)

  Process: 9180 ExecStartPre=/usr/sbin/exportfs -r (code=exited, status=0/SUCCESS)

 Main PID: 9181 (code=exited, status=0/SUCCESS)

   CGroup: /systemslice/nfs-serverservice

9月 06 08:41:40 server7ctoszu systemd[1]: Starting NFS server and services

9月 06 08:41:40 server7ctoszu systemd[1]: Started NFS server and services

[root@server7 etc]# tail /var/log/messages

Sep  6 08:41:40 server7 systemd: Started NFS Mount Daemon

Sep  6 08:41:40 server7 rpcmountd[9178]: Version 130 starting

Sep  6 08:41:40 server7 systemd: Started NFSv4 ID-name mapping service

Sep  6 08:41:40 server7 systemd: Starting NFS server and services

Sep  6 08:41:40 server7 kernel: NFSD: starting 90-second grace period (net c0c932c0)

Sep  6 08:41:40 server7 systemd: Started NFS server and services

Sep  6 08:41:40 server7 systemd: Starting Notify NFS peers of a restart

Sep  6 08:41:40 server7 sm-notify[9198]: Version 130 starting

Sep  6 08:41:40 server7 sm-notify[9198]: Already notifying clients; Exiting!

Sep  6 08:41:40 server7 systemd: Started Notify NFS peers of a restart

26、查看NFS服务器共享出来目录

27、关闭防火墙、selinux

28查看配置

[root@server7 ~]# exportfs -v

/home/zhidata     19216887(rw,wdelay,root_squash,no_subtree_check,sec=sys,rw,secure,root_squash,no_all_squash)

/home/share       19216880/24(rw,wdelay,no_root_squash,no_subtree_check,sec=sys,rw,secure,no_root_squash,no_all_squash)

/home/upload      19216880/24(rw,wdelay,root_squash,all_squash,no_subtree_check,anonuid=222,anongid=222,sec=sys,rw,secure,root_squash,all_squash)

/home/nfs         19216880/24(ro,wdelay,root_squash,no_subtree_check,sec=sys,ro,secure,root_squash,no_all_squash)

/home/nfs         <world>(ro,wdelay,root_squash,all_squash,no_subtree_check,sec=sys,ro,secure,root_squash,all_squash)

四、客户端配置

41、客户端也要安装nfs-utils和rcpbind软件包

[root@client-A ~]# yum install nfs-utils rpcbind -y

42、启动RPC

[root@client-A ~]# service rpcbind start  /systemctl start rpcbind

Starting rpcbind:                                          [  OK  ]

[root@client-A ~]# service rpcbind status

rpcbind (pid  1926) is running

[root@client-A ~]# chkconfig --list |grep rpcbind

43、客户端关闭防火墙、selinux

[root@client-A ~]# service iptables stop /systemctl stop firewalld

iptables: Setting chains to policy ACCEPT: filter          [  OK  ]

iptables: Flushing firewall rules:                         [  OK  ]

iptables: Unloading modules:                               [  OK  ]

44 测试网络

[root@client-A ~]# ping 19216885

PING 19216885 (19216885) 56(84) bytes of data

64 bytes from 19216885: icmp_seq=1 ttl=64 time=216 ms

64 bytes from 19216885: icmp_seq=2 ttl=64 time=0697 ms

64 bytes from 19216885: icmp_seq=3 ttl=64 time=0346 ms

64 bytes from 19216885: icmp_seq=4 ttl=64 time=0336 ms

64 bytes from 19216885: icmp_seq=5 ttl=64 time=0335 ms

64 bytes from 19216885: icmp_seq=6 ttl=64 time=0317 ms

64 bytes from 19216885: icmp_seq=7 ttl=64 time=0512 ms

64 bytes from 19216885: icmp_seq=8 ttl=64 time=0320 ms

^C

--- 19216885 ping statistics ---

8 packets transmitted, 8 received, 0% packet loss, time 7555ms

rtt min/avg/max/mdev = 0317/0629/2169/0595 ms

45 在客户端查看NFS服务器共享出来目录

[root@client-A ~]# showmount -e 19216885

Export list for 19216885:

/home/nfs     (everyone)

/home/upload  19216880/24

/home/share   19216880/24

/home/zhidata 19216887

46、挂载NFS服务器上/home/nfs目录到本地/opt/data目录下

#临时挂载

#永久挂载

编辑、/etc/fstab文件,新增如下条目:

19216885:/home/nfs  /opt/data/ nfs4 defaults 0 0

更多信息参考 nfs参数详解
#查看信息

[root@client-A data] # df -h

Filesystem            Size  Used Avail Use% Mounted on

/dev/mapper/VolGroup-lv_root

                      65G  644M  56G  11% /

tmpfs                 250M     0  250M   0% /dev/shm

/dev/sda1             477M   26M  426M   6% /boot

19216885:/home/nfs

                      80G  16G  65G  20% /opt/data

[root@client-A data]# mount

/dev/mapper/VolGroup-lv_root on / type ext4 (rw)

proc on /proc type proc (rw)

sysfs on /sys type sysfs (rw)

devpts on /dev/pts type devpts (rw,gid=5,mode=620)

tmpfs on /dev/shm type tmpfs (rw)

/dev/sda1 on /boot type ext4 (rw)

none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)

sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

nfsd on /proc/fs/nfsd type nfsd (rw)

19216885:/home/nfs on /opt/data type nfs (rw,vers=4,addr=19216885,clientaddr=19216887)

#创建文件测试

[root@client-A data]# touch testabc

touch: cannot touch `testabc': Read-only file system

47挂载/home/upload 目录到客户端/opt/upload目录下

#挂载

[root@client-A data]# mkdir /opt/upload

[root@client-A data]# mount -t nfs  19216885:/home/upload   /opt/upload/

#查看挂载是否成功

[root@client-A data]# df -h

Filesystem            Size  Used Avail Use% Mounted on

/dev/mapper/VolGroup-lv_root

                      65G  644M  56G  11% /

tmpfs                 250M     0  250M   0% /dev/shm

/dev/sda1             477M   26M  426M   6% /boot

19216885:/home/nfs

                      80G  16G  65G  20% /opt/data

19216885:/home/upload

                      80G  16G  65G  20% /opt/upload
#客户端创建nfs-upload用户

[root@client-A ~]# groupadd  -g 222 nfs-upload

[root@client-A ~]# useradd -g 222 -u 222 -m nfs-upload
#测试,可以看到创建的文件及目录默认属主为nfs-upload属组为nfs-upload

[zhi@client-A upload]$ pwd

/opt/upload

[zhi@client-A upload]$ ll

total 0

#测试创建文件

[zhi@client-A upload]$ touch test123

测试创建目录

[zhi@client-A upload]$ mkdir  testdir

[zhi@client-A upload]$ ll -a

total 4

drwxr-xr-x  3 nfs-upload nfs-upload   36 Sep  6 10:28

drwxr-xr-x 4 root       root       4096 Sep  6 18:22

-rw-rw-r--  1 nfs-upload nfs-upload    0 Sep  6 10:28 test123

drwxrwxr-x  2 nfs-upload nfs-upload    6 Sep  6 10:28 testdir

# 在客户端用root用户创建文件测试

root@client-A upload]# touch testabc

[root@client-A upload]# ll

total 0

-rw-r--r-- 1 root       root       0 Sep  6 10:31 nfstest123

-rw-r--r-- 1 nfs-upload nfs-upload 0 Sep  6 10:32 testabc

drwxrwxr-x 2 nfs-upload nfs-upload 6 Sep  6 10:28 testdir

可以看到用root用户创建的文件属主仍是nfs-upload

#测试删除文件

[zhi@client-A upload]$ rm test123

[zhi@client-A upload]$ ll

total 0

drwxrwxr-x 2 nfs-upload nfs-upload 6 Sep  6 10:28 testdir

12并行技术
这是一个非常简单的建造四节点的小集群系统的例子,它是构建在Linux *** 作系统上,通过MPICH软件包实现的,希望这个小例子能让大家对集群系统的构建有一个最基本的了解。
2使用MPICH构建一个四节点的集群系统
这是一个非常简单的建造四节点的小集群系统的例子,它是构建在Linux *** 作系统上,通过MPICH软件包实现的,希望这个小例子能让大家对集群系统的构建有一个最基本的了解。
21 所需设备
1)4台采用Pentium II处理器的PC机,每台配
置64M内存,2GB以上的硬盘,和EIDE接口的光盘驱动器。
2)5块100M快速以太网卡,如SMC 9332 EtherPower 10/100(其中四块卡用于连接集群中的结点,另外一块用于将集群中的其中的一个节点与其它网络连接。)
3)5根足够连接集群系统中每个节点的,使用5类非屏蔽双绞线制作的RJ45缆线
4)1个快速以太网(100BASE-Tx)的集线器或交换机
5)1张Linux安装盘
22 构建说明
对计算机硬件不熟的人,实施以下这些构建步骤会感到吃力。如果是这样,请找一些有经验的专业人士寻求帮助。
1 准备好要使用的采用Pentium II处理器的PC机。确信所有的PC机都还没有接上电源,打开PC机的机箱,在准备与网络上的其它设备连接的PC机上安装上两块快速以太网卡,在其它的 PC机上安装上一块快速以太网卡。当然别忘了要加上附加的内存。确定完成后盖上机箱,接上电源。
2 使用4根RJ45线缆将四台PC机连到快速以太网的集线器或交换机上。使用剩下的1根RJ45线将额外的以太网卡(用于与其它网络相连的那块,这样机构就可以用上集群)连接到机构的局域网上(假定你的机构局域网也是快速以太网),然后打开电源。
3 使用LINUX安装盘在每一台PC机上安装。请确信在LINUX系统中安装了C编译器和C的LIB库。当你配置TCP/IP时,建议你为四台PC分别指定为19216811、19216812、19216813、19216814。第一台PC为你的服务器节点(拥有两块网卡的那台)。在这个服务器节点上的那块与机构局域网相连的网卡,你应该为其指定一个与机构局域网吻合的IP地址。
4当所有PC都装好Linux系统后,编辑每台机器的/etc/hosts文件,让其包含以下几行:
19216811 node1 server
19216812 node2
19216813 node3
19216814 node4
编辑每台机器的/etc/hostsequiv文件,使其包含以下几行:
node1
node2
node3
node4
$p#
以下的这些配置是为了让其能使用MPICH’s p4策略去执行分布式的并行处理应用。
1 在服务器节点
,建一个/mirror目录,并将其配置成为NFS服务器,并在/etc/exports文件中增加一行:
/mirror node1(rw) node2(rw) node3(rw) node4(rw)
2 在其他节点上,也建一个/mirror目录,关在/etc/fstab文件中增加一行:
server:/mirror /mirror nfs rw,bg,soft 0 0
3 /mirror这个目录从服务器上输出,装载在各个客户端,以便在各个节点间进行软件任务的分发。
4 在服务器节点上,安装MPICH。MPICH的文档可在
5任何一个集群用户(你必须在每一个节点新建一个相同的用户),必须在/mirror目录下建一个属于它的子目录,如 /mirror/username,用来存放MPI程序和共享数据文件。这种情况,用户仅仅需要在服务器节点上编译MPI程序,然后将编译后的程序拷贝到在/mirror目录下属于它的的子目录中,然后从他在/mirror目录下属于它的的子目录下使用p4 MPI策略运行MPI程序。
23 MPICH安装指南
1如果你有gunzip,就d下载mpichtargz,要不然就下载mpichtarZ。你可以到>一 上架条件
主要是上架,确定加电条件,详情如下:
二 加电启动
三 BIOS设置
1 进入BIOS
加电启动服务器,系统开始引导,当屏幕下方出现提示:
“Press to SETUP or to POST”时,按下DEL键
2 BIOS菜单介绍
3 BIOS中设置
1)在Main 菜单中修改时间
2)在Advanced 菜单
● CPU Configuration
Hyper-threading:CPU 超线程功能设置Enabled
Intel(R) Virtualization Technology:CPU 虚拟技术支持功能设置Enabled
● USB Configuration
Legacy USB Support:对USB 设备支持功能的设置Enabled
3)Chipset 菜单
USB Configuration:本项用来打开或关闭各USB 接口Enabled
4)Boot 菜单
Boot Option #1/#2
选中某引导顺序项,按回车键后d出可选引导设备表,通过箭头键选中某一设备后按
回车键即可完成此引导次序项的设置。
Boot Devices Seeking:打开系统启动过程中重新尝试寻找启动设备Enabled
5)Save & Exit 菜单
Save Changes and Exit:保存退出
四 RAID卡设置
要进行阵列卡设置,在服务器开启 \o "电源" 电源后,等待设备自检,当出现如下界面时,按进入到LSI阵列卡的图形界面。
▲设备自检界面
在该界面下用 \o "鼠标" 鼠标点选Start按键,进入到阵列卡的WEBBIOS界面。
▲阵列卡选择界面
在此界面的左侧是该阵列卡的功能选项,右侧窗口是已经配置好的所有逻辑驱动器。
▲阵列卡功能界面
如果要对该阵列卡有详细了解,可以点选左侧功能栏中的Controller Properties,该阵列卡的相关属性会一一呈现。
▲阵列卡属性显示页一
按NEXT按键后,会显示第二页。
▲阵列卡属性显示页二
按NEXT按键后,会显示第三页。
▲阵列卡属性显示页三
当然第二及第三页的选项是允许用户设置的,通常选择默认值就可以。
如果想要了解该阵列卡上已经配好的逻辑驱动器,可以点选左侧功能栏中的Virtual Drivers,该阵列卡已经建好的逻辑驱动器的相关信息就会呈现出来。
▲逻辑驱动器界面
如果想要了解该阵列卡上连接的物理磁盘,可以点选左侧功能栏中的 Drives。
▲物理磁盘信息
接下来我们看该如何进行RAID的设置,点选阵列卡主界面左侧功能栏中的Configuration Wizard按键,进入到阵列卡配置选择界面。
▲配置选择项
我们选择New configuration来新建一个阵列,此时会有以下提示,我们选择Yes。
▲提示信息
此时会有两种不同的方式可供用户选择,一种是手动设置,另一种是自动设置。我们先来看手动进行阵列设置是如何 *** 作的,选择Manual configuration,至于冗余项,选择Redundancy when possible,并点选Next,进入下一页。
▲选择手动配置
在该界面下,左侧窗口中显示的是可以利用的物理磁盘,右侧是将要用来进行阵列设备的磁盘组。这里需要用户在左侧窗口选择好磁盘后,按Add To Array按键逐一添加到界面右侧的磁盘组中。
▲磁盘选择页
磁盘选好后,按右侧下方的Accept DG按键。
▲磁盘选择页2
此时一个磁盘组就建好了,选择Next,进入下一页。
▲磁盘组建成后的显示
接下来可以看到阵列可以利用的磁盘空间信息,按Add to SPAN按键,将这些磁盘空间整合为一个逻辑的存储设备。然后按Next进入下一页。
▲将磁盘空间整合逻辑存储单元
接下来用户就可以选择要建立的RAID级别,以及一些读写中缓存的使用策略。在这里,Strip Size通常会选择64KB,Access Policy选择RW,我们在以前的文章中也介绍过这部分设置会对存储系统的性能带来影响(详情见 /a2011/0221/1158/000001158954shtml),因此设置时要考虑清楚。

1、选取1921686510作为主服务器,1921686511作为从服务器

2、主机安装rpcbind、nfs服务

yum install nfs-utils rpcbind

3、主机编写配置文件

vim /etc/exports

/data/nginx 192168650/24(rw,sync,fsid=0)

#同192168650/24一个网络号的主机可以挂载NFS服务器上的/home/nfs/目录到自己的文件系统中,rw表示可读写;sync表示同步写,fsid=0表示将/data找个目录包装成根目录

4、先为rpcbind和nfs做开机启动:(必须先启动rpcbind服务)

systemctl start rpcbindservice

systemctl start nfs-serverservice

systemctl enable rpcbindservice//开机启动

systemctl enable nfs-serverservice//开机启动

5、rpcinfo -p #检查 NFS 服务器是否挂载我们想共享的目录

6、exportfs -r #使配置生效

7、exportfs#查看共享目录

8、丛机安装主机安装nfs

9、启动rpcbind

systemctl start rpcbindservice#不需要启动nfs

10、showmount -e 1921686510 #检查 NFS 服务器端是否有目录共享:showmount -e nfs服务器的IP

11、mount -t nfs 1921686510:/data/nginx /data/nginx#挂载目录到共享服务器

12、df -h #查看是否挂载成功

如果你要修改一个文件,就需要写权限(比如没写权限,就无法在某目录中添加文件)
如果你要运行一个脚本,就需要执行权限(所以一般脚本完成后,要运行前都会输入一条chmod +x sh,就是为sh这个脚本加执行权限)
如果你要查看一个文件,就需要读权限
在FTP中的目录,只能说下载用到了读的权限,上传用到了写的权限
FTP中如果目录是写权限,且没特别设置,可以删除目录下文件


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zz/13424043.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-08-02
下一篇 2023-08-02

发表评论

登录后才能评论

评论列表(0条)

保存