Oracle 11gR2 RAC + ASM + Grid安装

Oracle 11gR2 RAC + ASM + Grid安装,第1张

概述(一)环境准备 主机 *** 作系统 windows10 虚拟机平台 vmware workstation 12 虚拟机 *** 作系统 redhat 5.5 x86(32位) :Linux.5.5.for.x86.

(一)环境准备

主机 *** 作系统windows10
虚拟机平台vmware workstation 12
虚拟机 *** 作系统redhat 5.5 x86(32位) :linux.5.5.for.x86.rhel-server-5.5-i386-dvd.iso
grID版本linux_11gR2_grID.zip (32位)
oracle版本linux_11gR2_database_1of2 和  linux_11gR2_database_2of2(32位)
共享存储ASM

 

(二) *** 作系统安装

(2.1) *** 作系统安装

*** 作系统安装相对而言较简单,不做详述。系统的配置信息大致如下,后面还会根据需要添加和删除设备

 

(2.2)安装VM Tools

为了方便在主机与虚拟机之间进行文件拖拽、复制粘贴、使用共享文件夹等功能,我们需要安装VM Tools,VM Tools的安装包已经集合在了vmware workstation里面了。下面一步一步安装VM Tools。

step 1:虚拟机-> 安装Vmware Tools

step 2: mount查看是否装载 VMware Tools 虚拟 CD-ROM 映像,如果有红色部分,说明已经将VM tools安装包mount在了/media目录下

step 3:转到安装目录/tmp,解压VM tools安装包

step 4:开始安装VM Tools

[root@Redhat tmp]# cd vmware-tools-distrib[root@Redhat vmware-tools-distrib]#./vmware-install.pl

遇到选项,直接回车即可。

step 5:安装结束,重启虚拟机

[root@rac1 ~]# reboot

step6:测试VM Tools安装是否成功

从主机拖到一个文档到虚拟机,如果拖动成功,说明VM Tools已经安装成功

 

(三) *** 作系统配置

(3.1)网络配置

(3.1.1)主机名配置

①节点1:

[root@rac1 ~]# vim /etc/sysconfig/network
 
NETWORKING=yesNETWORKING_IPV6=noHOSTname=rac1

②节点2:

[root@rac2 ~]# vim /etc/sysconfig/networkNETWORKING=noHOSTname=rac2

 

(3.1.2)IP配置

为了使用静态IP配置数据库,我又为每台虚拟机新增加了一块网卡,将其配置成only-host模式,新增网卡方式如下:

step1:添加网络

点击vmware的“编辑”-> “虚拟网络编辑器”-> “更改设置”-> “添加网络”,按下图选择,保存

step2:在两台虚拟机上添加网卡

选择虚拟机,“设置”->“添加”->“网络适配器”,选择“自定义”,这个自定义是我们上一步定义的网络,结果如下:

step3:根据网络设置,我们规划IP地址如下:

接下来就是配置IP地址了,对于节点1(主机名:rac1),我们:

①配置eth1

--或删除BOOTPROTO

--不要修改硬件地址

--设置网卡为开机启动

--增加IP和MASK

[root@rac1 ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth1
#修改下面红色部分
 
# Advanced Micro Devices [AMD] 79c970 [PCnet32 LANCE]DEVICE=eth1# BOOTPROTO
=
dhcpHWADDR=00:0C:29:9C:DF:6AONBOOT
=yes IPADDR=192.168.19.10
NETMASK
=255.255.255.0

②配置eth2

[root@rac1 ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth2# 修改红色部分# Advanced Micro Devices [AMD] 79c970 [PCnet32 LANCE]DEVICE=eth2dhcpyesHWADDR
29
:6G:8C:5F
IPADDR
192.168.
15.10255.0

对于节点2(主机名:rac2),我们参照节点1即可:

①配置eth1

[root@rac2 ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth1# Advanced Micro Devices [AMD] 79c970 [PCnet32 LANCE]DEVICE=dhcp ONBOOT=
yesHWADDR=00:0c::b0:4e:b6IPADDR
=
192.168
.
19.11255.255.
255.0

②配置eth2

eth2# Advanced Micro Devices [AMD] 79c970 [PCnet32 LANCE]DEVICE=:b0:4e:c015.11255.0

 

(3.1.3)hosts文件配置

在2个节点上配置hosts文件,以节点1为例

[root@rac1 ~]# vim /etc/hosts# 在文件的最后面加上#eth1 public192.168.19.10 rac119.11 rac2#virtual19.12 rac1-vip19.13 rac2-vip#eth2 private15.10 rac1-priv15.11 rac2-priv#scan19.14 rac-scan

配置完成后,重启网卡

[root@rac1 ~]# service network restart

重启网卡时,遇到了一个小错误,提示:

Device eth2 has different MAC address than expected,ignoring.
[Failed]

看了其他人的文章,发现是网卡配置文件里面的MAC地址与实际虚拟机的MAC地址不一样,解决办法如下:

step1:查看本机实际MAC地址(红色部分)

[root@rac1 ~]# ifconfig eth2eth2      link encap:Ethernet  HWaddr 00:0C:29:9C:DF:7E            inet addr:15.10  Bcast:15.255  Mask:255.255.255.0          inet6 addr: fe80::20c:29ff:fe9c:df7e/64 Scope:link          UP broADCAST RUNNING MulTICAST  MTU:1500  Metric:1          RX packets:30677 errors:0 dropped:0 overruns:0 frame:0          TX packets:26377 errors:0 carrIEr:          collisions:0 txqueuelen:1000           RX bytes:15839769 (15.1 MiB)  TX bytes:10819637 (10.3 MiB)          Interrupt:83 Base address:0x2824

step2:查看我们配置的MAC地址

[root@rac1 ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth2# 修改红色部分# Advanced Micro Devices [AMD] 79c970 [PCnet32 LANCE]DEVICE=eth2# BOOTPROTO=dhcpONBOOT=yesHWADDR:6G:8C:5FIPADDR=15.10NETMASK=255.0

发现我们配置的MAC地址与实际的MAC地址不一样,修改网卡step2里面的MAC地址,重启网卡。

 

(3.1.4)测试网络

测试主机与虚拟机、虚拟机与虚拟机之间通讯是否正常

①在主机上执行

Ping 15.1015.1119.1019.11

②在节点1上执行,其中192.168.15.1与192.168.19.1均为主机ip

15.119.119.11

③在节点2执行

19.10

如果都能够Ping通,说明网络配置正确。

 

(3.2)共享存储配置

(3.2.1)存储规划

磁盘功能个数每个大小(GB)
OCR31
DATA310
ARCHIVE110

(3.2.1)创建共享存储

step1:以管理员方式打开DOS窗口,到vmware workstation安装目录下,执行以下命令创建共享磁盘:

vmware-vdiskmanager.exe -c -s 1000MB -a lsilogic -t 2 "F:\vmwareVirtueMachine\RAC\Sharedisk\votingdisk1.vmdk"vmware-vdiskmanager.exe -c -s 1000Mb -a lsilogic -t F:\vmwareVirtueMachine\RAC\Sharedisk\votingdisk2.vmdkF:\vmwareVirtueMachine\RAC\Sharedisk\votingdisk3.vmdkvmware-vdiskmanager.exe -c -s 10000Mb -a lsilogic -t F:\vmwareVirtueMachine\RAC\Sharedisk\datadisk1.vmdkF:\vmwareVirtueMachine\RAC\Sharedisk\datadisk2.vmdkF:\vmwareVirtueMachine\RAC\Sharedisk\datadisk3.vmdkF:\vmwareVirtueMachine\RAC\Sharedisk\archdisk1.vmdk"

(3)修改2个虚拟机的vmx配置文件,在虚拟机的安装目录下的.vmx文件最后加上以下信息:

scsi1.present = TRUEscsi1.virtualDev = lsilogicscsi1.sharedBus = virtualscsi1:1.present = scsi1:1.mode = independent-persistent1.filename = 1.deviceType = plaindisk2.present = 2.mode = 2.filename = 2.deviceType =  scsi1:3.present = 3.mode = 3.filename = 3.deviceType = 4.present = 4.mode = 4.filename = 4.deviceType = 5.present = 5.mode = 5.filename = 5.deviceType = 6.present = 6.mode = 6.filename = 6.deviceType = 7.present = 7.mode = 7.filename = 7.deviceType = disk.locking = falsedisklib.dataCacheMaxSize = 0disklib.dataCacheMaxReadAheadSize = disklib.DataCacheMinReadAheadSize = disklib.dataCachePageSize = 4096disklib.maxUnsynceDWrites = "

重启虚拟机,2个节点都重启

[root@rac1 ~]# reboot

最终我们看到的虚拟机的硬件配置大致是这样的

 

(四)Oracle & GrID预配置

(4.1)创建用户

在2个节点上创建用户及安装目录:

/usr/sbin/groupadd -g  oinstall/usr/sbin/groupadd -g 1020 asmadmin/usr/sbin/groupadd -g 1021 asmdba/usr/sbin/groupadd -g 1022 asmoper/usr/sbin/groupadd -g 1031 dba/usr/sbin/groupadd -g 1032 operuseradd -u 1100 -g oinstall -G asmadmin,asmdba,asmoper,oper,dba grIDuseradd -u 1101 -g oinstall -G dba,oper oraclemkdir -p /u01/app/11.2.0/grIDmkdir -p /u01/app/mkdir /u01/app/oraclechown -R grID:oinstall /u01chown oracle:oinstall /u01/app/chmod -R 775 /u01/

安装目录结构如下:
[root@rac1 u01]# tree
.
`-- app
    |-- 11.2.0
    |   `-- grID
    |-- grID
    `—oracle

 

(4.2)配置环境变量

(4.2.1)配置ORACLE的环境变量,ORACLE_SID需根据主机来填写

[oracle@rac1 ~]$ cd
[oracle@rac1 ~]$ vi .bash_profile

#添加下面的部分
 
export TMP=/tmp export TMPDIR=$TMP export ORACLE_SID=rac1     
# 如果是节点2,则: export ORACLE_SID=
rac2 export ORACLE_BASE=/u01/app/oracle export ORACLE_HOME=$ORACLE_BASE/product/db_1export TNS_admin=$ORACLE_HOME/network/admin export PATH=/usr/sbin:$PATH export PATH=$ORACLE_HOME/bin:$PATH export LD_liBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib export CLAsspATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib umask 022

(4.2.1)配置GRID的环境变量,ORACLE_SID需根据主机来填写

[grID@rac1 ~]$ cd [grID@rac1 ~]$ vi .bash_profile # 添加下面的部分export TMP=/$TMP export ORACLE_SID=+asm1  # 如果是节点2,则:export ORACLE_SID=+asm2 
export ORACLE_BASE=/u01/app/grIDexport ORACLE_HOME=/u01/app/grIDexport PATH=/usr/022

 

(4.3)配置节点互信

(4.3.1)配置oracle用户的节点互信

step1:2个节点执行

su - oraclemkdir ~/.sshchmod 755 .ssh /usr/bin/ssh-keygen -t rsa/usr/bin/ssh-keygen -t dsa

step2:将所有的key文件汇总到一个总的认证文件中,在节点1上执行

su – oracle
 
ssh rac1 cat ~/.ssh/ID_rsa.pub >> authorized_keysssh rac2 ssh/ID_dsa.pub >>ssh/ID_dsa.pub >> authorized_keys

step3:节点1上存在一份完整的key,拷贝到节点2

[oracle@rac1 ~]$ cd ~/.ssh/[oracle@rac1 .ssh]$ scp authorized_keys rac2:~/.ssh/[oracle@rac2 .ssh]600 authorized_keys

step4:在2个节点都执行一下命令

datessh rac1-priv ssh rac2-priv date

step5:检验是否配置成功,在节点1上不用输入密码就可以通过ssh连接节点2,说明配置成功

[oracle@rac1 ~]$ ssh rac2[oracle@rac2 ~]$ IDuID=1101(oracle) gID=1000(oinstall) groups=1000(oinstall),1021(asmdba),1)">1031(dba),1)">(oper)[oracle@rac2 ~]$ hostnamerac2

(4.3.2)配置grID用户的节点互信

与Oracle用户执行方式相同,只是执行脚本的用户变成了grID。

 

(4.4)配置系统内核参数

(4.4.1)内核参数设置

[root@rac1 ~]# vi /etc/sysctl.conf # 在末尾添加
 
kernel.msgmnb = 65536 kernel.msgmax =  kernel.shmmax = 68719476736 kernel.shmall = 4294967296 fs.aio-max-nr = 1048576 fs.file-max = 68157442097152 kernel.shmmax = 2002012160 kernel.shmmni = 4096 kernel.sem = 250 32000 100 128 net.ipv4.ip_local_port_range = 9000 65500 net.core.rmem_default = 262144 net.core.rmem_max = 4194304 net.core.wmem_default =  net.core.wmem_max = 1048586 net.ipv4.tcp_wmem = 262144  net.ipv4.tcp_rmem = 4194304 4194304

参数说明:

kernel.shmmni:整个系统共享内存段的最大数目

fs.file-max:系统中所允许的文件句柄最大数目

net.core.rmem_default:套接字接收缓冲区大小的缺省值

net.core.rmem_max:套接字接收缓冲区大小的最大值

net.core.wmem_default:套接字发送缓冲区大小的缺省值

net.core.wmem_max:套接字发送缓冲区大小的最大值

net.ipv4.ip_local_port_range:应用程序可使用的IPv4端口范围

 

使得修改内核参数生效

[root@rac1 ~]# sysctl -p

(4.4.2)配置oracle、grID用户的shell限制

vi /etc/security/limits.conf # 在末尾添加
 
grID soft nproc 2047 grID hard nproc 16384 grID soft nofile 1024 grID hard nofile  oracle soft nproc  oracle hard nproc  oracle soft nofile  oracle hard nofile 65536

 

(4.5)配置共享存储

step1:查看磁盘

[root@rac1 ~]# fdisk -l

通过该命令,可看到我们后面添加上去的磁盘信息,磁盘从sdb到sdh

step2:分区、格式化磁盘。由于是共享磁盘,所以只需要在一个节点上执行即可

# 在节点1上格式化,以/dev/sdb为例:
[root@rac1 ~]# fdisk /dev/sdbThe number of cylinders for this disk is set to 3824.There is nothing wrong with that,but this is larger than ,and Could in certain setups cause problems with:1) software that runs at boot time (e.g.,old versions of liLO)2) booting and partitioning software from other OSs   (e.g.,DOS FdisK,OS/ FdisK)Command (m for help): nCommand action   e   extended   p   primary partition (1-4)pPartition number (4): First cylinder (3824,default ): Using default value Last cylinder or +size or +sizeM or +sizeK (3824): Command (m for help): wThe partition table has been altered!Calling ioctl() to re-read partition table.Syncing disks.

step3:在2个节点上添加裸设备,2个节点都要执行

[root@rac2 ~]# vi /etc/udev/rules.d/60-raw.rules # 在后面添加ACTION==add",KERNEL==sdb1/bin/raw /dev/raw/raw1 %NACTION==sdc1/bin/raw /dev/raw/raw2 %Nsdd1/bin/raw /dev/raw/raw3 %Nsde1/bin/raw /dev/raw/raw4 %Nsdf1/bin/raw /dev/raw/raw5 %Nsdg1/bin/raw /dev/raw/raw6 %Nsdh1/bin/raw /dev/raw/raw7 %NKERNEL==raw[1]0660grIDasmadminKERNEL==raw[2]raw[3]raw[4]raw[5]raw[6]raw[7]"

启动裸设备,2个节点都执行

[root@rac2 ~]# start_udev

查看裸设备,2个节点都要查看

[root@rac1 ~]# raw -qa/dev/raw/raw1:    bound to major 8,minor 17/dev/raw/raw2:    bound to major 33/dev/raw/raw3:    bound to major 49/dev/raw/raw4:    bound to major 65/dev/raw/raw5:    bound to major 81/dev/raw/raw6:    bound to major 97/dev/raw/raw7:    bound to major 113

 

(4.6)安装依赖软件包

(4.6.1)配置共享文件夹(2个节点都要配置)

step1:关闭虚拟机

step2: 设置”->“选项”->“共享文件夹”->“总是启用”->“添加 ”。然后添加 *** 作系统安装包,为了方便,我们将grID、oracle安装包也添加进去。

step3:查看结果

[root@rac1 ~]# cd /mnt/hgfs/soft/[root@rac1 soft]# lsdatabase  linux_11gR2_database_1of2.zip  linux.5.5.for.x86.rhel-server-5.5-i386-dvd.isogrID      linux_11gR2_database_2of2.zip

(4.6.2)配置yum源

step 1:创建ISO文件的挂载目录并挂载

[root@rac1 /]# mkdir /yum
[root@rac1 /]# cd /mnt/hgfs/soft/
[root@rac1 soft]# mount -o loop linux.5.5.for.x86.rhel-server-5.5-i386-dvd.iso /yum

step2:找到rpm包

[root@rac1 Server]# cd /yum/Server/[root@rac1 Server]# ll...-r--r--r-- 433 root root   102853 Jan 19  2007 zlib-devel-1.2.3-3.i386.rpm-r--r--r-- 368 root root  1787914 May  6  2009 zsh-4.2.6-.el5.i386.rpm-r--r--r-- 368 root root   369147 May  2009 zsh-HTML-.el5.i386.rpm[root@rac1 Server]# ll |wc -l2351

step 3:配置linux OS介质为yum源

[root@rac1 ~]# cd /etc/yum.repos.d/[root@rac1 yum.repos.d]# rhel-source.repo[root@RedHat rm -rf redhat.repo [root@RedHat vi lijiaman.repo# 在新的yum源里面添加红色部分[dvdinfo]name=my_yumbaseurl=file:///yum/Serverenabled=gpgcheck=0

step4:收集安装包的信息

[root@rac1 yum makecache

step5:为方便重启虚拟机之后依然可以使用yum,在rc.local里面添加:

yum.repos.d]# vim /etc/rc.local#添加红色部分mount -o loop linux.5.5-i386-dvd.iso /yum

(4.6.3)安装依赖包

不同的 *** 作系统安装不同的包,具体可看官方教程:

http://docs.oracle.com/cd/E11882_01/install.112/e41961/prelinux.htm#CWLIN

我这里安装的包如下:

yum install -y binutils-*install -y compat-libstdc++-*install -y elfutils-libelf-*install -y elfutils-libelf-devel-static-0.125install -y gcc-4.1.2gcc-c++-install -y glibc-2.5-24install -y glibc-common-2.5install -y glibc-devel-install -y glibc-headers-install -y kernel-headers-2.6.18install -y ksh-20060214install -y libaio-0.3.106install -y libaio-devel-106 install -y libgcc-install -y libgomp-install -y libstdc++-2 install -y libstdc++-devel-make-3.81install -y sysstat-7.0.2

 

(五)安装GrID

(5.1)安装前的检查

step1:解压grID安装包

[root@rac1 soft]# unzip linux_11gR2_grID.zip

step2:安装cvuqdisk包,用于检查RAC环境配置

[root@rac1 soft]# cd grID/[root@rac1 grID]# doc  install  response  rpm  runcluvfy.sh  runInstaller  sshsetup  stage  welcome.HTML[root@rac1 grID]# cd rpm/[root@rac1 rpm]# cvuqdisk-1.0.7-.rpm[root@rac1 rpm]# rpm -ivh cvuqdisk-1.rpm Preparing...                ########################################### [100%]Using default group oinstall to install package   1:cvuqdisk               ########################################### [100%]

step3:检查环境配置,这里需要一项一项的去核对,确保没有不通过的选项,

[root@rac1 rpm]#  grID[grID@rac1 ~]$ cd /mnt/hgfs/soft/grID/[grID@rac1 grID]$   runInstaller  sshsetup  stage  welcome.HTML[grID@rac1 grID]$ ./runcluvfy.sh stage -pre crsinst -n rac1,rac2 -fixup -verbosePerforming pre-checks  cluster services setup Checking node reachability...

这里我的检查中有3项目不合格:

①用户等效性:

Checking user equivalence...

Check: User equivalence for user "grID"
  Node name                             Comment                
  ------------------------------------  ------------------------
  rac2                                  Failed                 
  rac1                                  Failed                 
Result: PRVF-4007 : User equivalence check Failed for user "grID"

解决方法:

安装前面的方法,重新配置grID用户互信。

②补丁包

Check: Package existence for "unixODBC-2.2.11"
  Node name     Available                 required                  Comment  
  ------------  ------------------------  ------------------------  ----------
  rac2          missing                   unixODBC-2.2.11           Failed   
Result: Package existence check Failed for "unixODBC-2.2.11"

Check: Package existence for "unixODBC-devel-2.2.11"
  Node name     Available                 required                  Comment  
  ------------  ------------------------  ------------------------  ----------
  rac2          missing                   unixODBC-devel-2.2.11     Failed   
Result: Package existence check Failed for "unixODBC-devel-2.2.11"

解决方法:

yum install –y unixODBC*

③NTP时钟同步

Starting Clock synchronization checks using Network Time Protocol(NTP)...

NTP Configuration file check started...
The NTP configuration file "/etc/ntp.conf" is available on all nodes
NTP Configuration file check passed

Checking daemon liveness...

Check: liveness for "ntpd"
  Node name                             Running?               
  ------------------------------------  ------------------------
  rac2                                  no                     
  rac1                                  no                     
Result: liveness check Failed for "ntpd"
PRVF-5415 : Check to see if NTP daemon is running Failed
Result: Clock synchronization check using Network Time Protocol(NTP) Failed

解决方法:

在11gr2 版本的Rac 在安装 GI软件时,需要通过2种途径实现节点间时间同步:

1. *** 作系统 NTP 时间同步 

2.Oracle Cluster Time Synchronization Service

在oracle11G R2版本中,oracle自己增加了集群中的时间同步服务,如果 *** 作系统没有配置NTP,就会启用oracle 自带的 Cluster Time Synchronization Service 。

故该错误可以忽略。

(5.2)安装grID

安装主需要在一个节点上进行即可,会自动同步到另一个节点,我们在rac1上执行安装工作

step1:开启安装

[root@rac1 ~]# xhost +xhost:  unable to open display ""[root@rac1 ~]# su - grID[grID@rac1 ~]$ cd /mnt/hgfs/soft/grID/  runInstaller  sshsetup  stage  welcome.HTML[grID@rac1 grID]$ ./runInstaller

step2:图形安装

这一步需要注意SCAN name,我们在/etc/hosts文件里面设置为什么值,这里就填什么值

添加另一个节点

添加节点之后,点击“SSH Connectivity”,填写grID用户的密码,点击“setup”

配置网络,这里至少需要两个网络,根据前面的IP规划表选择即可

选择3块1GB的磁盘,组成一个磁盘组OCR

输入密码,这里有警告信息,看了一下,是密码不够复杂,不符合Oracle的规定,忽略不管

下面的几个图忘记截图了,从网上找了一张图,在Prerequisite Check中,NTP检查失败,忽略

开始进行安装…

安装过程中,会填出如下窗口:

按照其要求,一个节点一个节点的执行,千万不要2个节点一起执行,以我为例:

step1:在虚拟机rac1上打开一个窗口,以root用户登录

执行脚本:

[root@rac1 ~]# /u01/app/oraInventory/orainstRoot. # 待上面脚本执行完成,再执行下面脚本[root@rac1 ~]# /u01/app/0/grID/root.sh

step2:漫长的等待

step3:确认节点1上的脚本执行完成,在虚拟机rac2上打开一个窗口,以root用户登录

执行脚本:

[root@rac2 ~]# /u01/app/oraInventory/orainstRoot. # 待上面脚本执行完成,再执行下面脚本[root@rac2 ~]# /u01/app/step4:漫长的等待

step5:确认节点2的脚本执行完成。点击“OK”;

===================================================

安装到最后,有报错信息出现:

原因:

由于配置了/etc/hosts来解析SCAN,导致未走DNS来进行SCAN的解析,爆出此错误,可以考虑忽略掉
解决办法:
Ping scan ip,如果可以Ping通,忽略,跳过即可。

[grID@rac1 grID]$ Ping rac-scanPing rac-scan (19.14) 56(84) bytes of data.64 bytes from rac-scan (19.14): icmp_seq=1 ttl=64 time=0.021 ms2 ttl=0.026 ms

至此grID安装完成。

(5.3)配置磁盘组

在节点1上执行

[grID@rac1 ~]$ asmca

点击“create”

创建磁盘组DATA

创建磁盘组ARCH

最终结果:

 

(六)安装Oracle

(6.1)安装Oracle软件

解压安装包,调出图形界面

[oracle@rac1 ~]$ cd /mnt/hgfs/soft/[oracle@rac1 soft]$ unzip linux_11gR2_database_1of2.zip [oracle@rac1 soft]$ unzip linux_11gR2_database_2of2.[oracle@rac1 soft]$ cd database/[oracle@rac1 database]$   response  rpm  runInstaller  sshsetup  stage  welcome.HTML[oracle@rac1 database]$ ./runInstall

 

选择第二个,只安装数据库软件

这里节点互信总是出问题,重新手动配置一下就好了,没完全搞明白 -_-

时钟同步问题,忽略

漫长的等待

结束。

 

(6.2)创建数据库

在oracle用户下执行命令

[oracle@rac1 ~]$ dbca

部分截图:

与安装grID一样,执行脚本,一个节点一个节点的执行,先执行完节点1,在执行节点2

结束安装。

 

(6.3)检查安装结果

发现arch和data磁盘组还是有问题,没有自动启动(这个问题比较奇怪,我安装了3次,在个人电脑上安装遇到2次,在服务器上安装则没有这个问题,怀疑是个人电脑I/O不足,在数据库启动时磁盘mount超时了)

[grID@rac1 ~]$ crsctl status res -t--------------------------------------------------------------------------------name           TARGET  STATE        SERVER                   STATE_DETAILS       --------------------------------------------------------------------------------Local Resources--------------------------------------------------------------------------------ora.ARCH.dg               OFFliNE OFFliNE      rac1                                                        ONliNE  ONliNE       rac2                                         ora.DATA.dg               OFFliNE OFFliNE      rac1                                                        OFFliNE OFFliNE      rac2                                         ora.ListENER.lsnr               ONliNE  ONliNE       rac1                                                        ONliNE  ONliNE       rac2                                         ora.OCR.dg               ONliNE  ONliNE       rac1                                                        ONliNE  ONliNE       rac2                                         ora.asm               ONliNE  ONliNE       rac1                     Started                            ONliNE  ONliNE       rac2                     Started             ora.eons               ONliNE  ONliNE       rac1                                                        ONliNE  ONliNE       rac2                                         ora.gsd               OFFliNE OFFliNE      rac1                                                        OFFliNE OFFliNE      rac2                                         ora.net1.network               ONliNE  ONliNE       rac1                                                        ONliNE  ONliNE       rac2                                         ora.ons               ONliNE  ONliNE       rac1                                                        ONliNE  ONliNE       rac2                                         ora.registry.acfs               ONliNE  ONliNE       rac1                                                        ONliNE  ONliNE       rac2                                         --------------------------------------------------------------------------------Cluster Resources--------------------------------------------------------------------------------ora.ListENER_SCAN1.lsnr              ONliNE  ONliNE       rac1                                         ora.oc4j              OFFliNE OFFliNE                                                   ora.rac.db              OFFliNE OFFliNE                                                                 OFFliNE OFFliNE                                                   ora.rac1.vip              ONliNE  ONliNE       rac1                                         ora.rac2.vip              ONliNE  ONliNE       rac2                                         ora.scan1.vip      1        ONliNE  ONliNE       rac1

手动启动arch和data

[grID@rac1 ~]$ srvctl start diskgroup -g arch[grID@rac1 ~]$ srvctl start diskgroup -g data

再次查看资源状态,已经启动

ora.ARCH.dg ONliNE ONliNE rac1 ONliNE ONliNE rac2 ora.DATA.dg ONliNE ONliNE rac1 ONliNE ONliNE rac2

接下来,启动数据库

[grID@rac1 ~]$ srvctl start database -d rac

查看资源状态,数据库已经启动

ora.rac.db ONliNE ONliNE rac1 Open 2 ONliNE ONliNE rac2 Open

进入数据库,

[grID@rac1 ~]$  oraclePassword: [oracle@rac1 ~]$ sqlplus / as sysdbasql*Plus: Release 0.1.0 Production on Sun Oct 15 19:27:40 2017copyright (c) 1982,1)">20090 - ProductionWith the Partitioning,Real Application Clusters,automatic Storage Management,olAP,Data Mining and Real Application Testing options

查看实例状态

sql> col host_name format a10;sql> select host_name,inst_ID,instance_name,version from gv$instance;HOST_name     INST_ID INSTANCE_name    VERSION---------- ---------- ---------------- -----------------rac1            1 rac1           rac2            2 rac2           0

一切正常。结束

 

其它问题:

问题1:无法进入asm实例

在grID下,想要进入asm实例,发现asm实例状态为IDle,如下:

[grID@rac1 ~]$ sqlplus / as sysasm

sql*Plus: Release 11.2.0.1.0 Production on Tue Sep 11 18:43:36 2018

copyright (c) 1982,2009,Oracle. All rights reserved.

Connected to an IDle instance.

 

[grID@rac1 ~]$ asmcmd
Connected to an IDle instance.
ASMCMD>

通过crsctl查看,我的asm实例明明是启动的,那么为什么状态为IDle呢?从网上查找资料,发现都是grID用户环境变量的问题。查看监听,确认asm实例名称,发现asm实例名称是大写的,在前面安装grID的时候没注意,导致出现该问题。

[grID@rac2 ~]$ lsnrctl

LSNRCTL for linux: Version 11.2.0.1.0 - Production on 11-SEP-2018 19:20:42

copyright (c) 1991,Oracle. All rights reserved.

Welcome to LSNRCTL,type "help" for information.

LSNRCTL> status
Connecting to (DESCRIPTION=(ADDRESS=(PROTOCol=IPC)(KEY=ListENER)))
STATUS of the ListENER
------------------------
Alias ListENER
Version TNSLSNR for linux: Version 11.2.0.1.0 - Production
Start Date 11-SEP-2018 18:18:12
Uptime 0 days 1 hr. 2 min. 31 sec
Trace Level off
Security ON: Local OS Authentication
SNMP OFF
Listener Parameter file /u01/app/11.2.0/grID/network/admin/Listener.ora
Listener Log file /u01/app/grID/diag/tnslsnr/rac2/Listener/alert/log.xml
Listening Endpoints Summary...
(DESCRIPTION=(ADDRESS=(PROTOCol=ipc)(KEY=ListENER)))
(DESCRIPTION=(ADDRESS=(PROTOCol=tcp)(HOST=10.141.71.102)(PORT=1521)))
(DESCRIPTION=(ADDRESS=(PROTOCol=tcp)(HOST=10.141.71.104)(PORT=1521)))
Services Summary...
Service "+ASM" has 1 instance(s).
Instance "+ASM2",status READY,has 1 handler(s) for this service...
Service "rac" has 1 instance(s).
Instance "rac2",has 1 handler(s) for this service...
Service "racXDB" has 1 instance(s).
Instance "rac2",has 1 handler(s) for this service...
The command completed successfully

于是将grID用户的.bash_profile文件中的oracle_sID修改为大写即可

修改前:

[grID@rac1 ~]$ more .bash_profile # .bash_profile# Get the aliases and functionsif [ -f ~/.bashrc ]; then    . ~/.bashrcfi# User specific environment and startup programsPATH=$PATH:$HOME/binexport TMP=/$TMP export ORACLE_SID=+asm1  # 如果是节点2,则:export ORACLE_SID=+asm2 export ORACLE_BASE=/u01/app/022

 

修改后:

[grID@rac1 ~]$  .bash_profile# .bash_profile# Get the aliases and functions+ASM1  # 如果是节点2,则:export ORACLE_SID=+022

 

问题2:通过scan ip连接不上数据库 (2018.09.12补充)

在我的电脑上配置了tns文件,然后连接到数据库上时,报错

ORA-12545: 因目标主机或对象不存在,连接失败

通过其它IP(public ip和vip)都可以脸上数据库,网上查找相似问题,发现是11.2.0.1的BUG,只需要将初始化参数local_Listener中的host的值改为vip即可。

修改方法如下:

---------节点1sql> alter system set local_Listener'(DESCRIPTION=(ADDRESS_List=(ADDRESS=(PROTOCol=TCP)(HOST=10.141.71.103)(PORT=1521))))' scope=both sIDracdb1';System altered.sqlalter system register;System altered.-------节点2sql(DESCRIPTION=(ADDRESS_List=(ADDRESS=(PROTOCol=TCP)(HOST=10.141.71.104)(PORT=1521))))racdb2 system register;System altered. 

修改前:

----------2个节点配置均如下
sql> show parameter Listenername TYPE VALUE----------------------- ----------- ------------------------------Listener_networks stringlocal_Listener string (DESCRIPTION=(ADDRESS_List=(AD DRESS=(PROTOCol=TCP)(HOST=rac1-vip)(PORT=1521))))remote_Listener string rac-scan:1521

修改后:

------------节点1sql> show parameter Listenername                      TYPE         VALUE------------------------  -----------  ------------------------------Listener_networks         local_Listener            string     (DESCRIPTION=(ADDRESS_List=(AD                                      DRESS=(PROTOCol=TCP)(HOST=10.141.71.103)(PORT=))))remote_Listener           string     rac-scan:1521-------------节点2sql> show parameter Listenername                     TYPE         VALUE-----------------------  -----------  ------------------------------(AD                                     DRESS=(PROTOCol=TCP)(HOST=104)(PORT=1521

 

注释:这个错误是另一次安装遇到的,故数据库、服务器信息有所变化。

【完】

总结

以上是内存溢出为你收集整理的Oracle 11gR2 RAC + ASM + Grid安装全部内容,希望文章能够帮你解决Oracle 11gR2 RAC + ASM + Grid安装所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/sjk/1151919.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-31
下一篇 2022-05-31

发表评论

登录后才能评论

评论列表(0条)

保存