# 사용중인 PC 사양
프로세서 11th Gen Intel(R) Core(TM) i7-11700 @ 2.50GHz   2.50 GHz
설치된 RAM 16.0GB(15.7GB 사용 가능)
시스템 종류 64비트 운영 체제, x64 기반 프로세서
에디션 Windows 11 Pro
버전 22H2
설치 날짜 ‎2023-‎09-‎22
OS 빌드 22621.3155
경험 Windows Feature Experience Pack 1000.22684.1000.0


 

# RAC1 서버 종료
[root@rac1 ~]# shutdown -h now

Broadcast message from root (pts/2) (Mon Mar  4 09:43:52 2024):

The system is going down for system halt NOW!

 

# RAC1를 복제하여 RAC2를 생성
VM > 종료 된 RAC1 우클릭 > 복제 > 
이름 :RAC2
경로 : RAC1과 같은 위치(관리용이성)
MAC 주소 정책 : 모든 네트워크 어댑터의 새 MAC 주소 생성
> 이걸로 안하면 네트워크 충돌 된다.

완전한 복제
완료

 

/*
> RAC 11g는 OLE5 이하에서만 가능
> OLE7에서는 불안정
MySQL 중소기업, 웹서비스, SQLlite에서 진화한거
일단 OS 공부를 더 하자.
*/

> RAC1, RAC2 서로 공유스토리지가 똑같아야 한다. = 쉐어 디스크
> 그대로 복제한거니 IP주소도 바꿔줘야 한다.

# 복제한 RAC2 스토리지 수정
VM > RAC2 > 설정 > 저장소
컨트롤러
rac2.vdi -> 메인 유지
rac2-disk1.vdi -> 6개 삭제
디스크 추가 > rac1에서 만든 디스크 6개 하나씩 추가
확인

 

 

# RAC2 실행
root / oracle

 

> RAC1을 복사한거라 RAC2 일부 값 수정해야한다.

# 고정 IP 주소 수정
RAC2 GUI > Open Terminal
[root@rac1 ~]# service network stop
[root@rac1 ~]# cd /etc/sysconfig/network-scripts/
[root@rac1 network-scripts]# ls
[root@rac1 network-scripts]# rm *.bak

 

[root@rac1 network-scripts]# vi ifcfg-eth1

BOOTPROTO=dhcp
↓ 
BOOTPROTO=static
IPADDR=192.168.56.102
NETMASK=255.255.255.0

: 수정 및 내용 추가 후 저장

> static : IP고정
> IPADDR= rac1 작업 시 입력한 Public ip rac2용

[root@rac1 network-scripts]# vi ifcfg-eth2

BOOTPROTO=dhcp
↓ 
BOOTPROTO=static
IPADDR=192.168.55.102
NETMASK=255.255.255.0

: 수정 및 내용 추가 후 저장

> static : IP고정
> IPADDR= rac1 작업 시 입력한 Private ip rac2용

 

# host name 변경
[root@rac1 network-scripts]# vi /etc/sysconfig/network

HOSTNAME=rac1

HOSTNAME=rac2

: 수정 후 저장

[root@rac1 network-scripts]# service network restart

 

ifconfig

reboot

 

# Putty 접속 : rac2
192.168.56.102 : 22
root / oracle

[root@rac2 ~]#

 

/*
프라이빗 : 밖에 노출X, 개인 맘대로, 기억하기 편하게
rac1          →          rac2

                ㅁ
            ↖    ↗ 퍼블릭 : putty 접속 등
             외부

퍼블릭 주소는 vm 내 네트워크 주소 양식 사용
vm : 192.168.56.1
> 4번째 끝자리만 수정해서 사용

*/

 



[root@rac2 ~]#


[root@rac2 ~]# cat /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1               localhost.localdomain localhost
::1             localhost6.localdomain6 localhost6

## Public
192.168.56.101 rac1
192.168.56.102 rac2

## Private
192.168.60.101  rac1-priv
192.168.60.102  rac2-priv

## Virtual
192.168.56.111 rac1-vip
192.168.56.112 rac2-vip

## grid scan
192.168.56.120

> rac1 복제한거니 그대로 사용한다.


[root@rac2 ~]# id oracle
uid=54321(oracle) gid=54321(oinstall) groups=54321(oinstall),54322(dba),157(vboxsf),503(oper),504(asmadmin),505(asmdba),506(asmoper)


[root@rac2 ~]# su - oracle
[oracle@rac2 ~]$

[oracle@rac2 ~]$ id
uid=54321(oracle) gid=54321(oinstall) groups=157(vboxsf),503(oper),504(asmadmin),505(asmdba),506(asmoper),54321(oinstall),54322(dba)



# 환경설정 수정
[oracle@rac2 ~]$ vi .bash_profile

export ORACLE_HOSTNAME=rac2
export ORACLE_SID=racdb2

: 1-> 2 수정



[oracle@rac2 ~]$ vi .grid_env

export ORACLE_SID=+ASM2

: 1-> 2 수정

> ASM1, RAC1, ASM2, RAC2 인스턴스 총 4개 관리 예정



# DB 환경설정 생성
[oracle@rac1 ~]$ vi /home/oracle/.db_env

export ORACLE_SID=racdb2

: 1-> 2 수정



[oracle@rac2 ~]$ source .bash_profile
[oracle@rac2 ~]$ source .grid_env
[oracle@rac2 ~]$ source .db_env


>> RAC2 작업 종료


# RAC1 서버 시작

# RAC1 서버와 RAC2 서버 네트워크 설정 확인
> 이게 안되면 그리드 설치 불가
> 그리드 : 1에 설치 후 2에 자동 복사


# rac2 서버에 3번 핑 던지기
[root@rac1 ~]# ping -c 3 rac2
PING rac2 (192.168.56.102) 56(84) bytes of data.
64 bytes from rac2 (192.168.56.102): icmp_seq=1 ttl=64 time=1.74 ms
64 bytes from rac2 (192.168.56.102): icmp_seq=2 ttl=64 time=0.851 ms
64 bytes from rac2 (192.168.56.102): icmp_seq=3 ttl=64 time=0.803 ms

--- rac2 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2010ms
rtt min/avg/max/mdev = 0.803/1.132/1.742/0.431 ms

[root@rac1 ~]# ping -c 3 rac2-priv
PING rac2-priv (192.168.55.102) 56(84) bytes of data.
64 bytes from rac2-priv (192.168.55.102): icmp_seq=1 ttl=64 time=1.47 ms
64 bytes from rac2-priv (192.168.55.102): icmp_seq=2 ttl=64 time=0.807 ms
64 bytes from rac2-priv (192.168.55.102): icmp_seq=3 ttl=64 time=0.944 ms

--- rac2-priv ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2014ms
rtt min/avg/max/mdev = 0.807/1.076/1.477/0.289 ms

> rac2 명칭을 /etc/hosts에 등록되있어서 사용가능한거다

[oracle@rac2 ~]$ ping -c 3 rac1
PING rac1 (192.168.56.101) 56(84) bytes of data.
64 bytes from rac1 (192.168.56.101): icmp_seq=1 ttl=64 time=0.477 ms
64 bytes from rac1 (192.168.56.101): icmp_seq=2 ttl=64 time=0.674 ms
64 bytes from rac1 (192.168.56.101): icmp_seq=3 ttl=64 time=0.825 ms

--- rac1 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2026ms
rtt min/avg/max/mdev = 0.477/0.658/0.825/0.145 ms

[oracle@rac2 ~]$ ping -c 3 rac1-priv
PING rac1-priv (192.168.55.101) 56(84) bytes of data.
64 bytes from rac1-priv (192.168.55.101): icmp_seq=1 ttl=64 time=0.267 ms
64 bytes from rac1-priv (192.168.55.101): icmp_seq=2 ttl=64 time=0.881 ms
64 bytes from rac1-priv (192.168.55.101): icmp_seq=3 ttl=64 time=0.768 ms

--- rac1-priv ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2001ms
rtt min/avg/max/mdev = 0.267/0.638/0.881/0.268 ms

>> 서로 셋업이 잘되었다.

 

[oracle@rac1 ~]$ cd /media/sf_shared/

[oracle@rac1 sf_shared]$ ls
database  linux_11gR2_grid

> VM에 공유폴더 연결해서 보인다.
> 현장에서는 CD, USB, FTP 사용한다

 

##### 그리드 설치

MobaXterm 접속 > RAC1 > oracle

# grid s/w 설치
[oracle@rac1 ~]$ grid_env
[oracle@rac1 ~]$ echo $ORACLE_HOME
/u01/app/11.2.0/grid
[oracle@rac1 ~]$ echo $ORACLE_SID
+ASM1

> 그리드 홈으로 위치 변경


[oracle@rac1 ~]$ cd /media/sf_shared/

[oracle@rac1 sf_shared]$ cd linux_11gR2_grid/grid

[oracle@rac1 grid]$ ls
doc  install  response  rpm  runcluvfy.sh  runInstaller  sshsetup  stage  welcome.html

> 폴더접근이 안되면 권한 변경 후 시도
chmod -R 777 /home/oracle/linux_11gR2_grid


[oracle@rac1 grid]$ ./runInstaller

 

[ Oracle Grid Infrastructure - Setting up Infrastructure ]

Step 1. Select Installation Option
1) Install and Configure Grid Infrastructure for a Cluster
> 싱글 디비에서 ASM 사용 시

 

Step 2. Select Installation Type
2) Advanced Installation

 

Step 3. Select Product Lantuages
Select Languages : English

 

Step 4. Grid Plug and Play Information
Cluster Name : rac-cluster
SCAN Name   : rac-scan
SNAN Port   : 1521
Configure GNS 체크해제

> 오류 발생 시 /etc/hosts 설정에 문제가 없는지 확인해보자

 

Stap 5. Cluster Node Information
Add
- Hostname : rac2
- Virtual IP Name : rac2-vip

SSH Connectivity...
OS Password : oracle
Setup > ... wait > Successfully ... > OK

 

Step 6. Specify Network Interface Usage
eth0    Do Not Use    인터넷망이라 사용 안함
eth1    Public        외부망 퍼블릭
eth2    Private       프라이빗

 

Step 7. Storage Option Information
1) Automatic Storage Management (ASM)

> ASM에 OCR 생성(Oracle Cluster Registry)
> 이게 깨지면 내려간다

 

Step 8. Create ASM Disk Group
Dist Group Name : DATA
Redundancy : Normal
Add Disks
- Change Discovery Path > Disk Discovery Path : /dev/oracleasm/disks/* > OK
- ASMDISK01~04  4개 체크 (20GB)

> Redundancy
    - High     : 삼중화(복제2번)
    - Normal   : 이중화(미러링)
    - External : 미러링 안함

 

Step 9. Specify ASM Password
2) Use same passwords for these accounts
oracle 통일


[INS-30011] The password entered does not conform to the Oracle recommended standards.
Are you sure you want to continue ? Yes

 

Step 10. Failure Isolation Support
2) Do not use Intelligent Paltform Management Interface (IPMI)

 

Step 11. Privileged Operation System Groups
ASM Database Administrator (OSDBA) Group               asmdba
ASM Instance Administration Operator (OSOPER) Group    asmoper
ASM Instance Administrator (OSASM) Group               asmadmin
> ASM OS 그룹 자동 기본값

 

Step 12. Specify Installation Location
Oracle Base : /u01/app/oracle
Sofgware Location : /u01/app/11.2.0/grid
> 홈 위치, sw 위치 기본값

 

Step 13. Create Inventory
Inventory Directory : /u01/app/oraInventory
> 기본값. 

 

Step 14. Perform Prerequisite Checks
> 필수 구성요소 확인

- Architecture : 아키텍처는 만들지 않았으니 나오는게 맞다
- Ignner all 체크

 

Step 15. Summary
Finish

 

Step 16. Setup
> rac1에 설치 후 rac2에 복사까지 진행 : 30분 이상 소요

 

# Execute Configuration Scripts
Scripts to be executed:
1. 터미널 실행
2. root 접속
3. rac1에서 스트립트 수행 완료 후 rac2에서 스크립트 수행
/u01/app/11.2.0/grid/root.sh
4. 완료되면 OK버튼

> 스크립트 2개 나오면 오류 확정. Grid 삭제 후 다시 설치 진행하자.
/u01/app/oraInventory/orainstRoot.sh
/u01/app/11.2.0/grid/root.sh

더보기

[root@rac1 ~]# /u01/app/11.2.0/grid/root.sh
Running Oracle 11g root.sh script...

The following environment variables are set as:
    ORACLE_OWNER= oracle
    ORACLE_HOME=  /u01/app/11.2.0/grid

Enter the full pathname of the local bin directory: [/usr/local/bin]:
   Copying dbhome to /usr/local/bin ...
   Copying oraenv to /usr/local/bin ...
   Copying coraenv to /usr/local/bin ...

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root.sh script.
Now product-specific root actions will be performed.
2024-03-05 14:21:31: Parsing the host name
2024-03-05 14:21:31: Checking for super user privileges
2024-03-05 14:21:31: User has super user privileges
Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params
Creating trace directory
LOCAL ADD MODE
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
  root wallet
  root wallet cert
  root cert export
  peer wallet
  profile reader wallet
  pa wallet
  peer wallet keys
  pa wallet keys
  peer cert request
  pa cert request
  peer cert
  pa cert
  peer root cert TP
  profile reader root cert TP
  pa root cert TP
  peer pa cert TP
  pa peer cert TP
  profile reader pa cert TP
  profile reader peer cert TP
  peer user cert
  pa user cert
Adding daemon to inittab
CRS-4123: Oracle High Availability Services has been started.
ohasd is starting
ADVM/ACFS is not supported on oraclelinux-release-5-6.0.1



CRS-2672: Attempting to start 'ora.gipcd' on 'rac1'
CRS-2672: Attempting to start 'ora.mdnsd' on 'rac1'
CRS-2676: Start of 'ora.mdnsd' on 'rac1' succeeded
CRS-2676: Start of 'ora.gipcd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'rac1'
CRS-2676: Start of 'ora.gpnpd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'rac1'
CRS-2676: Start of 'ora.cssdmonitor' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'rac1'
CRS-2672: Attempting to start 'ora.diskmon' on 'rac1'
CRS-2676: Start of 'ora.diskmon' on 'rac1' succeeded
CRS-2676: Start of 'ora.cssd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.ctssd' on 'rac1'
CRS-2676: Start of 'ora.ctssd' on 'rac1' succeeded

ASM created and started successfully.

DiskGroup DATA created successfully.

clscfg: -install mode specified
Successfully accumulated necessary OCR keys.
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
CRS-2672: Attempting to start 'ora.crsd' on 'rac1'
CRS-2676: Start of 'ora.crsd' on 'rac1' succeeded
CRS-4256: Updating the profile
Successful addition of voting disk 9282108203824ff0bf1659fa37157579.
Successful addition of voting disk 342d5dc1f7174fcfbf8b1fef4886eeea.
Successful addition of voting disk 6dc334443e0c4f89bfc3a9e2ed314949.
Successfully replaced voting disk group with +DATA.
CRS-4256: Updating the profile
CRS-4266: Voting file(s) successfully replaced
##  STATE    File Universal Id                File Name Disk group
--  -----    -----------------                --------- ---------
 1. ONLINE   9282108203824ff0bf1659fa37157579 (/dev/oracleasm/disks/ASMDISK01) [DATA]
 2. ONLINE   342d5dc1f7174fcfbf8b1fef4886eeea (/dev/oracleasm/disks/ASMDISK02) [DATA]
 3. ONLINE   6dc334443e0c4f89bfc3a9e2ed314949 (/dev/oracleasm/disks/ASMDISK03) [DATA]
Located 3 voting disk(s).
CRS-2673: Attempting to stop 'ora.crsd' on 'rac1'
CRS-2677: Stop of 'ora.crsd' on 'rac1' succeeded
CRS-2673: Attempting to stop 'ora.asm' on 'rac1'
CRS-2677: Stop of 'ora.asm' on 'rac1' succeeded
CRS-2673: Attempting to stop 'ora.ctssd' on 'rac1'
CRS-2677: Stop of 'ora.ctssd' on 'rac1' succeeded
CRS-2673: Attempting to stop 'ora.cssdmonitor' on 'rac1'
CRS-2677: Stop of 'ora.cssdmonitor' on 'rac1' succeeded
CRS-2673: Attempting to stop 'ora.cssd' on 'rac1'
CRS-2677: Stop of 'ora.cssd' on 'rac1' succeeded
CRS-2673: Attempting to stop 'ora.gpnpd' on 'rac1'
CRS-2677: Stop of 'ora.gpnpd' on 'rac1' succeeded
CRS-2673: Attempting to stop 'ora.gipcd' on 'rac1'
CRS-2677: Stop of 'ora.gipcd' on 'rac1' succeeded
CRS-2673: Attempting to stop 'ora.mdnsd' on 'rac1'
CRS-2677: Stop of 'ora.mdnsd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.mdnsd' on 'rac1'
CRS-2676: Start of 'ora.mdnsd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.gipcd' on 'rac1'
CRS-2676: Start of 'ora.gipcd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'rac1'
CRS-2676: Start of 'ora.gpnpd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'rac1'
CRS-2676: Start of 'ora.cssdmonitor' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'rac1'
CRS-2672: Attempting to start 'ora.diskmon' on 'rac1'
CRS-2676: Start of 'ora.diskmon' on 'rac1' succeeded
CRS-2676: Start of 'ora.cssd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.ctssd' on 'rac1'
CRS-2676: Start of 'ora.ctssd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'rac1'
CRS-2676: Start of 'ora.asm' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.crsd' on 'rac1'
CRS-2676: Start of 'ora.crsd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.evmd' on 'rac1'
CRS-2676: Start of 'ora.evmd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'rac1'
CRS-2676: Start of 'ora.asm' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.DATA.dg' on 'rac1'
CRS-2676: Start of 'ora.DATA.dg' on 'rac1' succeeded

rac1     2024/03/05 14:26:58     /u01/app/11.2.0/grid/cdata/rac1/backup_20240305_142658.olr
Configure Oracle Grid Infrastructure for a Cluster ... succeeded
Updating inventory properties for clusterware
Starting Oracle Universal Installer...

Checking swap space: must be greater than 500 MB.   Actual 4060 MB    Passed
The inventory pointer is located at /etc/oraInst.loc
The inventory is located at /u01/app/oraInventory
'UpdateNodeList' was successful.

 

[root@rac2 ~]# /u01/app/11.2.0/grid/root.sh
Running Oracle 11g root.sh script...

The following environment variables are set as:
    ORACLE_OWNER= oracle
    ORACLE_HOME=  /u01/app/11.2.0/grid

Enter the full pathname of the local bin directory: [/usr/local/bin]:
   Copying dbhome to /usr/local/bin ...
   Copying oraenv to /usr/local/bin ...
   Copying coraenv to /usr/local/bin ...

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root.sh script.
Now product-specific root actions will be performed.
2024-03-05 14:27:52: Parsing the host name
2024-03-05 14:27:52: Checking for super user privileges
2024-03-05 14:27:52: User has super user privileges
Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params
Creating trace directory
LOCAL ADD MODE
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
Adding daemon to inittab
CRS-4123: Oracle High Availability Services has been started.
ohasd is starting
ADVM/ACFS is not supported on oraclelinux-release-5-6.0.1



CRS-4402: The CSS daemon was started in exclusive mode but found an active CSS daemon on node rac1, number 1, and is terminating
CRS-2673: Attempting to stop 'ora.cssdmonitor' on 'rac2'
CRS-2677: Stop of 'ora.cssdmonitor' on 'rac2' succeeded
An active cluster was found during exclusive startup, restarting to join the cluster
CRS-2672: Attempting to start 'ora.mdnsd' on 'rac2'
CRS-2676: Start of 'ora.mdnsd' on 'rac2' succeeded
CRS-2672: Attempting to start 'ora.gipcd' on 'rac2'
CRS-2676: Start of 'ora.gipcd' on 'rac2' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'rac2'
CRS-2676: Start of 'ora.gpnpd' on 'rac2' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'rac2'
CRS-2676: Start of 'ora.cssdmonitor' on 'rac2' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'rac2'
CRS-2672: Attempting to start 'ora.diskmon' on 'rac2'
CRS-2676: Start of 'ora.diskmon' on 'rac2' succeeded
CRS-2676: Start of 'ora.cssd' on 'rac2' succeeded
CRS-2672: Attempting to start 'ora.ctssd' on 'rac2'
CRS-2676: Start of 'ora.ctssd' on 'rac2' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'rac2'
CRS-2676: Start of 'ora.asm' on 'rac2' succeeded
CRS-2672: Attempting to start 'ora.crsd' on 'rac2'
CRS-2676: Start of 'ora.crsd' on 'rac2' succeeded
CRS-2672: Attempting to start 'ora.evmd' on 'rac2'
CRS-2676: Start of 'ora.evmd' on 'rac2' succeeded

rac2     2024/03/05 14:31:52     /u01/app/11.2.0/grid/cdata/rac2/backup_20240305_143152.olr
Configure Oracle Grid Infrastructure for a Cluster ... succeeded
Updating inventory properties for clusterware
Starting Oracle Universal Installer...

Checking swap space: must be greater than 500 MB.   Actual 4094 MB    Passed
The inventory pointer is located at /etc/oraInst.loc
The inventory is located at /u01/app/oraInventory
'UpdateNodeList' was successful.

 

# [INS-20802] Oracle Private Interconnect Configuration Assistant failed.
> ???
> OK > Retry > 안되면 Skip

 

# [INS-20802] Oracle Cluster Verification Utility failed.
> 해당 유틸리티는 없는게 맞다 > OK > Retry > 안되면 Skip

Next

Close

 

 

# Putty

[oracle@rac1 ~]$ crs_stat -t

Name           Type           Target    State     Host
------------------------------------------------------------
ora.DATA.dg    ora....up.type ONLINE    ONLINE    rac1
ora....ER.lsnr ora....er.type ONLINE    ONLINE    rac1
ora....N1.lsnr ora....er.type ONLINE    ONLINE    rac1
ora.asm        ora.asm.type   ONLINE    ONLINE    rac1
ora.eons       ora.eons.type  ONLINE    ONLINE    rac1
ora.gsd        ora.gsd.type   OFFLINE   OFFLINE
ora....network ora....rk.type ONLINE    ONLINE    rac1
ora.oc4j       ora.oc4j.type  OFFLINE   OFFLINE
ora.ons        ora.ons.type   ONLINE    ONLINE    rac1
ora....SM1.asm application    ONLINE    ONLINE    rac1
ora....C1.lsnr application    ONLINE    ONLINE    rac1
ora.rac1.gsd   application    OFFLINE   OFFLINE
ora.rac1.ons   application    ONLINE    ONLINE    rac1
ora.rac1.vip   ora....t1.type ONLINE    ONLINE    rac1
ora....SM2.asm application    ONLINE    ONLINE    rac2
ora....C2.lsnr application    ONLINE    ONLINE    rac2
ora.rac2.gsd   application    OFFLINE   OFFLINE
ora.rac2.ons   application    ONLINE    ONLINE    rac2
ora.rac2.vip   ora....t1.type ONLINE    ONLINE    rac2
ora.scan1.vip  ora....ip.type ONLINE    ONLINE    rac1

[oracle@rac2 ~]$ crs_stat -t
Name           Type           Target    State     Host
------------------------------------------------------------
ora.DATA.dg    ora....up.type ONLINE    ONLINE    rac1
ora....ER.lsnr ora....er.type ONLINE    ONLINE    rac1
ora....N1.lsnr ora....er.type ONLINE    ONLINE    rac1
ora.asm        ora.asm.type   ONLINE    ONLINE    rac1
ora.eons       ora.eons.type  ONLINE    ONLINE    rac1
ora.gsd        ora.gsd.type   OFFLINE   OFFLINE
ora....network ora....rk.type ONLINE    ONLINE    rac1
ora.oc4j       ora.oc4j.type  OFFLINE   OFFLINE
ora.ons        ora.ons.type   ONLINE    ONLINE    rac1
ora....SM1.asm application    ONLINE    ONLINE    rac1
ora....C1.lsnr application    ONLINE    ONLINE    rac1
ora.rac1.gsd   application    OFFLINE   OFFLINE
ora.rac1.ons   application    ONLINE    ONLINE    rac1
ora.rac1.vip   ora....t1.type ONLINE    ONLINE    rac1
ora....SM2.asm application    ONLINE    ONLINE    rac2
ora....C2.lsnr application    ONLINE    ONLINE    rac2
ora.rac2.gsd   application    OFFLINE   OFFLINE
ora.rac2.ons   application    ONLINE    ONLINE    rac2
ora.rac2.vip   ora....t1.type ONLINE    ONLINE    rac2
ora.scan1.vip  ora....ip.type ONLINE    ONLINE    rac1
ora.rac2.vip   ora....t1.type ONLINE    ONLINE    rac2
ora.scan1.vip  ora....ip.type ONLINE    ONLINE    rac1

> 각 Node에 rac1, rac2가 같이 나오면 설치 성공.