rr Oracle® SuperCluster T5-8 - 소유자 안내서

Similar documents
Copyright 2012, Oracle and/or its affiliates. All rights reserved.,.,,,,,,,,,,,,.,...,. U.S. GOVERNMENT END USERS. Oracle programs, including any oper

Oracle® DIVAnet - 보안 설명서

Copyright 2012, Oracle and/or its affiliates. All rights reserved.,,,,,,,,,,,,,.,..., U.S. GOVERNMENT END USERS. Oracle programs, including any operat

Windows 8에서 BioStar 1 설치하기

Copyright 0, Oracle and/or its affiliates. All rights reserved.,.,,,,,,,,,,,,.,...,. U.S. GOVERNMENT RIGHTS Programs, software, databases, and related

아이콘의 정의 본 사용자 설명서에서는 다음 아이콘을 사용합니다. 참고 참고는 발생할 수 있는 상황에 대처하는 방법을 알려 주거나 다른 기능과 함께 작동하는 방법에 대한 요령을 제공합니다. 상표 Brother 로고는 Brother Industries, Ltd.의 등록 상

810 & 는 소기업 및 지사 애 플리케이션용으로 설계되었으며, 독립 실행형 장치로 구성하거 나 HA(고가용성)로 구성할 수 있습니다. 810은 표준 운영 체제를 실행하는 범용 서버에 비해 가격 프리미엄이 거의 또는 전혀 없기 때문에 화이트박스 장벽 을

Microsoft Word - zfs-storage-family_ko.doc

View Licenses and Services (customer)

Copyright 2011, 2012, Oracle and/or its affiliates. All rights reserved.,.,,,,,,,,,,,,.,...,. U.S. GOVERNMENT END USERS. Oracle programs, including an

ThinkVantage Fingerprint Software

1,000 AP 20,000 ZoneDirector IT 5, WLAN. ZoneFlex AP ZoneDirector. WLAN. WLAN AP,,,,,,., Wi-Fi. AP. PSK PC. VLAN WLAN.. ZoneDirector 5000 WLAN L

[Brochure] KOR_TunA

Microsoft PowerPoint - 권장 사양

Microsoft Word - windows server 2003 수동설치_non pro support_.doc

Microsoft Word - s.doc

통합 서버용으로서 보면, Power 740 Express의 성능, 용량, 구성 유연성에 업계 최강의 PowerVM TM 가상화(AIX, IBM i, Linux용)기능이 결합되어 있으 므로 기업은 비용 및 에너지 사용을 더욱 절약할 수 있습니다. Power 740 Exp

Dell과 함께라면 가능합니다. 처음 도입하는 서버 또는 두 번째로 도입하는 서버이거나 네트워크를 확장시키거나 관리 기능을 강화하는 등의 모든 요구 사항을 Dell은 지원할 수 있습니다. Dell은 특성이 각기 다른 모든 조직과 회사마다 서로 다른 시점에 서로 다른 요

라우터

Microsoft PowerPoint - chap01-C언어개요.pptx

이도경, 최덕재 Dokyeong Lee, Deokjai Choi 1. 서론

1. 제품 개요 AhnLab Policy Center 4.6 for Windows(이하 TOE)는 관리대상 클라이언트 시스템에 설치된 안랩의 안티바이러스 제품인 V3 제품군에 대해 보안정책 설정 및 모니터링 등의 기능을 제공하여 관리대상 클라이언트 시스템에 설치된 V3

Oracle I/O 도메인 관리 설명서

온라인등록용 메뉴얼

RHEV 2.2 인증서 만료 확인 및 갱신

회원번호 대표자 공동자 KR000****1 권 * 영 KR000****1 박 * 순 KR000****1 박 * 애 이 * 홍 KR000****2 김 * 근 하 * 희 KR000****2 박 * 순 KR000****3 최 * 정 KR000****4 박 * 희 조 * 제

3.Bladesystem

Cisco FirePOWER 호환성 가이드

User Guide

Office 365, FastTrack 4 FastTrack. Tony Striefel FastTrack FastTrack

SANsymphony-V

비디오 / 그래픽 아답터 네트워크 만약에 ArcGolbe를 사용하는 경우, 추가적인 디스크 공간 필요. ArcGlobe는 캐시파일을 생성하여 사용 24 비트 그래픽 가속기 Oepn GL 2.0 이상을 지원하는 비디오카드 최소 64 MB 이고 256 MB 이상을 메모리

No Slide Title

PathEye 공식 블로그 다운로드 받으세요!! 지속적으로 업그래이드 됩니다. 여러분의 의견을 주시면 개발에 반영하겠 습니다.

기술 정보 - Communit

© Rohde & Schwarz; R&S®CDS Campus Dashboard Software

Storage_for_Megapixel_Video01

Microsoft PowerPoint - 02_Linux_Fedora_Core_8_Vmware_Installation [호환 모드]

Windows Server 2012

Straight Through Communication

Windows 10 General Announcement v1.0-KO


IRISCard Anywhere 5

SBR-100S User Manual

ez-shv manual

6. 설치가시작되는동안 USB 드라이버가자동으로로드됩니다. USB 드라이버가성공적으로로드되면 Setup is starting( 설치가시작되는중 )... 화면이표시됩니다. 7. 화면지침에따라 Windows 7 설치를완료합니다. 방법 2: 수정된 Windows 7 ISO


소규모 비즈니스를 위한 플레이북 여기서 다룰 내용은 다음과 같습니다. 1. YouTube 소개 2. YouTube에서 비즈니스를 위한 채널 만들기 3. 눈길을 끄는 동영상 만들기 4. 고객의 액션 유도하기 5. 비즈니스에 중요한 잠재고객에게 더 많이 도달하기

데이터 시트 AC 가변 스피드 드라이브 및 서보 모터 드라이브 DC 모터 드라이브용 정적 컨버터 UPS(연속 전원 공급기) SMPS(스위치 모드 전원 공급기) 전류 클램프 CL1200 CL1200 은 산업 및 고전력 환경용으로 설계된 AC 전류 클램 프입니다. 인체 공

VMware vsphere

01

목차 윈도우드라이버 1. 매뉴얼안내 운영체제 (OS) 환경 윈도우드라이버준비 윈도우드라이버설치 Windows XP/Server 2003 에서설치 Serial 또는 Parallel 포트의경우.

vRealize Automation용 VMware Remote Console - VMware

온습도 판넬미터(JTH-05) 사양서V1.0

<4D F736F F F696E74202D203137C0E55FBFACBDC0B9AEC1A6BCD6B7E7BCC72E707074>

MF Driver Installation Guide

Microsoft Word - Korean_뷰어 메뉴얼_공용_ADVR&SWi_.doc

목차 데모 홖경 및 개요... 3 테스트 서버 설정... 4 DC (Domain Controller) 서버 설정... 4 RDSH (Remote Desktop Session Host) 서버 설정... 9 W7CLIENT (Windows 7 Client) 클라이얶트 설정

Integ

Microsoft PowerPoint - Infiniband 20Gb 40Gb Switch HCA (??_1).ppt [Compatibility Mode]

untitled

consulting

목 차 1. 드라이버 설치 설치환경 드라이버 설치 시 주의사항 USB 드라이버 파일 Windows XP에서 설치 Windows Vista / Windows 7에서 설치 Windows

APOGEE Insight_KR_Base_3P11

Salmosa_WebManual_KOR(B)

H3250_Wi-Fi_E.book

오프라인 사용을 위한 Tekla Structures 라이선스 대여

Microsoft PowerPoint - eSlim SV [ ]

쓰리 핸드(삼침) 요일 및 2405 요일 시간, 및 요일 설정 1. 용두를 2의 위치로 당기고 반시계방향으로 돌려 전날로 를 설정합니다. 2. 용두를 시계방향으로 돌려 전날로 요일을 설정합니다. 3. 용두를 3의 위치로 당기고 오늘 와 요일이 표시될 때까지 시계방향으로

SIGIL 완벽입문

vm-웨어-앞부속

Storage advances and Ne over fabric

2 전원 코드를 연결합니다. 출력 용지함을 기기 밖으로 꺼내고 문서 스토퍼 를 펼칩니다. 중요 아직 USB 케이블을 연결하지 마십시오. 전원 코드를 연결합니다. 경고 접지된 플러그가 기기에 장착되어 있어야 합니다. 2 1 Windows 사용자: 다음으로 3페이지 상단

메일서버등록제(SPF) 인증기능적용안내서 (Exchange Windows 2000) OS Mail Server SPF 적용모듈 작성기준 Windows Server 2000 Exchange Server 2003 GFI MailEssentials 14 for

6_5상 스테핑 모터_ _OK.indd

HP Elite USB-C 도킹 스테이션 사용자 설명서

Freecom Mobile Drive XXS 사용자에게! Freecom Mobile Drive XXS 외장형 하드 드라이브를 선택해 주셔서 감사합니다. 최 적의 사용과 성능을 위해 본 제품을 사용하기 전에 본 설명서를 주의 깊게 읽을 것 을 권합니다. Freecom T

ORACLE DATA SHEET SUN SERVER X4-2 SYSTEM 주요기능 에너지효율성이뛰어난콤팩트 1U 엔터프라이즈급서버 Intel Xeon 프로세서 E v2 제품군 CPU 2 개탑재 DIMM 슬롯 16 개 PCIe 3.0 슬롯 4 개 10GBase

경우 1) 80GB( 원본 ) => 2TB( 복사본 ), 원본 80GB 는 MBR 로디스크초기화하고 NTFS 로포맷한경우 복사본 HDD 도 MBR 로디스크초기화되고 80GB 만큼포맷되고나머지영역 (80GB~ 나머지부분 ) 은할당되지않음 으로나온다. A. Window P

Backup Exec

804NW±¹¹®

Sun Server X3-2(이전의 Sun Fire X4170 M3) 제품 안내서 버전 1.5

Win7°í°´¿ë


<4D F736F F D20C5EBC7D5C7D8BCAEBDC3BDBAC5DB5F D2BC0C720424D54B0E1B0FABAB8B0EDBCAD2E646F63>

슬라이드 1

PowerPoint Presentation

Microsoft Word - ntasFrameBuilderInstallGuide2.5.doc


<5BB0EDB3ADB5B55D B3E2B4EBBAF12DB0ED312D312DC1DFB0A32DC0B6C7D5B0FAC7D02D28312E BAF2B9F0B0FA20BFF8C0DAC0C720C7FCBCBA2D D3135B9AEC7D72E687770>

CSG_keynote_KO copy.key

목차 개요 3 VDI의 발전 양상 3 AMD GPU로 인해 가상 데스크톱이 얻는 효과 3 VDI와 GPU의 결합: 성능 및 사용자 경험 향상 3 AMD Multiuser GPU 기술 기반 4 주요 장점 5 솔루션 지원 7 결론 7 AMD 소개 8 백서: AMD MULT

vostro2월CDM4.0

Microsoft PowerPoint - eSlim SV [080116]

관련서비스 Oracle Advanced Customer Support Services Oracle Premier Support for Systems Oracle Platinum Services Consulting Services Oracle University 과정 및

H122_E.book

디지털일안리플렉스카메라펌웨어업그레이드순서에대하여 (Mass Storage 대응기종 ) - Mac 판 - 니콘제품을애용해주셔서대단히감사합니다. 여기에서는이번다운로드대상이되는니콘디지털일안리플렉스카메라의펌웨어버전업그레이드에대해설명하고있습니다. 그리고니콘서비스센터에서의업데이트

PowerPoint 프레젠테이션

Windows Server 운영체제용 Oracle® Server X6-2 설치 설명서

특징 찾아보기 열쇠 없이 문을 열 수 있어요! 비밀번호 및 RF카드로도 문을 열 수 있습니다. 또한 비밀번호가 외부인에게 알려질 위험에 대비, 통제번호까지 입력해 둘 수 있어 더욱 안심하고 사용할 수 있습니다. 나만의 비밀번호 및 RF카드를 가질 수 있어요! 다수의 가

Transcription:

Oracle SuperCluster T5-8 소유자 안내서 부품 번호: E48446-03 2014년 10월

Copyright 2013, 2014, Oracle and/or its affiliates. All rights reserved. 본 소프트웨어와 관련 문서는 사용 제한 및 기밀 유지 규정을 포함하는 라이센스 계약서에 의거해 제공되며, 지적 재산법에 의해 보호됩니다. 라이센스 계약서 상에 명시적으로 허용되어 있는 경우나 법규에 의해 허용된 경우를 제외하고, 어떠한 부분도 복사, 재생, 번역, 방송, 수정, 라이센스, 전송, 배포, 진열, 실행, 발행, 또는 전시될 수 없습니다. 본 소프트웨어를 리버스 엔지니어링, 디스어셈블리 또는 디컴파일하는 것은 상호 운용에 대한 법규에 의해 명시된 경우를 제외하고는 금지되어 있습니다. 이 안의 내용은 사전 공지 없이 변경될 수 있으며 오류가 존재하지 않음을 보증하지 않습니다. 만일 오류를 발견하면 서면으로 통지해 주기 바랍니다. 만일 본 소프트웨어나 관련 문서를 미국 정부나 또는 미국 정부를 대신하여 라이센스한 개인이나 법인에게 배송하는 경우, 다음 공지 사항이 적용됩니다. U.S. GOVERNMENT END USERS: Oracle programs, including any operating system, integrated software, any programs installed on the hardware, and/or documentation, delivered to U.S. Government end users are "commercial computer software" pursuant to the applicable Federal Acquisition Regulation and agency-specific supplemental regulations. As such, use, duplication, disclosure, modification, and adaptation of the programs, including any operating system, integrated software, any programs installed on the hardware, and/or documentation, shall be subject to license terms and license restrictions applicable to the programs. No other rights are granted to the U.S. Government. 본 소프트웨어 혹은 하드웨어는 다양한 정보 관리 애플리케이션의 일반적인 사용을 목적으로 개발되었습니다. 본 소프트웨어 혹은 하드웨어는 개인적인 상해를 초래할 수 있 는 애플리케이션을 포함한 본질적으로 위험한 애플리케이션에서 사용할 목적으로 개발되거나 그 용도로 사용될 수 없습니다. 만일 본 소프트웨어 혹은 하드웨어를 위험한 애 플리케이션에서 사용할 경우, 라이센스 사용자는 해당 애플리케이션의 안전한 사용을 위해 모든 적절한 비상-안전, 백업, 대비 및 기타 조치를 반드시 취해야 합니다. Oracle Corporation과 그 자회사는 본 소프트웨어 혹은 하드웨어를 위험한 애플리케이션에서의 사용으로 인해 발생하는 어떠한 손해에 대해서도 책임지지 않습니다. Oracle과 Java는 Oracle Corporation 및/또는 그 자회사의 등록 상표입니다. 기타의 명칭들은 각 해당 명칭을 소유한 회사의 상표일 수 있습니다. Intel 및 Intel Xeon은 Intel Corporation의 상표 내지는 등록 상표입니다. SPARC 상표 일체는 라이센스에 의거하여 사용되며 SPARC International, Inc.의 상표 내지는 등록 상표입니다. AMD, Opteron, AMD 로고, 및 AMD Opteron 로고는 Advanced Micro Devices의 상표 내지는 등록 상표입니다. UNIX는 The Open Group의 등록상표입니 다. 본 소프트웨어 혹은 하드웨어와 관련문서(설명서)는 제 3자로부터 제공되는 컨텐츠, 제품 및 서비스에 접속할 수 있거나 정보를 제공합니다. Oracle Corporation과 그 자회사 는 제 3자의 컨텐츠, 제품 및 서비스와 관련하여 어떠한 책임도 지지 않으며 명시적으로 모든 보증에 대해서도 책임을 지지 않습니다. Oracle Corporation과 그 자회사는 제 3 자의 컨텐츠, 제품 및 서비스에 접속하거나 사용으로 인해 초래되는 어떠한 손실, 비용 또는 손해에 대해 어떠한 책임도 지지 않습니다.

목차 이 설명서 사용... 9 시스템 이해... 11 Oracle SuperCluster T5-8 이해... 11 스페어 키트 구성 요소... 12 Oracle SuperCluster T5-8 제한 사항... 13 하드웨어 구성 요소 식별... 14 풀 랙 구성 요소... 15 하프 랙 구성 요소... 17 하드웨어 구성 요소 및 연결 이해... 18 하드웨어 구성 요소 이해... 18 물리적 연결 이해... 20 소프트웨어 구성 이해... 40 도메인 이해... 40 일반 구성 정보 이해... 51 하프 랙 구성 이해... 55 풀 랙 구성 이해... 63 클러스터링 소프트웨어 이해... 76 데이터베이스 도메인용 클러스터 소프트웨어... 77 Oracle Solaris 응용 프로그램 도메인용 클러스터 소프트웨어... 77 네트워크 요구 사항 이해... 78 네트워크 요구 사항 개요... 78 Oracle SuperCluster T5-8에 대한 네트워크 연결 요구 사항... 81 기본 IP 주소 이해... 82 현장 준비... 주의 및 고려 사항... 시스템 사양 검토... 물리적 사양... 설치 및 서비스 영역... 89 89 90 90 90 3

목차 랙과 바닥 홈 치수... 91 전원 요구 사항 검토... 92 시스템 전력 소비... 93 설비 전원 요구 사항... 93 접지 요구 사항... 94 PDU 전원 요구 사항... 94 냉각 준비... 98 환경 요구 사항... 98 열 손실 및 공기 흐름 요구 사항... 99 구멍 뚫린 바닥 타일... 101 언로드 경로 및 포장 풀기 장소 준비... 101 운송 패키지 치수... 101 적재 도크 및 수령 장소 요구 사항... 102 액세스 경로 지침... 103 포장 풀기 장소... 103 네트워크 준비... 104 네트워크 연결 요구 사항... 104 네트워크 IP 주소 요구 사항... 104 시스템용 DNS 준비... 105 시스템 설치... 설치 개요... Oracle 안전 정보... 시스템의 포장 풀기... 설치용 도구... 포장 풀기 지침 찾기... 시스템 포장 풀기 및 검사... 랙을 제자리로 이동... Oracle SuperCluster T5-8 이동... 접지 케이블 설치(선택 사항)... 랙 고정... 수평 조절 다리 조정... 마운팅 브래킷 설치(선택 사항)... 처음으로 시스템 전원 켜기... 전원 코드를 랙에 연결... 시스템 전원 켜기... 시스템에 랩탑 연결... 10GbE 클라이언트 액세스 네트워크에 연결... 선택적 광 섬유 채널 PCIe 카드 사용... 4 Oracle SuperCluster T5-8 2014년 10월 107 107 108 109 109 109 110 111 112 113 115 115 116 118 118 122 126 128 131

목차 시스템 유지 관리... 133 주의 및 경고... 133 시스템 전원 끄기... 134 정상적인 전원 끄기 순서... 134 비상 전원 끄기... 136 시스템 전원 켜기... 137 SuperCluster 소프트웨어의 버전 식별... 137 SuperCluster 도구... 138 Oracle Solaris 11 부트 환경 관리... 139 다중 부트 환경 유지 관리의 이점... 139 부트 환경 만들기... 140 다양한 빌드 환경으로 마운트... 142 원래 부트 환경으로 재부트... 142 불필요한 부트 환경 제거... 142 Dynamic Intimate Shared Memory 사용... 143 DISM 제한 사항... 143 DISM 사용 안함... 144 구성 요소 관련 서비스 절차... 144 Exadata Storage Server 유지 관리... 145 동시 기록(Write-Through) 캐시 모드 모니터링... 145 Exadata Storage Server 종료 또는 재부트... 147 Exadata Storage Server 삭제... 149 시스템 조정(ssctuner)... 149 ssctuner 개요... 150 ssctuner 작업 모니터... 151 로그 파일 보기... 152 ssctuner 등록 정보 변경 및 기능 사용 안함... 153 ssctuner 설치... 155 ssctuner 사용... 156 CPU 및 메모리 리소스 구성(osc-setcoremem)... 157 CPU/메모리 도구 개요(osc-setcoremem)... 158 지원되는 도메인 구성... 159 CPU 및 메모리 할당 계획... 160 현재 도메인 구성 표시(osc-setcoremem)... 163 현재 도메인 구성 표시(ldm)... 164 CPU/메모리 할당 변경(소켓 세분성)... 166 CPU/메모리 할당 변경(코어 세분성)... 170 코어 및 메모리 보관... 173 osc-setcoremem 로그 파일 액세스... 178 SP 구성 보기... 181 5

목차 이전 CPU/메모리 구성으로 되돌리기... 183 CPU/메모리 구성 제거... 184 CPU 및 메모리 할당 구성(레거시 setcoremem)... 185 CPU/메모리 도구 개요(setcoremem)... 185 CPU/메모리 할당(setcoremem)... 186 사용자 정의 구성과 사전 정의된 할당 비교(setcoremem)... 188 풀 랙 구성에 대한 사용자 정의 CPU/메모리 할당(setcoremem)... 189 CPU/메모리 할당 변경(setcoremem)... 191 사용자 정의 구성으로 리소스 변경 예(setcoremem)... 194 이전 CPU/메모리 구성으로 되돌아가기(setcoremem)... 197 CPU/메모리 구성 제거(setcoremem)... 198 Capacity-on-Demand... 198 시스템 모니터링... 201 자동 서비스 요청을 사용하여 시스템 모니터... 201 ASR 개요... 201 ASR 구성 준비... 202 ASR Manager 구성 요소 설치... 204 ASR Manager 확인... 206 Exadata Storage Server에 대한 SNMP 트랩 대상 구성... 207 ZFS Storage Appliance에 ASR 구성... 209 SPARC T5-8 서버에 ASR 구성(Oracle ILOM)... 211 SPARC T5-8 서버에 ASR 구성(Oracle Solaris 11)... 213 Oracle SuperCluster T5-8 자산에 대해 ASR 활성화 승인 및 확인... 217 OCM을 사용하여 시스템 모니터링... 219 OCM 개요... 220 SPARC T5-8 서버에 Oracle Configuration Manager 설치... 220 EM Exadata 플러그인을 사용하여 시스템 모니터링... 224 시스템 요구 사항... 224 EM Exadata 플러그인에 알려진 문제... 225 Exalogic 소프트웨어 구성... 227 Exalogic 소프트웨어 개요... 227 Exalogic 소프트웨어 필수 조건... 227 도메인 레벨 향상된 기능 사용... 228 클러스터 레벨 세션 복제 향상된 기능 사용... 229 Dept1_Cluster1에 대해 GridLink 데이터 소스 구성... 232 GridLink 데이터 소스... 233 Dept1_Cluster1에 GridLink 데이터 소스 만들기... 234 6 Oracle SuperCluster T5-8 2014년 10월

목차 Dept1_Cluster1에 대해 SDP 사용 JDBC 드라이버 구성... 데이터베이스에서 Infiniband를 지원하도록 구성... JDBC에 대한 SDP 지원 사용... Oracle Solaris에서 netstat를 사용하여 SDP 소켓 모니터링... Exalogic 연결에 대해 SDP InfiniBand 리스너 구성... InfiniBand 네트워크에 SDP 리스너 만들기... 236 236 237 238 238 238 내부 케이블 연결 이해... 커넥터 위치... InfiniBand 패브릭 연결 식별... IB 스파인 스위치... IB 리프 스위치 번호 1... IB 리프 스위치 번호 2... 이더넷 관리 스위치 연결... ZFS Storage Appliance 연결... 단상 PDU 케이블 연결... 3상 PDU 케이블 연결... 243 243 250 250 250 252 253 255 256 257 다중 Oracle SuperCluster T5-8 시스템 연결... 다중 랙 케이블 연결 개요... 두 개의 랙 케이블 연결... 세 개의 랙 케이블 연결... 네 개의 랙 케이블 연결... 다섯 개의 랙 케이블 연결... 여섯 개의 랙 케이블 연결... 일곱 개의 랙 케이블 연결... 여덟 개의 랙 케이블 연결... 259 259 261 263 265 268 271 275 280 확장 랙 연결... Oracle Exadata Storage 확장 랙 구성 요소... 설치 준비... 시스템 사양 검토... 전원 요구 사항 검토... 냉각 준비... 언로드 경로 및 포장 풀기 장소 준비... 네트워크 준비... Oracle Exadata Storage 확장 랙 설치... 확장 랙 기본 IP 주소... 확장 랙 내부 케이블 연결 이해... 287 287 288 288 289 293 295 296 298 299 299 7

목차 전면 및 후면 확장 랙 레이아웃... 300 Oracle ILOM 케이블 연결... 304 관리 기가비트 이더넷 포트 케이블 연결 표... 305 단상 PDU 케이블 연결... 307 3상 배전 장치 케이블 연결... 309 InfiniBand 네트워크 케이블 연결... 311 Oracle SuperCluster T5-8에 확장 랙 연결... 315 Oracle SuperCluster T5-8에 대한 InfiniBand 스위치 정보... 316 Oracle Exadata Storage 확장 랙에 대한 InfiniBand 스위치 정보... 317 Oracle SuperCluster T5-8에 Oracle Exadata Storage 확장 쿼터 랙 연 결... 317 Oracle SuperCluster T5-8에 Oracle Exadata Storage 확장 하프 랙 또는 Oracle Exadata Storage 확장 풀 랙 연결... 321 두 개의 랙 케이블 연결... 323 세 개의 랙 케이블 연결... 324 네 개의 랙 케이블 연결... 327 다섯 개의 랙 케이블 연결... 329 여섯 개의 랙 케이블 연결... 333 일곱 개의 랙 케이블 연결... 337 여덟 개의 랙 케이블 연결... 342 9랙 케이블 연결... 347 10랙 케이블 연결... 348 11랙 케이블 연결... 349 12랙 케이블 연결... 350 13랙 케이블 연결... 351 14랙 케이블 연결... 352 15랙 케이블 연결... 353 16랙 케이블 연결... 353 17랙 케이블 연결... 354 18랙 케이블 연결... 355 색인... 357 8 Oracle SuperCluster T5-8 2014년 10월

이 설명서 사용 이 설명서는 통합 데이터베이스, 미들웨어 및 엔터프라이즈 응용 프로그램과 개인 클라우드 를 위해 최상의 Oracle 서버, 저장소, 네트워킹 및 소프트웨어와 완벽하게 통합된 엔지니어 링 시스템인 Oracle SuperCluster T5-8에 대해 설명합니다. 또한 이 안내서에는 하드웨어 작업 및 현장 계획뿐만 아니라 물리적, 전기적 및 환경 사양에 대한 정보도 포함되어 있습니 다. 참고 - 이 안내서의 모든 하드웨어 관련 사양은 이 안내서 작성 당시 Oracle에서 제공한 일반 배포 정보를 기반으로 합니다. Oracle은 이 문서의 일반적인 배포 사양을 따르는 데서 발생 할 수 있는 하드웨어 문제에는 책임이 없습니다. Oracle SuperCluster T5-8 배포를 위한 현 장 준비에 대한 자세한 내용은 하드웨어 사양을 참조하십시오. 제품 안내서 [9] 관련 설명서 [9] 피드백 [10] Oracle 지원 액세스 [10] 제품 안내서 이 제품에 대한 최신 정보 및 알려진 문제는 제품 안내서를 참조하십시오. 제품 안내서는 Oracle SuperCluster T5-8에 처음으로 설치된 SPARC T5-8 서버에서 다음 디렉토리를 확 인하여 브라우저에서 볼 수 있습니다. /opt/oracle/node/doc/e40166_01/index.html 관련 설명서 설명서 링크 모든 Oracle 제품 http://www.oracle.com/documentation 이 설명서 사용 9

피드백 설명서 링크 Oracle Solaris OS 및 시스템 소프트 웨어 라이브러리 http://www.oracle.com/technetwork/indexes/documentation/index.html#sys_sw 피드백 다음 위치에서 이 설명서에 대한 피드백을 보낼 수 있습니다. http://www.oracle.com/goto/docfeedback Oracle 지원 액세스 Oracle 고객은 My Oracle Support를 통해 온라인 지원에 액세스할 수 있습니다. 자세한 내 용은 http://www.oracle.com/pls/topic/lookup?ctx=acc&id=info를 참조하거나, 청각 장애가 있는 경우 http://www.oracle.com/pls/topic/lookup?ctx=acc&id=trs를 방문하 십시오. 10 Oracle SuperCluster T5-8 2014년 10월

시스템 이해 다음 항목은 Oracle SuperCluster T5-8의 기능 및 하드웨어 구성 요소에 대해 설명합니다. 또한 사용 가능한 여러 소프트웨어 구성에 대해서도 설명합니다. Oracle SuperCluster T5-8 이해 [11] 하드웨어 구성 요소 식별 [14] 하드웨어 구성 요소 및 연결 이해 [18] 소프트웨어 구성 이해 [40] 클러스터링 소프트웨어 이해 [76] 네트워크 요구 사항 이해 [78] Oracle SuperCluster T5-8 이해 Oracle SuperCluster T5-8은 다양한 응용 프로그램 유형 및 작업 부하에 완전한 플랫폼 을 제공하도록 설계된 통합 하드웨어 및 소프트웨어 시스템입니다. Oracle SuperCluster T5-8은 성능이 중요한 대규모의 핵심 업무 응용 프로그램을 배포하기 위한 것입니다. Oracle SuperCluster T5-8은 산업 표준 하드웨어와 선택적 Oracle Database 11g Real Application Clusters(Oracle RAC) 및 선택적 Oracle Solaris Cluster 소프트웨어와 같은 클러스터링 소프트웨어를 결합합니다. 이 결합으로 보안, 신뢰성 및 성능 요구 사항이 다양화 된 동시 배포 응용 프로그램 간의 격리 수준을 높일 수 있습니다. Oracle SuperCluster T5-8 을 통해 고객은 전체 응용 프로그램 포트폴리오의 종단간 통합을 지원할 수 있는 단일 환경을 개발할 수 있습니다. Oracle SuperCluster T5-8은 검색 중심 데이터 웨어하우스 응용 프로그램부터 고도의 동시 OLTP(온라인 트랜잭션 처리) 응용 프로그램에 이르기까지 모든 데이터베이스 작업 부하에 최적의 솔루션을 제공합니다. 스마트 Oracle Exadata Storage Server 소프트웨어, 완전하 고 지능적인 Oracle 데이터베이스 소프트웨어 및 최신 산업 표준 하드웨어 구성 요소의 결 합을 통해 Oracle SuperCluster T5-8은 고가용성의 보안이 뛰어난 환경에서 최고의 성능 을 제공합니다. Oracle은 고유한 클러스터링 및 작업 부하 관리 기능을 제공하므로 Oracle SuperCluster T5-8은 여러 데이터베이스를 단일 그리드로 통합하는 데 매우 적합합니다. 완 전하게 사전에 최적화되고 사전에 구성된 소프트웨어, 서버 및 저장소 패키지로 제공되기 때 문에 Oracle SuperCluster T5-8은 빠르게 구현되고 대규모 비즈니스 응용 프로그램을 시작 할 수 있습니다. 시스템 이해 11

Oracle SuperCluster T5-8 이해 Oracle SuperCluster T5-8에는 Oracle 소프트웨어 라이센스가 포함되어 있지 않습니다. Oracle SuperCluster T5-8이 데이터베이스 서버로 사용되는 경우 다음 소프트웨어의 적절 한 라이센스가 필요합니다. Oracle 데이터베이스 소프트웨어 Oracle Exadata Storage Server 소프트웨어 또한 Oracle은 다음 소프트웨어 라이센스의 취득을 권장합니다. Oracle Real Application Clusters Oracle Partitioning Oracle SuperCluster T5-8은 단일 대규모 컴퓨팅 장치를 형성하기 위해 Oracle SuperCluster T5-8 내에서 모든 처리, 저장소, 메모리 및 외부 네트워크 인터페이스 를 연결하는 내부 InfiniBand 패브릭을 완전히 이용하도록 설계되었습니다. 각 Oracle SuperCluster T5-8는 10GbE(트래픽) 및 1GbE(관리) 인터페이스를 통해 데이터 센터 네트 워크에 연결됩니다. 사용 가능한 InfiniBand 확장 포트 및 선택적 데이터 센터 스위치를 사용하여 Exadata 또 는 Exalogic 시스템과 Oracle SuperCluster T5-8 시스템을 통합할 수 있습니다. Oracle SuperCluster T5-8에서 사용되는 InfiniBand 기술은 매우 높은 대역폭, 낮은 대기 시 간, 하드웨어 레벨 신뢰성 및 보안을 제공합니다. 확장성이 높은 결함 포용 시스템에 대해 Oracle의 모범 사례를 따르는 응용 프로그램을 사용하는 경우 Oracle SuperCluster T5-8 의 이점을 누리기 위해 응용 프로그램 구조 또는 디자인을 변경할 필요가 없습니다. Oracle SuperCluster T5-8 시스템을 여러 개 연결하거나 Oracle SuperCluster T5-8 시스템과 Oracle Exadata 데이터베이스 시스템의 조합을 연결하여 단일 대규모 환경을 개발할 수 있 습니다. 각 SPARC T5-8 서버의 사용 가능한 10GbE 포트를 사용하면 Oracle SuperCluster T5-8 시스템을 현재 데이터 센터 기반구조와 통합할 수 있습니다. 스페어 키트 구성 요소 Oracle SuperCluster T5-8에는 다음 구성 요소를 포함하는 스페어 키트가 포함되어 있습니 다. Exadata Storage Server 유형에 따라 Exadata Storage Server에 대한 예비용으로 구 성된 다음 디스크 중 한 개: 첫번째 Exadata Storage Server 유형: - 600GB 10K RPM 고성능 SAS 디스크 - 3TB 7.2K RPM 대용량 SAS 디스크 두번째 Exadata Storage Server 유형: - 1.2TB 10K RPM 고성능 SAS 디스크 12-4TB 7.2K RPM 대용량 SAS 디스크 ZFS Storage Appliance에 대한 예비용으로 구성된 대용량 SAS 디스크 한 개: Oracle SuperCluster T5-8 2014년 10월

Oracle SuperCluster T5-8 이해 Sun ZFS Storage 7320 저장소 어플라이언스에 대한 예비용으로 구성된 3TB 대 용량 SAS 디스크 한 개 또는 Oracle ZFS Storage ZS3-ES 저장소 어플라이언스에 대한 예비용으로 구성된 4TB 대용량 SAS 디스크 한 개 Exadata 스마트 플래시 캐시 카드 다중 랙을 함께 연결하는 데 사용되는 InfiniBand 케이블 Oracle SuperCluster T5-8 제한 사항 Oracle SuperCluster T5-8에 대한 하드웨어 및 소프트웨어 수정에 적용되는 제한 사항은 다 음과 같습니다. 이러한 제한 사항을 위반할 경우 보증 및 지원이 제공되지 않을 수 있습니다. Oracle SuperCluster T5-8 하드웨어는 수정하거나 사용자 정의할 수 없습니다. 이에 대한 예외는 단 한 가지입니다. Oracle SuperCluster T5-8에 대한 하드웨어 수정이 허 용되는 유일한 경우는 Oracle SuperCluster T5-8과 함께 제공되는 관리 48 포트 Cisco 4948 기가비트 이더넷 스위치입니다. 고객은 다음 사항을 선택할 수 있습니다. 고객의 부담으로 기가비트 이더넷 스위치를 내부 데이터 센터 네트워크 표준을 따 르는 동급의 1U 48 포트 기가비트 이더넷 스위치로 교체할 수 있습니다. 이러한 교 체는 Oracle SuperCluster T5-8이 배달된 후 고객의 자비로 직접 수행해야 합니 다. 고객이 이와 같이 변경하도록 선택한 경우 Oracle은 여러 가지 가능한 시나리 오가 제공되는 한 이러한 변경을 수행하거나 지원하지 않으며, 이러한 변경은 표준 설치의 일부로 포함되지 않습니다. 고객이 교체 하드웨어를 제공해야 하며, 다른 방 법을 통해 이러한 변경을 수행하거나 준비해야 합니다. Cisco 4948 이더넷 스위치에 연결된 CAT5 케이블을 제거한 다음 외부 스위치 또 는 패치 패널을 통해 이 케이블을 고객의 네트워크에 연결하십시오. 이러한 변경은 고객의 자비로 직접 수행해야 합니다. 이 경우 랙에 있는 Cisco 4948 이더넷 스위 치를 끄고 데이터 센터 네트워크와의 연결을 끊을 수 있습니다. Oracle Exadata Storage 확장 랙의 경우 Oracle SuperCluster T5-8 또는 Oracle Exadata 데이터베이스 시스템에만 연결할 수 있으며, Oracle SuperCluster T5-8의 Oracle Database(DB) 도메인 또는 Oracle Exadata 데이터베이스 시스템의 데이터베 이스 서버에서 실행 중인 데이터베이스만 지원합니다. 독립형 Exadata Storage Server의 경우 Oracle SuperCluster T5-8 또는 Oracle Exadata 데이터베이스 시스템에만 연결할 수 있으며, Oracle SuperCluster T5-8의 데 이터베이스 도메인 또는 Oracle Exadata 데이터베이스 시스템의 데이터베이스 서버에 서 실행 중인 데이터베이스만 지원합니다. 독립 실행형 Exadata Storage Server는 별 도의 랙에 설치해야 합니다. 이전 Oracle Database 릴리스는 Oracle Solaris 10을 실행 중인 응용 프로그램 도메인 에서 실행할 수 있습니다. Oracle 이외의 데이터베이스는 지원되는 Oracle Solaris 버전 에 따라 Oracle Solaris 10 또는 Oracle Solaris 11을 실행 중인 응용 프로그램 도메인 에서 실행할 수 있습니다. Oracle Exadata Storage Server 소프트웨어 및 운영 체제는 수정할 수 없으며, 고객이 Exadata Storage Server에 추가 소프트웨어나 에이전트를 설치할 수 없습니다. 시스템 이해 13

하드웨어 구성 요소 식별 고객이 Exadata Storage Server에서 직접 펌웨어를 업데이트할 수 없습니다. 펌웨어는 Exadata Storage Server 패치의 일부로 업데이트됩니다. SPARC T5-8 서버의 데이터베이스 도메인에는 고객이 추가 소프트웨어를 로드할 수 있 습니다. 그러나 최상의 성능을 위해 Oracle은 백업 에이전트 및 보안 모니터링 에이전트 등의 에이전트를 제외한 다른 소프트웨어를 데이터베이스 도메인에 추가하는 것을 권 장하지 않습니다. 비표준 커널 모듈을 데이터베이스 도메인 운영 체제로 로드하는 기능 은 허용되지만 권장되지는 않습니다. Oracle은 비표준 모듈에 관한 질문이나 문제를 지 원하지 않습니다. 서버 충돌이 발생하며 이 충돌의 원인이 비표준 모듈로 의심될 경우, 오라클 고객 지원 센터에서는 비표준 모듈의 공급업체에게 문의하도록 고객에게 요청 하거나 비표준 모듈을 사용하지 않을 경우 문제가 다시 발생하지 않음을 요청할 수 있습 니다. 공식 패치 및 업그레이드를 적용하는 것 이외에 데이터베이스 도메인 운영 체제를 수정하는 것은 지원되지 않습니다. InfiniBand 관련 패키지는 항상 공식적으로 지원되 는 릴리스에서 유지 관리해야 합니다. Oracle SuperCluster T5-8은 InfiniBand를 통해 데이터베이스 도메인에 대해 높은 처 리량과 낮은 대기 시간 액세스를 제공하는 응용 프로그램 전용의 별도 도메인을 지원합 니다. Oracle Database는 본래 클라이언트 서버이므로, 응용 프로그램 도메인에서 실 행되는 응용 프로그램을 데이터베이스 도메인에서 실행되는 데이터베이스 인스턴스에 연결할 수 있습니다. 응용 프로그램을 데이터베이스 도메인에서 실행할 수는 있지만, 권 장되지 않습니다. Oracle Exadata Storage Server 소프트웨어 사용자 안내서 및 본 안내서에 언급된 사 항 이외에는 고객이 USB 장치를 Exadata Storage Server에 연결할 수 없습니다. 이러 한 안내서에 언급된 상황에서는 USB 장치가 100mA 이상의 전력을 사용해서는 안됩니 다. SPARC T5-8 서버의 네트워크 포트는 iscsi 또는 NFS를 사용하여 Exadata Storage Server가 아닌 외부 서버에 연결하는 데 사용할 수 있습니다. 그러나 FCoE(Fibre Channel Over Ethernet) 프로토콜은 지원되지 않습니다. Oracle SuperCluster T5-8, Oracle Exadata 랙 및 Oracle Exalogic Elastic Cloud용으로 지정된 스위치만 InfiniBand 네트워크에 연결할 수 있습니다. Oracle SuperCluster T5-8, Oracle Exadata 랙 및 Oracle Exalogic Elastic Cloud에 사용되 지 않는 다른 스위치와 타사 스위치에 연결하는 것은 지원되지 않습니다. 하드웨어 구성 요소 식별 Oracle SuperCluster T5-8은 필수 InfiniBand 및 이더넷 네트워킹 구성 요소를 비롯하 여 SPARC T5-8 서버, Exadata Storage Server 및 ZFS Storage Appliance(Sun ZFS Storage 7320 어플라이언스 또는 Oracle ZFS Storage ZS3-ES 저장소 어플라이언스)로 구 성됩니다. 이 절은 다음 항목으로 구성됩니다. 14 풀 랙 구성 요소 [15] 하프 랙 구성 요소 [17] Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 식별 풀 랙 구성 요소 그림 1 Oracle SuperCluster T5-8 풀 랙 레이아웃, 전면 보기 1 범례 Exadata Storage Server(8) 그림 2 3 4 5 6 7 ZFS 저장소 컨트롤러 (2) Sun Datacenter InfiniBand Switch 36 리프 스위치 (2) Sun Disk Shelf Cisco Catalyst 4948 이더넷 관리 스위치 SPARC T5-8 서버(2개, 각 서버당 4개의 프로세서 모듈 포함) Sun Datacenter InfiniBand Switch 36 스파인 스위치 시스템 이해 15

하드웨어 구성 요소 식별 Oracle Exadata Storage 확장 랙을 사용하여 시스템의 디스크 저장소 크기를 확장할 수 있 습니다. 자세한 내용은 Oracle Exadata Storage 확장 랙 구성 요소 [287]를 참조하십 시오. Oracle SuperCluster T5-8 시스템을 8개까지 함께 연결하거나 Oracle SuperCluster T5-8 시스템과 Oracle Exadata 또는 Exalogic 시스템의 조합을 동일한 InfiniBand 패브릭에 외 부 스위치 없이 연결할 수 있습니다. 자세한 내용은 다중 Oracle SuperCluster T5-8 시스템 연결을 참조하십시오. 16 Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 식별 하프 랙 구성 요소 그림 2 Oracle SuperCluster T5-8 하프 랙 레이아웃, 전면 보기 1 범례 ZFS 저장소 컨트롤러 (2) 그림 2 3 4 5 6 7 Sun Datacenter InfiniBand Switch 36 리프 스위치 (2) Sun Disk Shelf Cisco Catalyst 4948 이더넷 관리 스위치 SPARC T5-8 서버(2개, 각 서버당 2개의 프로세서 모듈 포함) Exadata Storage Server(4) Sun Datacenter InfiniBand Switch 36 스파인 스위치 시스템 이해 17

하드웨어 구성 요소 및 연결 이해 Oracle Exadata Storage 확장 랙을 사용하여 시스템의 디스크 저장소 크기를 확장할 수 있 습니다. 자세한 내용은 Oracle Exadata Storage 확장 랙 구성 요소 [287]를 참조하십 시오. Oracle SuperCluster T5-8 시스템을 8개까지 함께 연결하거나 Oracle SuperCluster T5-8 시스템과 Oracle Exadata 또는 Exalogic 시스템의 조합을 동일한 InfiniBand 패브릭에 외 부 스위치 없이 연결할 수 있습니다. 자세한 내용은 다중 Oracle SuperCluster T5-8 시스템 연결을 참조하십시오. 하드웨어 구성 요소 및 연결 이해 다음 항목은 다양한 네트워크에 대한 연결뿐만 아니라 Oracle SuperCluster T5-8의 고성능 또는 고가용성에 대해 전체 중복성을 제공하도록 하드웨어 구성 요소 및 연결을 구성하는 방 법을 설명합니다. 하드웨어 구성 요소 이해 [18] 물리적 연결 이해 [20] 하드웨어 구성 요소 이해 다음 Oracle SuperCluster T5-8 하드웨어 구성 요소는 시스템 내 구성 요소 간의 물리적 연 결이나 구성 요소를 통해 전체 중복성을 제공합니다. SPARC T5-8 서버 [18] Exadata Storage Server [19] ZFS Storage Appliance [19] Sun Datacenter InfiniBand Switch 36 스위치 [20] Cisco Catalyst 4948 이더넷 관리 스위치 [20] 배전 장치 [20] SPARC T5-8 서버 Oracle SuperCluster T5-8의 풀 랙 버전에는 각각 4개의 프로세서 모듈이 포함된 2개의 SPARC T5-8 서버가 포함됩니다. Oracle SuperCluster T5-8의 하프 랙 버전에도 SPARC T5-8 서버가 2개 포함되지만, 각 서버당 2개의 프로세서 모듈이 포함됩니다. SPARC T5-8 서버의 중복성은 다음 두 가지 방법으로 구현됩니다. 18 서버 간의 연결을 통해( SPARC T5-8 서버 물리적 연결 이해 [21] 참조) SPARC T5-8 서버의 구성 요소를 통해 팬 모듈 각 SPARC T5-8 서버에는 10개의 팬 모듈이 포함되어 있습니다. 팬 모듈 중 한 개가 고장나도 SPARC T5-8 서버는 계속 전체 용량으로 작동됩니다. Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 및 연결 이해 디스크 드라이브 각 SPARC T5-8 서버에는 8개의 하드 드라이브가 포함됩니다. Oracle SuperCluster T5-8 소프트웨어는 8개의 디스크 드라이브 간에 중복성을 제공합니다. 프로세서 모듈 Oracle SuperCluster T5-8에는 2개의 SPARC T5-8 서버가 포함 됩니다. Oracle SuperCluster T5-8의 풀 랙 버전의 경우 각 SPARC T5-8 서버에는 4개의 프로세서 모듈이 포함됩니다. 각 프로세서 모듈에는 2개의 소켓 또는 PCIe 루트 컴 플렉스 쌍이 있으며, 각 소켓에는 16개 코어가 연결되고, 각 SPARC T5-8 서버에 총 8개의 소켓 또는 PCIe 루트 컴플렉스 쌍(128개 코어)이 있습니다. Oracle SuperCluster T5-8의 하프 랙 버전의 경우 각 SPARC T5-8 서버에는 2 개의 프로세서 모듈이 포함됩니다. 각 프로세서 모듈에는 2개의 소켓 또는 PCIe 루 트 컴플렉스 쌍이 있으며, 각 소켓에는 16개 코어가 연결되고, 각 SPARC T5-8 서 버에 총 4개의 소켓 또는 PCIe 루트 컴플렉스 쌍(64개 코어)이 있습니다. Exadata Storage Server Oracle SuperCluster T5-8의 풀 랙 버전은 8개의 Exadata Storage Server로 구성됩니다. Oracle SuperCluster T5-8의 하프 랙 버전은 4개의 Exadata Storage Server로 구성됩니 다. Exadata Storage Server의 중복성은 다음 두 가지 방법으로 구현됩니다. Exadata Storage Server 간의 연결을 통해. 자세한 내용은 Exadata Storage Server 물리적 연결 이해 [30]을 참조하십시오. Exadata Storage Server의 구성 요소를 통해 전원 공급 장치 각 Exadata Storage Server에는 두 개의 전원 공급 장치가 포함 되어 있습니다. 전원 공급 장치 중 한 개 또는 배전 장치 중 한 개가 고장나는 경우 에도 Exadata Storage Server가 계속 정상적으로 작동할 수 있습니다. 디스크 드라이브 각 Exadata Storage Server에는 12개의 디스크 드라이브가 포 함되어 있어 Oracle SuperCluster T5-8을 처음 주문할 때 고용량 또는 고성능을 위해 설계된 디스크 드라이브 중에서 선택할 수 있습니다. Oracle SuperCluster T5-8 소프트웨어는 개별 Exadata Storage Server 내에 있는 12개의 디스크 드라 이브 간에 중복성을 제공합니다. 자세한 내용은 데이터베이스 도메인용 클러스터 소프트웨어 [77]를 참조하십시오. ZFS Storage Appliance 각 Oracle SuperCluster T5-8에는 풀 랙 또는 하프 랙 버전의 ZFS Storage Appliance가 한 개 포함되어 있습니다. ZFS Storage Appliance는 다음 요소로 구성됩니다. ZFS 저장소 컨트롤러 2개 Sun Disk Shelf 1개 ZFS Storage Appliance의 중복성은 다음 두 가지 방법으로 구현됩니다. 시스템 이해 19

하드웨어 구성 요소 및 연결 이해 두 개의 ZFS 저장소 컨트롤러에서 Sun Disk Shelf로의 연결을 통해. 자세한 내용은 ZFS Storage Appliance 물리적 연결 이해 [33]을 참조하십시오. ZFS Storage Appliance 자체 내의 구성 요소를 통해 전원 공급 장치 각 ZFS 저장소 컨트롤러 및 Sun Disk Shelf에는 두 개의 전원 공 급 장치가 포함되어 있습니다. 이러한 전원 공급 장치 중 한 개가 고장나도 각 ZFS 저장소 컨트롤러 및 Sun Disk Shelf는 계속 정상적으로 작동할 수 있습니다. 디스크 드라이브 각 ZFS 저장소 컨트롤러에는 두 개의 미러된 부트 드라이브가 포함되어 있으므로 부트 드라이브 한 개가 고장나도 컨트롤러는 여전히 정상적 으로 부트되어 작동할 수 있습니다. Sun Disk Shelf에는 Oracle SuperCluster T5-8의 저장소에 사용되는 20개의 하드 디스크 드라이브와 쓰기가 최적화된 캐 시 장치(logzillas라고도 함)로 사용되는 4개의 SSD가 포함되어 있습니다. Oracle SuperCluster T5-8 소프트웨어는 디스크 드라이브 간에 중복성을 제공합니다. 자 세한 내용은 소프트웨어 구성 이해 [40]를 참조하십시오. Sun Datacenter InfiniBand Switch 36 스위치 각 Oracle SuperCluster T5-8에는 풀 랙 또는 하프 랙 버전의 Sun Datacenter InfiniBand Switch 36 스위치가 3개 포함되어 있으며 이 중 두 개는 리프 스위치입니다. 세번째 스위치 는 두 개의 랙을 함께 연결하기 위한 스파인 스위치로 사용됩니다. 두 개의 리프 스위치 중 한 개가 고장나는 경우 중복성을 제공하도록 두 개의 리프 스위치가 서로 연결되어 있습니다. 또 한 두 개의 리프 스위치 중 한 개가 고장나는 경우 InfiniBand 연결에 중복성을 제공하도록 각 SPARC T5-8 서버, Exadata Storage Server 및 ZFS 저장소 컨트롤러이 두 리프 스위치 에 모두 연결되어 있습니다. 자세한 내용은 물리적 연결 이해 [20]를 참조하십시오. Cisco Catalyst 4948 이더넷 관리 스위치 Cisco Catalyst 4948 이더넷 관리 스위치에는 두 개의 전원 공급 장치가 있습니다. 이러한 전원 공급 장치 중 한 개가 고장나도 Cisco Catalyst 4948 이더넷 관리 스위치가 계속 정상 적으로 작동할 수 있습니다. 배전 장치 각 Oracle SuperCluster T5-8에는 풀 랙 또는 하프 랙 버전의 전원 분배 장치가 두 개 포함 되어 있습니다. 두 개의 전원 분배 장치 중 한 개가 고장나는 경우 전원이 이러한 구성 요소에 계속 공급될 수 있도록 Oracle SuperCluster T5-8 내의 구성 요소가 두 전원 분배 장치에 모 두 연결되어 있습니다. 자세한 내용은 배전 장치 물리적 연결 [39]을 참조하십시오. 물리적 연결 이해 다음 항목은 Oracle SuperCluster T5-8 내 구성 요소 간의 물리적 연결에 대해 설명합니다. 20 Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 및 연결 이해 SPARC T5-8 서버 물리적 연결 이해 [21] Exadata Storage Server 물리적 연결 이해 [30] ZFS Storage Appliance 물리적 연결 이해 [33] 배전 장치 물리적 연결 [39] SPARC T5-8 서버 물리적 연결 이해 다음 항목은 서버에 대한 4세트의 물리적 연결과 관련된 정보뿐만 아니라 SPARC T5-8 서버 에 대한 물리적 연결에 사용되는 카드 및 포트의 위치 정보를 제공합니다. PCIe 슬롯(SPARC T5-8 서버) [21] 카드 위치(SPARC T5-8 서버) [23] NET MGT 및 NET0-3 포트 위치(SPARC T5-8 서버) [25] InfiniBand 개인 네트워크 물리적 연결(SPARC T5-8 서버) [26] Oracle ILOM 관리 네트워크 물리적 연결(SPARC T5-8 서버) [28] 1GbE 호스트 관리 네트워크 물리적 연결(SPARC T5-8 서버) [29] 10GbE 클라이언트 액세스 네트워크 물리적 연결(SPARC T5-8 서버) [29] PCIe 슬롯(SPARC T5-8 서버) 각 Oracle SuperCluster T5-8에는 풀 랙 또는 하프 랙에 관계없이 2개의 SPARC T5-8 서버 가 포함됩니다. Oracle SuperCluster T5-8의 풀 랙 또는 하프 랙 버전 간의 차이는 SPARC T5-8 서버 수가 아니라 각 SPARC T5-8 서버에 있는 프로세서 모듈 수입니다. 풀 랙의 경우 프로세서 모듈이 4개 포함되고, 하프 랙의 경우에는 프로세서 모듈이 2개 포함됩니다. 자세 한 내용은 SPARC T5-8 서버 [18]을 참조하십시오. 각 SPARC T5-8 서버에는 PCIe 슬롯이 16개 포함됩니다. 풀 랙 모든 16개 PCIe 슬롯에 액세스할 수 있으며, 모든 16개 PCIe 슬롯이 InfiniBand HCA 또는 10GbE NIC로 채워집니다. 하프 랙 모든 16개 PCIe 슬롯에 액세스할 수 있지만 16개 PCIe 슬롯 중 8개만 InfiniBand HCA 또는 10GbE NIC로 채워집니다. 남은 8개 PCIe 슬롯은 선택적 광 섬 유 채널 PCIe 카드에 사용할 수 있습니다. 다음 그림에서는 Oracle SuperCluster T5-8 풀 랙 및 하프 랙 버전의 토폴로지를 보여줍니 다. 또한 카드 위치(SPARC T5-8 서버) [23]에서 자세한 내용을 참조하십시오. 시스템 이해 21

하드웨어 구성 요소 및 연결 이해 그림 3 22 Oracle SuperCluster T5-8 풀 랙 버전의 토폴로지 Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 및 연결 이해 그림 4 Oracle SuperCluster T5-8 하프 랙 버전의 토폴로지 카드 위치(SPARC T5-8 서버) 다음 그림에서는 Oracle SuperCluster T5-8 풀 랙 및 하프 랙 버전에서 SPARC T5-8 서버 에 대한 물리적 연결을 위해 사용되는 카드를 보여줍니다. 시스템 이해 23

하드웨어 구성 요소 및 연결 이해 참고 - Oracle SuperCluster T5-8 하프 랙 버전의 경우 16개 PCIe 슬롯 중 8개가 InfiniBand HCA 또는 10GbE NIC로 채워집니다. 하지만 모든 16개 PCIe 슬롯에 액세스할 수 있으므로 남은 8개 PCIe 슬롯을 선택적 광 섬유 채널 PCIe 카드에 사용할 수 있습니다. 자 세한 내용은 선택적 광 섬유 채널 PCIe 카드 사용 [131]을 참조하십시오. 그림 5 카드 위치(풀 랙) 그림 범례 1 2 24 이중 포트 10GbE 네트워크 인터페이스 카드 - 10GbE 클라이언트 액세스 네트워크 연결용( 10GbE 클라이 언트 액세스 네트워크 물리적 연결(SPARC T5-8 서버) [29] 참조) 이중 포트 InfiniBand 호스트 채널 어댑터 - InfiniBand 네트워크 연결용( InfiniBand 개인 네트워크 물리적 연결(SPARC T5-8 서버) [26] 참조) Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 및 연결 이해 그림 6 카드 위치(하프 랙) 그림 범례 1 2 이중 포트 10GbE 네트워크 인터페이스 카드 - 10GbE 클라이언트 액세스 네트워크 연결용( 10GbE 클라이 언트 액세스 네트워크 물리적 연결(SPARC T5-8 서버) [29] 참조) 이중 포트 InfiniBand 호스트 채널 어댑터 - InfiniBand 네트워크 연결용( InfiniBand 개인 네트워크 물리적 연결(SPARC T5-8 서버) [26] 참조) NET MGT 및 NET0-3 포트 위치(SPARC T5-8 서버) 다음 그림은 SPARC T5-8 서버의 물리적 연결에 사용되는 NET MGT 및 NET0-3 포트를 보 여줍니다. 시스템 이해 25

하드웨어 구성 요소 및 연결 이해 그림 7 NET MGT 및 NET0-3 포트 위치 그림 범례 1 2 NET MGT 포트 - Oracle ILOM 관리 네트워크 연결용( Oracle ILOM 관리 네트워크 물리적 연결(SPARC T5-8 서버) [28] 참조) NET0-NET3 포트 - 1GbE 호스트 관리 네트워크 연결용( 1GbE 호스트 관리 네트워크 물리적 연결(SPARC T5-8 서버) [29] 참조) InfiniBand 개인 네트워크 물리적 연결(SPARC T5-8 서버) 각 SPARC T5-8 서버에는 이중 포트 Sun QDR InfiniBand PCIe 로우 프로파일 HCA(호스 트 채널 어댑터)가 여러 개 포함되어 있습니다. SPARC T5-8 서버에서 InfiniBand HCA 수 및 해당 위치는 Oracle SuperCluster T5-8 구성에 따라 다릅니다. 풀 랙: 8개 InfiniBand HCA, 다음 PCIe 슬롯에 설치됨: PCIe 슬롯 3 PCIe 슬롯 4 PCIe 슬롯 7 PCIe 슬롯 8 PCIe 슬롯 11 PCIe 슬롯 12 PCIe 슬롯 15 PCIe 슬롯 16 하프 랙: 4개 InfiniBand HCA, 다음 PCIe 슬롯에 설치됨: PCIe 슬롯 3 PCIe 슬롯 8 PCIe 슬롯 11 PCIe 슬롯 16 InfiniBand HCA 위치에 대한 자세한 내용은 카드 위치(SPARC T5-8 서버) [23]를 참 조하십시오. 26 Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 및 연결 이해 각 InfiniBand HCA에 있는 두 개의 포트(포트 1 및 2)가 SPARC T5-8 서버와 리프 스위치 간에 중복성을 제공하도록 서로 다른 리프 스위치에 연결됩니다. 다음 그림은 풀 랙 및 하프 랙 구성에서 SPARC T5-8 서버와 리프 스위치 간의 InfiniBand 연결을 통해 중복성이 구현 되는 방법을 보여줍니다. 그림 8 SPARC T5-8 서버에 대한 InfiniBand 연결, 풀 랙 시스템 이해 27

하드웨어 구성 요소 및 연결 이해 그림 9 SPARC T5-8 서버에 대한 InfiniBand 연결, 하프 랙 이 절에서는 InfiniBand 개인 네트워크의 물리적 연결에 대해서만 설명합니다. 논리적 도메 인이 각 SPARC T5-8 서버에 대해 만들어지면 SPARC T5-8 서버에 대해 만들어진 도메인의 유형에 따라 InfiniBand 개인 네트워크가 다르게 구성됩니다. 또한 각 SPARC T5-8 서버에 만들어진 도메인의 유형에 따라 InfiniBand 네트워크에 필요한 IP 주소 수도 달라집니다. 자 세한 내용은 소프트웨어 구성 이해 [40]를 참조하십시오. Oracle ILOM 관리 네트워크 물리적 연결(SPARC T5-8 서버) 각 SPARC T5-8 서버는 각 SPARC T5-8 서버의 후면에 있는 단일 Oracle ILOM 네트워크 포 트(NET MGT 포트)를 통해 Oracle ILOM(Integrated Lights Out Manager) 관리 네트워 28 Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 및 연결 이해 크에 연결됩니다. 각 SPARC T5-8 서버의 Oracle ILOM 관리를 위해 한 개의 IP 주소가 필요 합니다. NET MGT 포트의 위치에 대한 자세한 내용은 NET MGT 및 NET0-3 포트 위치(SPARC T5-8 서버) [25]를 참조하십시오. 1GbE 호스트 관리 네트워크 물리적 연결(SPARC T5-8 서버) 각 SPARC T5-8 서버는 각 SPARC T5-8 서버의 후면에 있는 4개의 1GbE 호스트 관리 포트 (NET0 - NET3 포트)를 통해 1GbE 호스트 관리 네트워크에 연결됩니다. 그러나 1GbE 호스 트 관리 연결이 사용되는 방식은 논리적 도메인으로 인해 물리적 연결과 다릅니다. 자세한 내 용은 소프트웨어 구성 이해 [40]를 참조하십시오. 1GbE 호스트 관리 포트의 위치에 대한 자세한 내용은 NET MGT 및 NET0-3 포트 위치 (SPARC T5-8 서버) [25]를 참조하십시오. 10GbE 클라이언트 액세스 네트워크 물리적 연결(SPARC T5-8 서버) 각 SPARC T5-8 서버에는 이중 포트 Sun Dual 10GbE SFP+ PCIe 2.0 로우 프로파일 NIC(네트워크 인터페이스 카드)가 여러 개 포함되어 있습니다. SPARC T5-8 서버에서 10GbE NIC 수 및 해당 위치는 Oracle SuperCluster T5-8 구성에 따라 다릅니다. 풀 랙: 8개 10GbE NIC, 다음 PCIe 슬롯에 설치됨: PCIe 슬롯 1 PCIe 슬롯 2 PCIe 슬롯 5 PCIe 슬롯 6 PCIe 슬롯 9 PCIe 슬롯 10 PCIe 슬롯 13 PCIe 슬롯 14 하프 랙: 4개 10GbE NIC, 다음 PCIe 슬롯에 설치됨: PCIe 슬롯 1 PCIe 슬롯 6 PCIe 슬롯 9 PCIe 슬롯 14 10GbE NIC 위치는 카드 위치(SPARC T5-8 서버) [23]를 참조하십시오. 구성에 따라 10GbE NIC의 포트 중 한두 개(포트 0 및 1)가 클라이언트 액세스 네트워크에 연결됩니다. 어떤 구성에서는 동일한 10GbE NIC의 두 포트가 IPMP 그룹에 속해서 중복 시스템 이해 29

하드웨어 구성 요소 및 연결 이해 성을 제공하고 대역폭을 늘립니다. 다른 구성에서는 별개의 두 10GbE NIC에서 한 포트씩 IPMP 그룹에 속합니다. 각 SPARC T5-8 서버에 만들어진 도메인 유형에 따라 10GbE 클라이언트 액세스 네트워크 에 대한 물리적 연결 수가 달라집니다. 자세한 내용은 소프트웨어 구성 이해 [40]를 참 조하십시오. Exadata Storage Server 물리적 연결 이해 각 Exadata Storage Server에는 3세트의 물리적 연결이 포함되어 있습니다. InfiniBand 개인 네트워크 물리적 연결(Exadata Storage Server) [30] Oracle ILOM 관리 네트워크 물리적 연결(Exadata Storage Server) [32] 1GbE 호스트 관리 네트워크 물리적 연결(Exadata Storage Server) [33] InfiniBand 개인 네트워크 물리적 연결(Exadata Storage Server) 각 Exadata Storage Server에는 이중 포트 Sun QDR InfiniBand PCIe 편평 호스트 채널 어 댑터(HCA)가 한 개 포함되어 있습니다. 사용 가능한 대역폭을 늘리기 위해 InfiniBand HCA 에 있는 두 포트가 함께 연결됩니다. 연결되면 두 포트는 두 개의 연결된 포트에 지정된 단일 IP 주소를 사용하는 단일 포트로 표시되며 InfiniBand 개인 네트워크 연결에 대한 IP 주소가 Exadata Storage Server마다 한 개씩 생성됩니다. InfiniBand HCA에 있는 두 포트는 Exadata Storage Server와 리프 스위치 간에 중복성 을 제공하도록 서로 다른 리프 스위치에 연결됩니다. 다음 그림은 풀 랙 및 하프 랙 구성에서 Exadata Storage Server와 리프 스위치 간의 InfiniBand 연결을 통해 중복성이 구현되는 방법을 보여줍니다. 30 Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 및 연결 이해 그림 10 Exadata Storage Server에 대한 InfiniBand 연결, 풀 랙 시스템 이해 31

하드웨어 구성 요소 및 연결 이해 그림 11 Exadata Storage Server에 대한 InfiniBand 연결, 하프 랙 Oracle ILOM 관리 네트워크 물리적 연결(Exadata Storage Server) 각 Exadata Storage Server는 각 Exadata Storage Server의 후면에 있는 단일 Oracle ILOM 네트워크 포트(NET MGT 포트)를 통해 Oracle ILOM 관리 네트워크에 연결됩니다. 각 Exadata Storage Server의 Oracle ILOM 관리를 위해 한 개의 IP 주소가 필요합니다. 32 Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 및 연결 이해 1GbE 호스트 관리 네트워크 물리적 연결(Exadata Storage Server) 각 Exadata Storage Server는 각 Exadata Storage Server의 후면에 있는 1GbE 호스트 관리 포트(NET 0 포트)를 통해 1GbE 호스트 관리 네트워크에 연결됩니다. 각 Exadata Storage Server의 1GbE 호스트 관리를 위해 한 개의 IP 주소가 필요합니다. ZFS Storage Appliance 물리적 연결 이해 ZFS Storage Appliance에는 5세트의 물리적 연결이 있습니다. InfiniBand 개인 네트워크 물리적 연결(ZFS Storage Appliance) [33] Oracle ILOM 관리 네트워크 물리적 연결(ZFS Storage Appliance) [35] 1GbE 호스트 관리 네트워크 물리적 연결(ZFS Storage Appliance) [36] SAS 물리적 연결(ZFS Storage Appliance) [36] 클러스터 물리적 연결(ZFS Storage Appliance) [38] InfiniBand 개인 네트워크 물리적 연결(ZFS Storage Appliance) ZFS Storage Appliance는 두 개의 ZFS 저장소 컨트롤러 중 한 개를 통해 InfiniBand 개인 네트워크에 연결됩니다. ZFS 저장소 컨트롤러에는 Sun Dual Port 40GB InfiniBand QDR HCA가 한 개 포함되어 있습니다. 사용 가능한 대역폭을 늘리기 위해 각 InfiniBand HCA 에 있는 두 포트가 함께 연결됩니다. 연결되면 두 포트는 두 개의 연결된 포트에 지정된 단일 IP 주소를 사용하는 단일 포트로 표시되며 InfiniBand 개인 네트워크 연결에 대한 IP 주소가 ZFS 저장소 컨트롤러마다 한 개씩 생성됩니다. InfiniBand HCA에 있는 두 포트는 ZFS 저장소 컨트롤러와 리프 스위치 간에 중복성을 제공 하도록 서로 다른 리프 스위치에 연결됩니다. 다음 그림은 풀 랙 및 하프 랙 구성에서 ZFS 저 장소 컨트롤러와 리프 스위치 간의 InfiniBand 연결을 통해 중복성이 구현되는 방법을 보여 줍니다. 시스템 이해 33

하드웨어 구성 요소 및 연결 이해 그림 12 34 ZFS 저장소 컨트롤러에 대한 InfiniBand 연결, 풀 랙 Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 및 연결 이해 그림 13 ZFS 저장소 컨트롤러에 대한 InfiniBand 연결, 하프 랙 Oracle ILOM 관리 네트워크 물리적 연결(ZFS Storage Appliance) ZFS Storage Appliance는 두 개의 ZFS 저장소 컨트롤러를 통해 Oracle ILOM 관리 네트워 크에 연결됩니다. 각 저장소 컨트롤러는 측면 관리를 사용하여 각 저장소 컨트롤러의 후면에 있는 NET0 포트를 통해 Oracle ILOM 관리 네트워크에 연결됩니다. 각 저장소 컨트롤러의 Oracle ILOM 관리를 위해 한 개의 IP 주소가 필요합니다. 시스템 이해 35

하드웨어 구성 요소 및 연결 이해 1GbE 호스트 관리 네트워크 물리적 연결(ZFS Storage Appliance) ZFS Storage Appliance는 두 개의 ZFS 저장소 컨트롤러를 통해 1GbE 호스트 관리 네트 워크에 연결됩니다. 저장소 컨트롤러는 각 저장소 컨트롤러 후면에 있는 다음 포트를 통해 1GbE 호스트 관리 네트워크에 연결됩니다. 첫번째 저장소 컨트롤러의 NET0(랙의 슬롯 25에 설치됨) 두번째 저장소 컨트롤러의 NET1(랙의 슬롯 26에 설치됨) 각 저장소 컨트롤러의 1GbE 호스트 관리를 위해 한 개의 IP 주소가 필요합니다. SAS 물리적 연결(ZFS Storage Appliance) 각 ZFS 저장소 컨트롤러는 이중 포트 SAS-2 HBA 카드로 채워집니다. 또한 Sun Disk Shelf 에는 SIM Link In 포트와 SIM Link Out 포트가 두 개씩 있습니다. 두 개의 저장소 컨트롤러 는 다음 방법으로 Sun Disk Shelf에 연결됩니다. 저장소 제어기 1 SAS-2 HBA 카드의 두 포트가 모두 Sun Disk Shelf의 SIM Link Out 포트로 연결됩니다. 저장소 제어기 2 SAS-2 HBA 카드의 두 포트가 모두 Sun Disk Shelf의 SIM Link In 포트로 연결됩니다. 다음 그림은 두 개의 저장소 컨트롤러와 Sun Disk Shelf 간의 SAS 연결을 보여줍니다. 36 Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 및 연결 이해 그림 14 Sun ZFS Storage 7320 저장소 어플라이언스에 대한 SAS 연결 그림 범례 1 2 3 저장소 제어기 1 저장소 컨트롤러 2 Sun Disk Shelf 시스템 이해 37

하드웨어 구성 요소 및 연결 이해 그림 15 Oracle ZFS Storage ZS3-ES 저장소 어플라이언스에 대한 SAS 연결 클러스터 물리적 연결(ZFS Storage Appliance) 각 ZFS 저장소 컨트롤러에는 단일 클러스터 카드가 포함되어 있습니다. 저장소 컨트롤러의 클러스터 카드는 다음 그림에 표시된 것처럼 케이블로 함께 연결되어 있습니다. 이렇게 하면 하트비트 신호가 저장소 제어기 간에 전달되어 두 저장소 컨트롤러가 모두 작동되어 실행 중 인지 확인할 수 있습니다. 38 Oracle SuperCluster T5-8 2014년 10월

하드웨어 구성 요소 및 연결 이해 배전 장치 물리적 연결 Oracle SuperCluster T5-8에는 두 개의 전원 분배 장치가 포함되어 있습니다. Oracle SuperCluster T5-8의 각 구성 요소에는 두 전원 분배 장치에 대한 중복 연결이 있습니다. SPARC T5-8 서버 각 SPARC T5-8 서버에는 4개의 AC 전원 커넥터가 있습니다. 두 개의 AC 전원 커넥터는 한 개의 배전 장치에 연결되고, 나머지 두 개의 AC 전원 커넥터 는 다른 배전 장치에 연결됩니다. Exadata Storage Server 각 Exadata Storage Server에는 두 개의 AC 전원 커넥터 가 있습니다. 한 개의 AC 전원 커넥터가 한 개의 배전 장치에 연결되고 나머지 한 개의 AC 전원 커넥터는 다른 배전 장치에 연결됩니다. ZFS 저장소 컨트롤러 각 ZFS 저장소 컨트롤러에는 두 개의 AC 전원 커넥터가 있습니 다. 한 개의 AC 전원 커넥터가 한 개의 배전 장치에 연결되고 나머지 한 개의 AC 전원 커넥터는 다른 배전 장치에 연결됩니다. Sun Disk Shelf Sun Disk Shelf에는 두 개의 AC 전원 커넥터가 있습니다. 한 개의 AC 전원 커넥터가 한 개의 배전 장치에 연결되고 나머지 한 개의 AC 전원 커넥터는 다 른 배전 장치에 연결됩니다. Sun Datacenter InfiniBand Switch 36 스위치 각 Sun Datacenter InfiniBand Switch 36 스위치에는 두 개의 AC 전원 커넥터가 있습니다. 한 개의 AC 전원 커넥터가 한 개의 배전 장치에 연결되고 나머지 한 개의 AC 전원 커넥터는 다른 배전 장치에 연결 됩니다. Cisco Catalyst 4948 이더넷 관리 스위치 Cisco Catalyst 4948 이더넷 관리 스위치 에는 두 개의 AC 전원 커넥터가 있습니다. 한 개의 AC 전원 커넥터가 한 개의 배전 장치 에 연결되고 나머지 한 개의 AC 전원 커넥터는 다른 배전 장치에 연결됩니다. 시스템 이해 39

소프트웨어 구성 이해 소프트웨어 구성 이해 Oracle SuperCluster T5-8은 논리적 도메인(LDom)으로 설정되어, 단일 하드웨어 플랫폼 에 특수한 여러 가상 시스템을 만드는 데 유연성을 제공합니다. 다음 항목에서는 사용 가능한 구성에 대해 자세히 설명합니다. 도메인 이해 [40] 일반 구성 정보 이해 [51] 하프 랙 구성 이해 [55] 풀 랙 구성 이해 [63] 도메인 이해 각 SPARC T5-8 서버에서 지원되는 도메인 수는 Oracle SuperCluster T5-8 유형에 따라 달 라집니다. Oracle SuperCluster T5-8의 하프 랙 버전: 1~4개 도메인 Oracle SuperCluster T5-8의 풀 랙 버전: 1~8개 도메인 다음 항목에서는 도메인 유형에 대해 설명합니다. 전용 도메인 [40] SR-IOV 도메인 유형 이해 [42] 전용 도메인 다음 SuperCluster 특정 도메인 유형은 항상 사용할 수 있습니다. Oracle Solaris 10을 실행 중인 응용 프로그램 도메인 Oracle Solaris 11을 실행 중인 응용 프로그램 도메인 데이터베이스 도메인 이러한 SuperCluster 특정 도메인 유형은 이제 전용 도메인이라고 부릅니다. 참고 - 데이터베이스 도메인은 또한 영역을 포함하는 상태 및 영역을 포함하지 않는 상태일 수 있습니다. SuperCluster가 초기 설치의 일부로 설정된 경우 각 도메인에 이러한 세 가지 SuperCluster 특정 전용 도메인 유형 중 하나가 지정됩니다. 이러한 전용 도메인에서는 SuperCluster의 모 40 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 든 도메인이 10GbE NIC 및 IB HCA(및 광 섬유 채널 카드, 카드 슬롯에 설치된 경우)에 직접 액세스할 수 있습니다. 다음 그림은 4개 도메인이 포함된 SuperCluster에서 이러한 개념을 보여줍니다. 전용 도메인에서는 다음 그림에 표시된 것처럼 10GbE 클라이언트 액세스 네트워크에 대한 연결이 각 10GbE NIC의 물리적 포트를 통과하며, IB 네트워크에 대한 연결은 각 IB HCA의 물리적 포트를 통과합니다. 전용 도메인에서는 SuperCluster에 대한 도메인 구성(도메인 수 및 각 도메인에 지정된 SuperCluster 특정 유형)이 초기 설치 시에 설정되며, Oracle 담당자만 이를 변경할 수 있습 니다. 시스템 이해 41

소프트웨어 구성 이해 SR-IOV 도메인 유형 이해 전용 도메인 유형(Oracle Solaris 10 또는 Oracle Solaris 11을 실행하는 데이터베이스 도메 인 및 응용 프로그램 도메인) 외에도 이제는 다음과 같은 SR-IOV(단일 루트 I/O 가상화) 도메 인 유형을 사용할 수 있습니다. 루트 도메인 [42] I/O 도메인 [46] 루트 도메인 루트 도메인은 IB HCA, 10GbE NIC 및 PCIe 슬롯에 설치된 모든 광 섬유 채널 카드와 같은 물리적 I/O 장치 또는 PF(물리적 기능)를 호스트하는 SR-IOV 도메인입니다. 해당 CPU 및 메 모리 리소스 중 거의 대부분은 나중에 I/O 도메인에서 사용할 수 있도록 보관됩니다. 논리적 장치 또는 VF(가상 기능)는 32개 VF를 호스트하는 각 PF에서 생성됩니다. 전용 도메인의 현재 방식과 마찬가지로 루트 도메인에서도 물리적 I/O 장치를 호스트하기 때 문에 루트 도메인은 본질적으로 전용 도메인과 동일한 레벨에 존재합니다. 루트 도메인 도입에 따라 SuperCluster에 대한 도메인 구성의 다음 부분이 초기 설치 시에 설정되며, Oracle 담당자만 이를 변경할 수 있습니다. 도메인 유형: 루트 도메인 Oracle Solaris 10을 실행하는 응용 프로그램 도메인(전용 도메인) Oracle Solaris 11을 실행하는 응용 프로그램 도메인(전용 도메인) 데이터베이스 도메인(전용 도메인) 서버에 있는 루트 도메인 및 전용 도메인 수 연관된 IB HCA가 한 개 또는 두 개인 경우에만 도메인이 루트 도메인이 될 수 있습니다. 연관 된 IB HCA가 세 개 이상인 경우에는 도메인이 루트 도메인이 될 수 없습니다. 세 개 이상의 IB HCA가 연관된 도메인의 경우(예: Oracle SuperCluster T5-8의 H1-1 도메인), 해당 도메 인이 전용 도메인이어야 합니다. 루트 도메인이 될 도메인을 결정할 때는 마지막 도메인이 항상 첫번째 루트 도메인이어야 하 며, 구성에서 마지막 도메인으로부터 시작해서 순서대로 모든 루트 도메인을 추가해야 합니 다. 예를 들어, 구성에 4개의 도메인이 있고 2개의 루트 도메인과 2개의 전용 도메인을 지정 한다고 가정해보십시오. 이 경우에는 처음 2개 도메인이 전용 도메인이 되고 마지막 2개 도 메인이 루트 도메인이 됩니다. 참고 - 2개의 IB HCA가 포함된 도메인도 루트 도메인에 적합하지만 IB HCA가 하나만 있는 도메인을 루트 도메인으로 사용해야 합니다. 루트 도메인에 단일 IB HCA가 포함된 경우에는 해당 루트 도메인에서 제공되는 I/O 장치에 대해 종속성을 갖는 I/O 도메인 수가 더 줄어듭니 다. IB HCA가 하나인 루트 도메인에서는 고가용성과 관련된 유연성이 늘어납니다. 42 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 다음 도메인에는 연관된 IB HCA가 한 개 또는 두 개뿐이므로 루트 도메인으로 사용할 수 있 습니다. 소형 도메인(IB HCA 1개) 중형 도메인(IB HCA 2개) 또한 시스템에서 첫번째 도메인(컨트롤 도메인)은 항상 전용 도메인이 됩니다. 컨트롤 도메 인은 루트 도메인일 수 없습니다. 따라서 서버의 모든 도메인을 루트 도메인으로 만들 수 없 지만, 서버에서 루트 도메인과 전용 도메인을 혼합하거나 모든 도메인을 전용 도메인으로 지 정할 수 있습니다. 도메인 구성에서 루트 도메인으로 사용 중인 도메인 및 해당 루트 도메인과 연관된 IB HCA 및 10GbE NIC의 수에 따라 각 루트 도메인에는 특정 CPU 코어 및 메모리가 항상 예약됩니 다. 도메인 구성의 마지막 도메인: 1개의 IB HCA 및 10GbE NIC를 포함하는 루트 도메인의 경우 2개 코어 및 32GB 메모리 예약 2개의 IB HCA 및 10GbE NIC를 포함하는 루트 도메인의 경우 4개 코어 및 64GB 메모리 예약 도메인 구성의 다른 모든 도메인: 1개의 IB HCA 및 10GbE NIC를 포함하는 루트 도메인의 경우 1개 코어 및 16GB 메모리 예약 2개의 IB HCA 및 10GbE NIC를 포함하는 루트 도메인의 경우 2개 코어 및 32GB 메모리 예약 참고 - 루트 도메인에 예약된 CPU 코어 및 메모리는 각 루트 도메인의 PF만 지원할 수 있는 양입니다. 루트 도메인의 영역 또는 응용 프로그램을 지원하기에는 CPU 코어 또는 메모리 리소스가 부족하므로 영역 및 응용 프로그램은 I/O 도메인에서만 지원됩니다. 각 루트 도메인과 연관된 남은 CPU 코어 및 메모리 리소스는 다음 그림에 표시된 것처럼 CPU 및 메모리 저장소에 보관됩니다. 시스템 이해 43

소프트웨어 구성 이해 CPU 및 메모리 저장소에는 루트 도메인의 리소스뿐만 아니라 전용 도메인에서 유휴 리소스 도 포함됩니다. CPU 코어 및 메모리 리소스의 출처가 전용 도메인 또는 루트 도메인인지 여 부에 관계없이 이러한 리소스가 CPU 및 메모리 저장소에 보관된 다음에는 더 이상 원래의 도 메인과 연관되지 않습니다. 이러한 리소스는 I/O 도메인에 동일하게 제공됩니다. 또한 CPU 및 메모리 저장소에는 이러한 유휴 리소스를 제공하는 도메인을 포함하는 연산 서 버에서 유휴 리소스만 포함됩니다. 즉, 연산 서버가 2개이고, 두 연산 서버 모두에 루트 도메 인이 있으면, CPU 및 메모리 저장소 세트도 2개이고, 각 연산 서버는 리소스가 보관된 고유 한 CPU 및 메모리 저장소를 갖게 됩니다. 예를 들어, 이전 그림에 표시된 것처럼 연산 서버에 4개의 도메인이 있고, 4개의 도메인 중 세 개는 루트 도메인이라고 가정해보십시오. 각 도메인에는 다음과 같은 IB HCA 및 10GbE NIC가 포함되고, 다음과 같은 CPU 코어 및 메모리 리소스가 포함됩니다. IB HCA 1개 및 10GbE NIC 1개 16개 코어 256GB 메모리 이 경우, 각 루트 도메인에 대해 다음과 같은 CPU 코어 및 메모리 리소스가 예약되며, 남은 리소스는 CPU 및 메모리 저장소에 제공됩니다. 44 이 구성에서는 마지막 루트 도메인에 2개 코어 및 32GB 메모리가 예약되고, 이 루트 도 메인의 14개 코어 및 224GB 메모리가 CPU 및 메모리 저장소에 제공됩니다. 이 구성에서 두번째 및 세번째 루트 도메인에는 1개 코어 및 16GB 메모리가 예약됩니 다. Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 이러한 각 루트 도메인의 15개 코어 및 240GB 메모리는 CPU 및 메모리 저장소에 제공됩니다. 이러한 2개의 루트 도메인에서 CPU 및 메모리 저장소에 대해 총 30개 코어(15 x 2) 및 480GB 메모리(240GB x 2)가 제공됩니다. 따라서 총 44개 코어(14 + 30개 코어)가 CPU 저장소에 보관되고 704GB 메모리(224 + 480GB 메모리)가 메모리 저장소에 보관되며, I/O 도메인에 대해 사용할 수 있습니다. 루트 도메인에서는 10GbE 클라이언트 액세스 네트워크에 대한 연결이 각 10GbE NIC의 물 리적 포트를 통과하며, IB 네트워크에 대한 연결은 전용 도메인에서와 같이 각 IB HCA의 물 리적 포트를 통과합니다. 하지만 루트 도메인에 사용된 카드도 SR-IOV와 호환되어야 합니 다. SR-IOV 호환 카드는 카드 자체에서 가상화가 수행되도록 각 카드에 VF를 만들 수 있도록 지원합니다. 각 루트 도메인의 VF는 다음 그림에 표시된 것처럼 CPU 및 메모리 저장소와 비슷하게 IB VF 및 10GbE VF 저장소에 보관됩니다. 각 루트 도메인의 VF가 VF 저장소에 보관되더라도 VF는 각 10GbE NIC 및 IB HCA에서 생 성되므로, 이러한 VF는 특정 10GbE NIC 및 IB HCA 카드를 포함하는 루트 도메인과 연관됩 니다. 예를 들어, 이전 그림에서 예제 구성을 보면 마지막(오른쪽 끝에 있는) 10GbE NIC 및 IB HCA에서 생성된 VF가 마지막 루트 도메인과 연관됩니다. 시스템 이해 45

소프트웨어 구성 이해 I/O 도메인 I/O 도메인은 고유한 VF를 소유하는 SR-IOV 도메인이며, 이러한 각 도메인은 루트 도메인 중 하나에서 PF를 기반으로 하는 가상 장치입니다. 루트 도메인은 각 루트 도메인과 연관된 물리적 I/O 장치를 기반으로 I/O 도메인에 대해 VF 제공자로만 작동합니다. 응용 프로그램 및 영역은 I/O 도메인에서만 지원되며, 루트 도메인에서는 지원되지 않습니다. I/O 도메인 만들기 도구를 사용하여 여러 I/O 도메인을 만들 수 있습니다. 또한 도메인 만들 기 프로세스 중에 다음과 같은 SuperCluster 특정 도메인 유형을 각 I/O 도메인과 연관시킵 니다. Oracle Solaris 11을 실행 중인 응용 프로그램 도메인 데이터베이스 도메인 전용 도메인인 데이터베이스 도메인만 데이터베이스 영역을 호스트할 수 있습니다. 데이터 베이스 I/O 도메인은 데이터베이스 영역을 호스트할 수 없습니다. 다음 그림에 표시된 것처럼 I/O 도메인을 만들 때는 I/O 도메인이 소유하는 CPU 코어 및 메 모리 리소스가 CPU 및 메모리 저장소(시스템의 루트 도메인에서 릴리스된 코어 및 메모리) 로부터 지정됩니다. 46 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 I/O 도메인 만들기 도구를 사용하면 각 I/O 도메인에 지정하려는 CPU 코어 및 메모리 리소스 의 양과 CPU 및 메모리 저장소에서 사용할 수 있는 총 CPU 코어 및 메모리 리소스 양을 기준 으로 I/O 도메인에 CPU 코어 및 메모리 리소스를 지정할 수 있습니다. 이와 비슷하게, I/O 도메인에서 소유하는 IB VF 및 10GbE VF는 다음 그림에 표시된 것처럼 IB VF 및 10GbE VF 저장소(시스템의 루트 도메인에서 릴리스된 IB VF 및 10GbE VF)에서 가져옵니다. 시스템 이해 47

소프트웨어 구성 이해 또한 I/O 도메인 만들기 도구를 사용하면 IB VF 및 10GbE VF 저장소에서 제공되는 리소 스를 사용하여 I/O 도메인에 IB VF 및 10GbE VF를 지정할 수 있습니다. 하지만 VF는 각 10GbE NIC 및 IB HCA에 생성되기 때문에 I/O 도메인에 지정된 VF는 항상 해당 VF를 포함 하는 10GbE NIC 및 IB HCA 카드와 연관된 특정 루트 도메인에서 가져옵니다. 만들 수 있는 I/O 도메인의 수 및 크기는 CPU 및 메모리 저장소에서 사용할 수 있는 CPU 코 어 및 메모리 리소스의 양과 각 I/O 도메인에 지정하려는 CPU 코어 및 메모리 리소스의 양을 포함한 여러 요소에 따라 달라집니다. 저장소에 보관된 총 리소스의 양을 알고 있으면 유용 하지만, 시스템에서 만들 수 있는 최대 I/O 도메인의 수와 반드시 일치하지는 않습니다. 또한 한 소켓의 적정 리소스 이상을 사용하는 I/O 도메인은 만들지 않아야 합니다. 예를 들어, CPU 저장소에 44개 코어가 보관되어 있고 메모리 저장소에 704GB 메모리가 보 관되어 있다고 가정해보십시오. 따라서 다음과 같은 방법으로 I/O 도메인을 만들 수 있습니 다. 48 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 한 소켓의 적정 리소스 양을 사용하는 각 대형 I/O 도메인이 포함된 하나 이상의 대형 I/ O 도메인(예: 16개 코어 및 256GB 메모리) 4개 코어 및 64GB 메모리를 사용하는 각 중형 I/O 도메인이 포함된 하나 이상의 중형 I/ O 도메인 1개 코어 및 16GB 메모리를 사용하는 각 소형 I/O 도메인이 포함된 하나 이상의 소형 I/ O 도메인 특정 시점에 I/O 도메인 만들기 프로세스를 실행하면 I/O 도메인 만들기 도구에서 추가 I/O 도메인을 만들 수 없다는 알림이 표시됩니다. 이 경우는 CPU 및 메모리 저장소에 있는 총 CPU 코어 및 메모리 리소스 한도에 도달했거나, 특히 사용자가 사용할 수 있는 리소스 한도 에 도달했거나, 이 시스템에서 허용되는 I/O 도메인 수에 대한 한도에 도달하는 등 여러 요인 으로 인해 발생할 수 있습니다. 참고 - 다음 예제에서는 개념 정보를 보다 쉽게 이해할 수 있도록 도메인 간 리소스 양을 백분 율로 구분하여 보여줍니다. 하지만 실제로는 소켓 세분성 또는 코어 세분성 레벨에서 CPU 코어 및 메모리 리소스를 나눌 수 있습니다. 자세한 내용은 CPU 및 메모리 리소스 구성 (osc-setcoremem) [157]을 참조하십시오. CPU 및 메모리 리소스를 각 도메인에 지정하는 방법을 보여주는 예제 구성에 따라, 다음 그 림에 표시된 것처럼 도메인 중 하나가 루트 도메인이고 다른 3개의 도메인은 전용 도메인인 도메인 구성이 있다고 가정해보십시오. 시스템 이해 49

소프트웨어 구성 이해 앞의 그림에서는 전용 도메인과 루트 도메인이 동일한 크기의 도메인으로 표시되었지만, 그 렇더라도 4개 도메인 모두에 CPU 코어 및 메모리 리소스가 동일하게 25%씩 분할되어야 한다는 의미는 아닙니다. 구성 워크시트에 제공하는 정보를 사용하여 Oracle SuperCluster T5-8을 처음 설치할 때 각 도메인에 대해 다른 크기의 CPU 코어 및 메모리 리소스를 요청할 수 있습니다. 예를 들어, 각 전용 도메인이 30%의 CPU 코어 및 메모리 리소스를 포함하고(3개의 전용 도 메인에 할당된 CPU 코어 및 메모리 리소스 총 90%), 남은 10%를 단일 루트 도메인에 할 당하도록 요청할 수 있습니다. 이 구성에서는 CPU 코어 및 메모리 리소스 중 10%만 I/O 도 메인이 CPU 및 메모리 저장소에서 가져올 수 있도록 제공됩니다. 하지만 시스템을 처음 설 치할 때 전용 도메인의 일부 리소스가 보관되도록 요청하여 I/O 도메인이 저장소에서 가져올 수 있는 CPU 코어 및 메모리 리소스의 양을 더 늘릴 수 있습니다. 또한 초기 설치 후 CPU/메모리 도구를 사용하여 초기 설치 시에 선택한 구성에 따라 기존 구 성에서 사용되는 CPU 코어 및 메모리 리소스 양을 조정할 수도 있습니다. 50 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 연산 서버의 모든 도메인이 전용 도메인이면, CPU/메모리 도구를 사용하여 이러한 도메 인에서 사용되는 CPU 코어 및 메모리 리소스 양의 크기를 조정할 수 있습니다. 하지만 CPU/메모리 도구를 사용하여 리소스 양을 변경할 경우에는 크기를 조정한 전용 도메인 을 재부트해야 합니다. 연산 서버에서 전용 도메인과 루트 도메인이 혼합된 경우: 전용 도메인의 경우 CPU/메모리 도구를 사용하여 전용 도메인에서 사용되는 CPU 코어 및 메모리 리소스 양의 크기를 조정할 수 있습니다. 또한 이 도구를 사용하여 전용 도메인으로부터 일부 CPU 코어 및 메모리 리소스를 CPU 및 메모리 저장소에 보관하여 I/O 도메인에서 사용할 수 있도록 지정할 수 있습니다. 하지만 CPU/메모 리 도구를 사용하여 리소스 양을 변경할 경우에는 크기를 조정한 전용 도메인을 재 부트해야 합니다. 루트 도메인의 경우에는 초기 설치 후 루트 도메인에 대한 CPU 코어 및 메모리 리 소스 양의 크기를 조정할 수 없습니다. 초기 설치 시에 루트 도메인에 지정하도록 요청한 리소스는 무엇이든 그대로 설정되고 Oracle 설치자가 현장에 와서 시스템 을 다시 구성하지 않는 한 변경할 수 없습니다. 자세한 내용은 CPU 및 메모리 리소스 구성(osc-setcoremem) [157]을 참조하십시오. 앞에서 설명한 것처럼 전용 도메인과 루트 도메인이 혼합되어 있고, 각 전용 도메인은 CPU 코어 및 메모리 리소스의 30%(전용 도메인에 할당된 리소스 총 90%)를 포함하고, 남은 10%는 루트 도메인에 할당되어 있다고 가정해보십시오. 그런 후 상황에 따라 리소스 할당 을 다음과 같이 변경할 수 있습니다. 루트 도메인에 할당된 CPU 코어 및 메모리 리소스 양에는 만족하지만 특정 전용 도메 인에 리소스가 더 필요하고 다른 도메인에는 리소스가 덜 필요하다는 것이 확인된 경우 에는, 총 리소스 양이 모든 전용 도메인에 제공되는 총 용량을 초과하지 않는 한(이 경우 에는 리소스의 90%), 3개의 전용 도메인 간의 리소스를 재할당(첫번째 전용 도메인에 40%, 두번째에는 30%, 세번째에는 20%)할 수 있습니다. 루트 도메인에 할당된 CPU 코어 및 메모리 리소스 양이 부족한 것으로 확인된 경우에 는 전용 도메인의 리소스를 CPU 및 메모리 저장소에 보관하여 이를 I/O 도메인에 사용 할 수 있도록 지정할 수 있습니다. 예를 들어, 루트 도메인을 통해 생성된 I/O 도메인에 20%의 리소스가 필요하면, 하나 이상의 전용 도메인의 리소스 10%를 보관하여 해당 용량만큼 CPU 및 메모리 저장소에서 I/O 도메인을 위한 리소스 양을 늘릴 수 있습니다. 일반 구성 정보 이해 Oracle SuperCluster T5-8에 사용 가능한 여러 구성 옵션을 완벽하게 이해하기 위해서는 먼 저 PCIe 슬롯의 기본 개념과 시스템에 사용되는 여러 네트워크에 대해 이해해야 합니다. 논리적 도메인 및 PCIe 슬롯 개요 [52] 관리 네트워크 개요 [52] 10GbE 클라이언트 액세스 네트워크 개요 [53] InfiniBand 네트워크 개요 [53] 시스템 이해 51

소프트웨어 구성 이해 논리적 도메인 및 PCIe 슬롯 개요 Oracle SuperCluster T5-8의 각 SPARC T5-8 서버에는 PCIe 슬롯이 16개 포함됩니다. 다 음 카드는 특정 PCIe 슬롯에 설치되어 해당 네트워크에 연결하는 데 사용됩니다. 10GbE NIC(네트워크 인터페이스 카드) - 10GbE 클라이언트 액세스 네트워크에 연결 하는 데 사용됩니다. InfiniBand 호스트 채널 어댑터(HCA) - 개인 InfiniBand 네트워크에 연결하는 데 사용 됩니다. 자세한 내용은 PCIe 슬롯(SPARC T5-8 서버) [21] 및 카드 위치(SPARC T5-8 서 버) [23]를 참조하십시오. 선택적 광 섬유 채널 PCIe 카드를 사용하면 기존 저장소 부속 시스템에서 데이터베이스 도메 인의 Oracle SuperCluster T5-8과 통합된 Exadata Storage Server로 데이터를 쉽게 마이 그레이션하거나 응용 프로그램 도메인에 대한 SAN 기반 저장소에 액세스할 수 있습니다. 이 러한 선택적 광 섬유 채널 PCIe 카드에 사용할 수 있는 PCIe 슬롯은 구성에 따라 달라집니다. 자세한 내용은 선택적 광 섬유 채널 PCIe 카드 사용 [131]을 참조하십시오. 참고 - Oracle SuperCluster T5-8의 풀 랙 버전의 경우, 소형 도메인과 연관된 슬롯에 광 섬유 채널 PCIe 카드를 설치할 수 없습니다. 자세한 내용은 소형 도메인 이해(풀 랙) [73]을 참조하십시오. 해당 구성에 사용되는 논리적 도메인의 유형과 개수에 따라 각 구성에 사용되는 PCIe 슬롯이 달라집니다. 관리 네트워크 개요 관리 네트워크는 기존 관리 네트워크에 연결되며 관리 작업에 사용됩니다. 각 SPARC T5-8 서버는 다음과 같은 관리 네트워크에 대한 액세스를 제공합니다. 52 Oracle ILOM(Integrated Lights Out Manager) 관리 네트워크 각 SPARC T5-8 서 버에서 Oracle ILOM 이더넷 인터페이스를 통해 연결됩니다. SPARC T5-8 서버에 설정 된 구성의 유형에 관계없이 이 네트워크에 대한 연결은 동일합니다. 1 GbE 호스트 관리 네트워크 각 SPARC T5-8 서버에서 네 개의 1GbE 호스트 관리 인터페이스(NET0 - NET3)를 통해 연결됩니다. 이 네트워크에 대한 연결은 시스템에 설 정된 구성의 유형에 따라 달라집니다.대부분의 경우 SPARC T5-8 서버의 후면에 있는 네 개의 1GbE 호스트 관리 포트는 IPMP(IP network multipathing)를 사용하여 논리 적 도메인에 관리 네트워크 인터페이스를 위한 중복성을 제공합니다. 그러나 함께 그룹 화된 포트 및 IPMP 사용 여부는 SPARC T5-8 서버에 설정된 구성의 유형에 따라 달라 집니다. Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 10GbE 클라이언트 액세스 네트워크 개요 이 필수 10GbE 네트워크는 SPARC T5-8 서버를 기존 클라이언트 네트워크에 연결하며 서 버에 대한 클라이언트 액세스에 사용됩니다. PCIe 슬롯에 설치된 10GbE NIC는 이 네트워 크에 대한 연결에 사용됩니다. 10GbE NIC의 개수 및 이러한 카드가 설치된 PCIe 슬롯은 SPARC T5-8 서버에 설정된 구성의 유형에 따라 달라집니다. InfiniBand 네트워크 개요 InfiniBand 네트워크는 랙에서 InfiniBand 스위치를 사용하여 SPARC T5-8 서버, ZFS Storage Appliance 및 Exadata Storage Server를 연결합니다. 라우트가 가능하지 않은 이 네트워크는 Oracle SuperCluster T5-8에 완전히 포함되어 있으며 기존 네트워크에 연결되 지 않습니다. Oracle SuperCluster T5-8이 적절한 유형의 도메인으로 구성되면 SPARC T5-8 서버 간 데이터 경로와 SPARC T5-8 서버와 저장소 어플라이언스 간 데이터 경로를 정의하기 위해 InfiniBand 네트워크가 분할됩니다. SPARC T5-8 서버에서 시작되는 정의된 InfiniBand 데이터 경로는 각 SPARC T5-8 서버에 만들어진 도메인의 유형에 따라 달라집니다. 데이터베이스 도메인용 InfiniBand 네트워크 데이터 경로 [53] 응용 프로그램 도메인용 InfiniBand 네트워크 데이터 경로 [54] 데이터베이스 도메인용 InfiniBand 네트워크 데이터 경로 참고 - 이 절의 정보는 전용 도메인 또는 데이터베이스 I/O 도메인인 데이터베이스 도메인에 적용됩니다. 데이터베이스 도메인이 SPARC T5-8 서버에 만들어지면 데이터베이스 도메인에 다음과 같 은 InfiniBand 경로가 생깁니다. SPARC T5-8 서버에서 두 Sun Datacenter InfiniBand Switch 36 리프 스위치로 SPARC T5-8 서버에서 각 Exadata Storage Server로, Sun Datacenter InfiniBand Switch 36 리프 스위치를 통해 SPARC T5-8 서버에서 ZFS Storage Appliance로, Sun Datacenter InfiniBand Switch 36 리프 스위치를 통해 데이터베이스 도메인에 지정된 InfiniBand HCA의 개수는 SPARC T5-8 서버에 설정된 구성 의 유형에 따라 달라집니다. 데이터베이스 도메인에 지정된 InfiniBand HCA의 경우 다음과 같은 InfiniBand 개인 네트 워크가 사용됩니다. 시스템 이해 53

소프트웨어 구성 이해 저장소 개인 네트워크: 서로 통신하고 Oracle Solaris 10을 실행하는 응용 프로그램 도 메인 및 ZFS Storage Appliance와 통신하기 위한 데이터베이스 도메인용 InfiniBand 개인 네트워크 1개 Exadata 개인 네트워크: Oracle Database 11g Real Application Clusters(Oracle RAC) 상호 연결 및 데이터베이스 도메인과 Exadata Storage Server 간의 통신을 위한 InfiniBand 개인 네트워크 1개 각 InfiniBand HCA에 있는 두 개의 포트가 SPARC T5-8 서버와 리프 스위치 간에 중복성을 제공하도록 서로 다른 Sun Datacenter InfiniBand Switch 36 리프 스위치에 연결됩니다. SPARC T5-8 서버와 리프 스위치 간의 물리적 연결에 대한 자세한 내용은 InfiniBand 개인 네트워크 물리적 연결(SPARC T5-8 서버) [26]을 참조하십시오. 응용 프로그램 도메인용 InfiniBand 네트워크 데이터 경로 참고 - 이 절의 정보는 전용 도메인 또는 응용 프로그램 I/O 도메인인 응용 프로그램 도메인에 적용됩니다. 응용 프로그램 도메인이 SPARC T5-8 서버에 만들어지면(Oracle Solaris 10 또는 Oracle Solaris 11을 실행 중인 응용 프로그램 도메인) 응용 프로그램 도메인에 다음과 같은 InfiniBand 경로가 생깁니다. SPARC T5-8 서버에서 두 Sun Datacenter InfiniBand Switch 36 리프 스위치로 SPARC T5-8 서버에서 ZFS Storage Appliance로, Sun Datacenter InfiniBand Switch 36 리프 스위치를 통해 응용 프로그램 도메인은 데이터베이스 도메인에만 사용되는 Exadata Storage Server에 액 세스하지 않습니다. 응용 프로그램 도메인에 지정된 InfiniBand HCA의 개수는 SPARC T5-8 서버에 설정된 구 성의 유형에 따라 달라집니다. 응용 프로그램 도메인에 지정된 InfiniBand HCA의 경우 다음과 같은 InfiniBand 개인 네트 워크가 사용됩니다. 저장소 개인 네트워크: 서로 통신하고 데이터베이스 도메인 및 ZFS Storage Appliance 와 통신하기 위한 응용 프로그램 도메인용 InfiniBand 개인 네트워크 1개 Oracle Solaris Cluster 개인 네트워크: 선택적 Oracle Solaris Cluster 상호 연결용 InfiniBand 개인 네트워크 2개 각 InfiniBand HCA에 있는 두 개의 포트가 SPARC T5-8 서버와 리프 스위치 간에 중복성을 제공하도록 서로 다른 Sun Datacenter InfiniBand Switch 36 리프 스위치에 연결됩니다. SPARC T5-8 서버와 리프 스위치 간의 물리적 연결에 대한 자세한 내용은 InfiniBand 개인 네트워크 물리적 연결(SPARC T5-8 서버) [26]을 참조하십시오. 54 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 하프 랙 구성 이해 Oracle SuperCluster T5-8 하프 랙 버전에서 각 SPARC T5-8 서버에는 2개의 프로세서 모 듈(PM0 및 PM3)이 포함되며, 각 프로세서 모듈에는 2개의 소켓 또는 PCIe 루트 컴플렉스 쌍이 포함되고, 각 SPARC T5-8 서버에 대해 총 4개의 소켓 또는 PCIe 루트 컴플렉스 쌍이 포함됩니다. 따라서 하프 랙에서는 각 SPARC T5-8 서버에 대해 1-4개의 논리적 도메인을 구성할 수 있습니다. 다음 항목에서는 하프 랙에 사용할 수 있는 도메인 구성에 대한 정보를 제공합니다. 논리적 도메인 구성 및 PCIe 슬롯 매핑(하프 랙) [55] 대형 도메인 이해(하프 랙) [56] 중형 도메인 이해(하프 랙) [58] 소형 도메인 이해(하프 랙) [60] 논리적 도메인 구성 및 PCIe 슬롯 매핑(하프 랙) 다음 그림에서는 하프 랙에 사용할 수 있는 구성에 대한 정보를 제공합니다. 또한 PCIe 슬롯 과 각 PCIe 슬롯에 설치된 IB(InfiniBand) HCA 또는 10GbE NIC에 대한 정보를 제공하고, 하프 랙에서 이러한 카드가 매핑되는 논리적 도메인 정보를 제공합니다. 시스템 이해 55

소프트웨어 구성 이해 그림 16 논리적 도메인 구성 및 PCIe 슬롯 매핑(하프 랙) 관련 정보 대형 도메인 이해(하프 랙) [56] 중형 도메인 이해(하프 랙) [58] 소형 도메인 이해(하프 랙) [60] 대형 도메인 이해(하프 랙) 이 항목에서는 하프 랙의 대형 도메인 구성에 대한 정보를 제공합니다. 56 CPU 및 메모리 리소스 할당 백분율 [57] 관리 네트워크 [57] 10GbE 클라이언트 액세스 네트워크 [57] InfiniBand 네트워크 [58] Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 CPU 및 메모리 리소스 할당 백분율 이 구성에서는 각 SPARC T5-8 서버에 한 개의 도메인이 설정되며, 서버의 100%를 차지합 니다. 따라서 각 서버에서 이 단일 도메인에 대해 CPU 및 메모리 리소스가 100% 할당됩니 다(4개 소켓 모두). 참고 - 일부 CPU 또는 시스템 리소스를 유휴 상태로 두려면(사용 안함) 시스템 초기 설치 후 CPU/메모리 도구(setcoremem)를 사용해서 이 기본 할당을 변경할 수 있습니다. 자세한 내 용은 CPU 및 메모리 리소스 구성(osc-setcoremem) [157]을 참조하십시오. 관리 네트워크 네 개의 1GbE 호스트 관리 포트 중 두 개가 이 도메인의 한 IPMP 그룹에 속합니다. NET0 NET3 10GbE 클라이언트 액세스 네트워크 PCI 루트 컴플렉스 쌍 4개 모두. 따라서 이 구성에서는 10GbE NIC 4개가 서버의 논리적 도 메인과 연결됩니다. 그러나 네 개의 10GbE NIC 중 두 개만 이 도메인에 사용됩니다. 한 포트 는 이중 포트 10GbE NIC 각각에 사용됩니다. 두 개의 별도 10GbE NIC에 있는 두 개의 포 트는 한 개의 IPMP 그룹에 속합니다. 이 경우 이중 포트 10GbE NIC에 있는 한 개의 포트가 10GbE 네트워크에 연결되고 사용되지 않은 나머지 포트 및 10GbE NIC는 연결되지 않은 상태로 유지됩니다. 이 구성에 대한 클라이언트 액세스 네트워크에 연결하는 데 사용되는 10GbE NIC 및 포트는 다음과 같습니다. PCIe 슬롯 1, 포트 0(활성) PCIe 슬롯 14, 포트 1(대기) 단일 데이터 주소가 이러한 두 물리적 포트에 액세스하는 데 사용됩니다. 두 개의 10GbE NIC 중 한 개가 고장나더라도 트래픽은 데이터 주소를 통해 IPMP 그룹의 포트에 계속 흘러 갈 수 있습니다. 참고 - 또한 10GbE 네트워크에 수행할 수 있는 10GbE 연결 수가 제한되는 경우 두 개의 포 트가 아닌 각 IPMP 그룹에 있는 한 개의 포트만 10GbE 네트워크에 연결할 수 있습니다. 그 러나 이 경우 중복성 및 늘어난 대역폭은 없습니다. 시스템 이해 57

소프트웨어 구성 이해 InfiniBand 네트워크 InfiniBand 네트워크에 대한 연결은 도메인 유형에 따라 다릅니다. 데이터베이스 도메인: 저장소 개인 네트워크: 도메인의 첫번째 CPU와 연결된 InfiniBand HCA에서 P1(활성)을 통한 연결 및 도메인의 마지막 CPU와 연결된 InfiniBand HCA에서 P0(대기)를 통한 연결. 따라서 하프 랙에서 대형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설치된 InfiniBand HCA의 P1 및 슬롯 16(대기)에 설치된 InfiniBand HCA의 P0를 통해 구성됩니다. Exadata 개인 네트워크: 도메인과 연결된 모든 InfiniBand HCA의 P0(활성) 및 P1(대기)을 통한 연결. 따라서 하프 랙에서 대형 도메인의 경우, 연결은 활성 연결 P0와 대기 연결 P1을 포 함한 4개 모두의 InfiniBand HCA를 통해 구성됩니다. 응용 프로그램 도메인: 저장소 개인 네트워크: 도메인의 첫번째 CPU와 연결된 InfiniBand HCA에서 P1(활성)을 통한 연결 및 도메인의 마지막 CPU와 연결된 InfiniBand HCA에서 P0(대기)를 통한 연결. 따라서 하프 랙에서 대형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설치된 InfiniBand HCA의 P1 및 슬롯 16(대기)에 설치된 InfiniBand HCA의 P0를 통해 구성됩니다. Oracle Solaris Cluster 개인 네트워크: 도메인의 두번째 CPU와 연결된 InfiniBand HCA에서 P0(활성)를 통한 연결 및 도메인의 세번째 CPU와 연결된 InfiniBand HCA에서 P1(대기)을 통한 연결. 따라서 하프 랙에서 대형 도메인의 경우, 이러한 연결은 슬롯 11(활성)에 설치된 InfiniBand HCA의 P0 및 슬롯 8(대기)에 설치된 InfiniBand HCA의 P1을 통해 구 성됩니다. 중형 도메인 이해(하프 랙) 이 항목에서는 하프 랙의 중형 도메인 구성에 대한 정보를 제공합니다. CPU 및 메모리 리소스 할당 백분율 [58] 관리 네트워크 [59] 10GbE 클라이언트 액세스 네트워크 [59] InfiniBand 네트워크 [60] CPU 및 메모리 리소스 할당 백분율 논리적 도메인에 할당하는 CPU 및 메모리 리소스 양은 SPARC T5-8 서버에도 있는 다른 도 메인의 크기에 따라 달라집니다. 58 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 H2-1 구성(2개의 중형 도메인): CPU 및 메모리 리소스 할당에 사용 가능한 옵션은 다 음과 같습니다. 각 중형 도메인에 대한 소켓 2개 첫번째 중형 도메인을 위한 소켓 1개와 두번째 중형 도메인을 위한 소켓 3개 첫번째 중형 도메인을 위한 소켓 3개와 두번째 중형 도메인을 위한 소켓 1개 첫번째 중형 도메인을 위한 코어 4개, 두번째 중형 도메인을 위한 남은 코어(여기에 서 첫번째 중형 도메인은 Oracle Solaris 11에서 실행되는 데이터베이스 도메인 또 는 응용 프로그램 도메인이어야 함) H3-1 구성(1개의 중형 도메인과 2개의 소형 도메인): CPU 및 메모리 리소스 할당에 사 용 가능한 옵션은 다음과 같습니다. 중형 도메인을 위한 소켓 2개, 2개의 소형 도메인을 위한 도메인당 소켓 1개 중형 도메인을 위한 소켓 1개, 첫번째 소형 도메인을 위한 소켓 2개, 두번째 소형 도메인을 위한 소켓 1개 중형 도메인 및 첫번째 소형 도메인을 위한 소켓 1개, 두번째 소형 도메인을 위한 소켓 2개 관리 네트워크 1GbE 호스트 관리 포트 2개는 각 중형 도메인에 대한 하나의 IPMP 그룹에 속합니다. 다음 은 하프 랙의 SPARC T5-8 서버에 있는 도메인 수에 따라 달라지는 각 중형 도메인과 연결된 1GbE 호스트 관리 포트입니다. 첫번째 중형 도메인: NET0-1 두번째 중형 도메인(해당되는 경우): NET2-3 10GbE 클라이언트 액세스 네트워크 PCI 루트 컴플렉스 쌍 2개. 따라서 10GbE NIC 2개가 하프 랙 SPARC T5-8 서버의 중형 도메인과 연결됩니다. 한 포트는 이중 포트 10GbE NIC 각각에 사용됩니다. 두 개의 별도 10GbE NIC에 있는 두 개의 포트는 한 개의 IPMP 그룹에 속합니다. 이 구성에 대한 클라이언트 액세스 네트워크에 연결하는 데 사용되는 10GbE NIC 및 포트는 다음과 같습니다. 첫번째 중형 도메인: PCIe 슬롯 1, 포트 0(활성) PCIe 슬롯 9, 포트 1(대기) 두번째 중형 도메인(해당되는 경우): PCIe 슬롯 6, 포트 0(활성) PCIe 슬롯 14, 포트 1(대기) 시스템 이해 59

소프트웨어 구성 이해 단일 데이터 주소가 이러한 두 물리적 포트에 액세스하는 데 사용됩니다. 두 개의 10GbE NIC 중 한 개가 고장나더라도 트래픽은 데이터 주소를 통해 IPMP 그룹의 포트에 계속 흘러 갈 수 있습니다. 참고 - 또한 10GbE 네트워크에 수행할 수 있는 10GbE 연결 수가 제한되는 경우 두 개의 포 트가 아닌 각 IPMP 그룹에 있는 한 개의 포트만 10GbE 네트워크에 연결할 수 있습니다. 그 러나 이 경우 중복성 및 늘어난 대역폭은 없습니다. InfiniBand 네트워크 InfiniBand 네트워크에 대한 연결은 도메인 유형에 따라 다릅니다. 데이터베이스 도메인: 저장소 개인 네트워크: 도메인의 첫번째 CPU와 연결된 InfiniBand HCA에서 P1(활성)을 통한 연결 및 도메인의 두번째 CPU와 연결된 InfiniBand HCA에서 P0(대기)를 통한 연결. 따라서 하프 랙에서 첫번째 중형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설 치된 InfiniBand HCA의 P1 및 슬롯 11(대기)에 설치된 InfiniBand HCA의 P0를 통해 구성됩니다. Exadata 개인 네트워크: 도메인과 연결된 모든 InfiniBand HCA의 P0(활성) 및 P1(대기)을 통한 연결. 따라서 하프 랙에서 첫번째 중형 도메인의 경우, 연결은 활성 연결 P0와 대기 연결 P1을 포함한 2개 모두의 InfiniBand HCA(슬롯 3 및 슬롯 11)를 통해 구성됩니다. 응용 프로그램 도메인: 저장소 개인 네트워크: 도메인의 첫번째 CPU와 연결된 InfiniBand HCA에서 P1(활성)을 통한 연결 및 도메인의 두번째 CPU와 연결된 InfiniBand HCA에서 P0(대기)를 통한 연결. 따라서 하프 랙에서 첫번째 중형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설 치된 InfiniBand HCA의 P1 및 슬롯 11(대기)에 설치된 InfiniBand HCA의 P0를 통해 구성됩니다. Oracle Solaris Cluster 개인 네트워크: 도메인의 첫번째 CPU와 연결된 InfiniBand HCA에서 P0(활성)를 통한 연결 및 도메인의 두번째 CPU와 연결된 InfiniBand HCA에서 P1(대기)을 통한 연결. 따라서 하프 랙에서 첫번째 중형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설 치된 InfiniBand HCA의 P0 및 슬롯 11(대기)에 설치된 InfiniBand HCA의 P1을 통해 구성됩니다. 소형 도메인 이해(하프 랙) 이 항목에서는 하프 랙의 소형 도메인 구성에 대한 정보를 제공합니다. 60 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 CPU 및 메모리 리소스 할당 백분율 [61] 관리 네트워크 [61] 10GbE 클라이언트 액세스 네트워크 [61] InfiniBand 네트워크 [62] CPU 및 메모리 리소스 할당 백분율 논리적 도메인에 할당하는 CPU 및 메모리 리소스 양은 SPARC T5-8 서버에도 있는 다른 도 메인의 크기에 따라 달라집니다. 1개의 중형 도메인과 2개의 소형 도메인: CPU 및 메모리 리소스 할당에 사용 가능한 옵 션은 다음과 같습니다. 중형 도메인을 위한 소켓 2개, 2개의 소형 도메인을 위한 도메인당 소켓 1개 중형 도메인을 위한 소켓 1개, 첫번째 소형 도메인을 위한 소켓 2개, 두번째 소형 도메인을 위한 소켓 1개 중형 도메인 및 첫번째 소형 도메인을 위한 소켓 1개, 두번째 소형 도메인을 위한 소켓 2개 4개의 소형 도메인: 각 소형 도메인당 소켓 1개 관리 네트워크 각 소형 도메인에 지정되는 1GbE 호스트 관리 포트 수 및 유형은 소형 도메인에 연결된 CPU에 따라 달라집니다. CPU0: NET0-1 CPU1: NET1, NET3(가상 네트워크 장치 사용) CPU6: NET0, NET2(가상 네트워크 장치 사용) CPU7: NET2-3 10GbE 클라이언트 액세스 네트워크 PCI 루트 컴플렉스 쌍 1개. 따라서 10GbE NIC 1개가 하프 랙 SPARC T5-8 서버의 소형 도 메인과 연결됩니다. 두 포트가 이중 포트 10GbE NIC 각각에 사용되며, 각 10GbE NIC에 있 는 두 포트는 한 개의 IPMP 그룹에 속합니다. 소형 도메인의 경우 이중 포트 10GbE NIC 각 각에 있는 두 포트는 10GbE 네트워크에 연결됩니다. 다음 10GbE NIC 및 포트는 소형 도메인이 연결된 CPU에 따라 소형 도메인에 대한 클라이 언트 액세스 네트워크 연결에 사용됩니다. CPU0: PCIe 슬롯 1, 포트 0(활성) 시스템 이해 61

소프트웨어 구성 이해 PCIe 슬롯 1, 포트 1(대기) CPU1: PCIe 슬롯 9, 포트 0(활성) PCIe 슬롯 9, 포트 1(대기) CPU6: PCIe 슬롯 6, 포트 0(활성) PCIe 슬롯 6, 포트 1(대기) CPU7: PCIe 슬롯 14, 포트 0(활성) PCIe 슬롯 14, 포트 1(대기) 단일 데이터 주소가 이러한 두 물리적 포트에 액세스하는 데 사용됩니다. 데이터 주소를 통해 10GbE NIC에 있는 두 개의 포트 중 하나의 연결이 실패하는 경우에도 트래픽이 IPMP 그룹 의 포트에 계속 흘러갈 수 있습니다. 참고 - 또한 10GbE 네트워크에 수행할 수 있는 10GbE 연결 수가 제한되는 경우 두 개의 포 트가 아닌 각 IPMP 그룹에 있는 한 개의 포트만 10GbE 네트워크에 연결할 수 있습니다. 그 러나 이 경우 중복성 및 늘어난 대역폭은 없습니다. InfiniBand 네트워크 InfiniBand 네트워크에 대한 연결은 도메인 유형에 따라 다릅니다. 데이터베이스 도메인: 저장소 개인 네트워크: 각 소형 도메인에서 CPU와 연결된 InfiniBand HCA의 P1(활성) 및 P0(대기)를 통한 연결. 예를 들어, CPU0와 연결된 소형 도메인의 경우, 이러한 연결은 해당 InfiniBand HCA에서 포트 P1(활성) 및 P0(대기)까지 슬롯 3에 설치된 InfiniBand HCA를 통 해 구성됩니다. Exadata 개인 네트워크: 각 소형 도메인에서 CPU와 연결된 InfiniBand HCA의 P0(활성) 및 P1(대기)을 통한 연결. 예를 들어, CPU0와 연결된 소형 도메인의 경우, 이러한 연결은 해당 InfiniBand HCA에서 포트 P0(활성) 및 P1(대기)까지 슬롯 3에 설치된 InfiniBand HCA를 통 해 구성됩니다. 응용 프로그램 도메인: 저장소 개인 네트워크: 각 소형 도메인에서 CPU와 연결된 InfiniBand HCA의 P1(활성) 및 P0(대기)를 통한 연결. 예를 들어, CPU0와 연결된 소형 도메인의 경우, 이러한 연결은 해당 InfiniBand HCA에서 포트 P1(활성) 및 P0(대기)까지 슬롯 3에 설치된 InfiniBand HCA를 통 해 구성됩니다. 62 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 Oracle Solaris Cluster 개인 네트워크: 각 소형 도메인에서 CPU와 연결된 InfiniBand HCA의 P0(활성) 및 P1(대기)을 통한 연결. 예를 들어, CPU0와 연결된 소형 도메인의 경우, 이러한 연결은 해당 InfiniBand HCA에서 포트 P0(활성) 및 P1(대기)까지 슬롯 3에 설치된 InfiniBand HCA를 통 해 구성됩니다. 풀 랙 구성 이해 Oracle SuperCluster T5-8 풀 랙 버전에서 각 SPARC T5-8 서버에는 4개의 프로세서 모듈 (PM0 - PM3)이 포함되며, 각 프로세서 모듈에는 2개의 소켓 또는 PCIe 루트 컴플렉스 쌍이 포함되고, 각 SPARC T5-8 서버에 대해 총 8개의 소켓 또는 PCIe 루트 컴플렉스가 포함됩니 다. 따라서 풀 랙에서는 각 SPARC T5-8 서버에 대해 1-8개의 논리적 도메인을 구성할 수 있 습니다. 논리적 도메인 구성 및 PCIe 슬롯 매핑(풀 랙) [63] 초대형 도메인 이해(풀 랙) [65] 대형 도메인 이해(풀 랙) [66] 중형 도메인 이해(풀 랙) [69] 소형 도메인 이해(풀 랙) [73] 논리적 도메인 구성 및 PCIe 슬롯 매핑(풀 랙) 다음 그림에서는 풀 랙에 사용할 수 있는 구성에 대한 정보를 제공합니다. 또한 PCIe 슬롯과 각 PCIe 슬롯에 설치된 IB(InfiniBand) HCA 또는 10GbE NIC에 대한 정보를 제공하고, 풀 랙에서 이러한 카드가 매핑되는 논리적 도메인 정보를 제공합니다. 시스템 이해 63

소프트웨어 구성 이해 그림 17 논리적 도메인 구성 및 PCIe 슬롯 매핑(풀 랙) 관련 정보 64 초대형 도메인 이해(풀 랙) [65] 대형 도메인 이해(풀 랙) [66] 중형 도메인 이해(풀 랙) [69] 소형 도메인 이해(풀 랙) [73] Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 초대형 도메인 이해(풀 랙) 이 항목에서는 풀 랙의 초대형 도메인 구성에 대한 정보를 제공합니다. CPU 및 메모리 리소스 할당 백분율 [65] 관리 네트워크 [65] 10GbE 클라이언트 액세스 네트워크 [65] InfiniBand 네트워크 [66] CPU 및 메모리 리소스 할당 백분율 이 구성에서는 각 SPARC T5-8 서버에 한 개의 도메인이 설정되며, 서버의 100%를 차지합 니다. 따라서 각 서버에서 이 단일 도메인에 대해 CPU 및 메모리 리소스가 100% 할당됩니 다(8개 소켓 모두). 참고 - 일부 CPU 또는 시스템 리소스를 유휴 상태로 두려면(사용 안함) 시스템 초기 설치 후 CPU/메모리 도구(setcoremem)를 사용해서 이 기본 할당을 변경할 수 있습니다. 자세한 내 용은 CPU 및 메모리 리소스 구성(osc-setcoremem) [157]을 참조하십시오. 관리 네트워크 네 개의 1GbE 호스트 관리 포트 중 두 개가 이 도메인의 한 IPMP 그룹에 속합니다. NET0 NET3 10GbE 클라이언트 액세스 네트워크 PCI 루트 컴플렉스 쌍 8개 모두. 따라서 이 구성에서는 10GbE NIC 8개가 서버의 논리적 도 메인과 연결됩니다. 그러나 8개의 10GbE NIC 중 두 개만 이 도메인에 사용됩니다. 한 포트 는 이중 포트 10GbE NIC 각각에 사용됩니다. 두 개의 별도 10GbE NIC에 있는 두 개의 포 트는 한 개의 IPMP 그룹에 속합니다. 이 경우 이중 포트 10GbE NIC에 있는 한 개의 포트가 10GbE 네트워크에 연결되고 사용되지 않은 나머지 포트 및 10GbE NIC는 연결되지 않은 상태로 유지됩니다. 이 구성에 대한 클라이언트 액세스 네트워크에 연결하는 데 사용되는 10GbE NIC 및 포트는 다음과 같습니다. PCIe 슬롯 1, 포트 0(활성) PCIe 슬롯 14, 포트 1(대기) 시스템 이해 65

소프트웨어 구성 이해 단일 데이터 주소가 이러한 두 물리적 포트에 액세스하는 데 사용됩니다. 두 개의 10GbE NIC 중 한 개가 고장나더라도 트래픽은 데이터 주소를 통해 IPMP 그룹의 포트에 계속 흘러 갈 수 있습니다. 참고 - 또한 10GbE 네트워크에 수행할 수 있는 10GbE 연결 수가 제한되는 경우 두 개의 포 트가 아닌 각 IPMP 그룹에 있는 한 개의 포트만 10GbE 네트워크에 연결할 수 있습니다. 그 러나 이 경우 중복성 및 늘어난 대역폭은 없습니다. InfiniBand 네트워크 InfiniBand 네트워크에 대한 연결은 도메인 유형에 따라 다릅니다. 데이터베이스 도메인: 저장소 개인 네트워크: 도메인에서 첫번째 프로세서 모듈(PM0)의 첫번째 CPU와 연결된 InfiniBand HCA에서 P1(활성)을 통한 연결 및 도메인에서 마지막 프로세 서 모듈(PM3)의 마지막 CPU와 연결된 InfiniBand HCA의 P0(대기)를 통한 연결. 따라서 풀 랙에서 초대형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설치된 InfiniBand HCA의 P1 및 슬롯 16(대기)에 설치된 InfiniBand HCA의 P0를 통해 구성됩니다. Exadata 개인 네트워크: 도메인과 연결된 모든 InfiniBand HCA의 P0(활성) 및 P1(대기)을 통한 연결. 따라서 풀 랙에서 초대형 도메인의 경우, 연결은 활성 연결 P0와 대기 연결 P1을 포 함한 4개 모두의 InfiniBand HCA를 통해 구성됩니다. 응용 프로그램 도메인: 저장소 개인 네트워크: 도메인에서 첫번째 프로세서 모듈(PM0)의 첫번째 CPU와 연결된 InfiniBand HCA에서 P1(활성)을 통한 연결 및 도메인에서 마지막 프로세 서 모듈(PM3)의 마지막 CPU와 연결된 InfiniBand HCA의 P0(대기)를 통한 연결. 따라서 풀 랙에서 초대형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설치된 InfiniBand HCA의 P1 및 슬롯 16(대기)에 설치된 InfiniBand HCA의 P0를 통해 구성됩니다. Oracle Solaris Cluster 개인 네트워크: 도메인의 두번째 프로세서 모듈(PM1)에서 첫번째 CPU와 연결된 InfiniBand HCA의 P0(활성)를 통한 연결 및 도메인에서 세 번째 프로세서 모듈(PM2)의 첫번째 CPU와 연결된 InfiniBand HCA의 P1(대기) 을 통한 연결. 따라서 풀 랙에서 초대형 도메인의 경우, 이러한 연결은 슬롯 4(활성)에 설치된 InfiniBand HCA의 P0 및 슬롯 7(대기)에 설치된 InfiniBand HCA의 P1을 통해 구 성됩니다. 대형 도메인 이해(풀 랙) 이 항목에서는 하프 랙의 대형 도메인 구성에 대한 정보를 제공합니다. 66 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 CPU 및 메모리 리소스 할당 백분율 [67] 관리 네트워크 [68] 10GbE 클라이언트 액세스 네트워크 [68] InfiniBand 네트워크 [69] CPU 및 메모리 리소스 할당 백분율 논리적 도메인에 할당하는 CPU 및 메모리 리소스 양은 SPARC T5-8 서버에도 있는 다른 도 메인의 크기에 따라 달라집니다. F2-1 구성(2개의 대형 도메인): CPU 및 메모리 리소스 할당에 사용 가능한 옵션은 다음 과 같습니다. 각 대형 도메인에 대한 소켓 4개 첫번째 대형 도메인을 위한 소켓 2개와 두번째 대형 도메인을 위한 소켓 6개 첫번째 대형 도메인을 위한 소켓 6개와 두번째 대형 도메인을 위한 소켓 2개 첫번째 대형 도메인을 위한 소켓 1개와 두번째 대형 도메인을 위한 소켓 7개 첫번째 대형 도메인을 위한 소켓 7개와 두번째 대형 도메인을 위한 소켓 1개 F3-1 구성(1개의 대형 도메인과 2개의 중형 도메인): CPU 및 메모리 리소스 할당에 사 용 가능한 옵션은 다음과 같습니다. 대형 도메인을 위한 소켓 4개, 2개의 중형 도메인을 위한 도메인당 소켓 2개 대형 도메인을 위한 소켓 2개, 첫번째 중형 도메인을 위한 소켓 4개, 두번째 중형 도메인을 위한 소켓 2개 대형 도메인 및 첫번째 중형 도메인을 위한 소켓 2개, 두번째 중형 도메인을 위한 소켓 4개 대형 도메인을 위한 소켓 6개, 2개의 중형 도메인을 위한 도메인당 소켓 1개 대형 도메인을 위한 소켓 5개, 첫번째 중형 도메인을 위한 소켓 2개, 두번째 중형 도메인을 위한 소켓 1개 대형 도메인을 위한 소켓 5개, 첫번째 중형 도메인을 위한 소켓 1개, 두번째 중형 도메인을 위한 소켓 2개 F4-2 구성(1개의 대형 도메인, 2개의 소형 도메인, 1개의 중형 도메인): CPU 및 메모리 리소스 할당에 사용 가능한 옵션은 다음과 같습니다. 대형 도메인을 위한 소켓 4개, 2개의 소형 도메인을 위한 도메인당 소켓 1개, 중형 도메인을 위한 소켓 2개 대형 도메인을 위한 소켓 3개, 2개의 소형 도메인을 위한 도메인당 소켓 1개, 두번 째 중형 도메인을 위한 소켓 3개 대형 도메인을 위한 소켓 2개, 2개의 소형 도메인을 위한 도메인당 소켓 1개, 중형 도메인을 위한 소켓 4개 대형 도메인을 위한 소켓 5개, 2개의 소형 도메인과 중형 도메인을 위한 도메인당 소켓 1개 F5-2 구성(1개의 대형 도메인과 4개의 소형 도메인): CPU 및 메모리 리소스 할당에 사 용 가능한 옵션은 다음과 같습니다. 시스템 이해 67

소프트웨어 구성 이해 대형 도메인을 위한 소켓 4개, 4개의 소형 도메인을 위한 도메인당 소켓 1개 대형 도메인을 위한 소켓 3개, 처음 3개의 소형 도메인을 위한 도메인당 소켓 1개, 네번째 소형 도메인을 위한 소켓 2개 대형 도메인을 위한 소켓 2개, 첫번째 및 두번째 소형 도메인을 위한 도메인당 소켓 1개, 세번째 및 네번째 소형 도메인을 위한 도메인당 소켓 2개 대형 도메인을 위한 소켓 2개, 처음 3개의 소형 도메인을 위한 도메인당 소켓 1개, 네번째 소형 도메인을 위한 소켓 3개 대형 도메인 및 첫번째 소형 도메인을 위한 소켓 2개, 두번째 및 세번째 소형 도메 인을 위한 도메인당 소켓 1개, 네번째 소형 도메인을 위한 소켓 2개 관리 네트워크 1GbE 호스트 관리 포트 2개는 각 대형 도메인에 대한 하나의 IPMP 그룹에 속합니다. 다음 은 풀 랙의 SPARC T5-8 서버에 있는 도메인 수에 따라 달라지는 각 대형 도메인과 연결된 1GbE 호스트 관리 포트입니다. 첫번째 대형 도메인: NET0-1 두번째 대형 도메인(해당되는 경우): NET2-3 10GbE 클라이언트 액세스 네트워크 PCI 루트 컴플렉스 쌍 4개. 따라서 10GbE NIC 4개가 풀 랙 SPARC T5-8 서버의 대형 도 메인과 연결됩니다. 한 포트는 이중 포트 10GbE NIC 각각에 사용됩니다. 두 개의 별도 10GbE NIC에 있는 두 개의 포트는 한 개의 IPMP 그룹에 속합니다. 이 구성에 대한 클라이언트 액세스 네트워크에 연결하는 데 사용되는 10GbE NIC 및 포트는 다음과 같습니다. 첫번째 대형 도메인: PCIe 슬롯 1, 포트 0(활성) PCIe 슬롯 10, 포트 1(대기) 두번째 대형 도메인(해당되는 경우): PCIe 슬롯 5, 포트 0(활성) PCIe 슬롯 14, 포트 1(대기) 단일 데이터 주소가 이러한 두 물리적 포트에 액세스하는 데 사용됩니다. 두 개의 10GbE NIC 중 한 개가 고장나더라도 트래픽은 데이터 주소를 통해 IPMP 그룹의 포트에 계속 흘러 갈 수 있습니다. 참고 - 또한 10GbE 네트워크에 수행할 수 있는 10GbE 연결 수가 제한되는 경우 두 개의 포 트가 아닌 각 IPMP 그룹에 있는 한 개의 포트만 10GbE 네트워크에 연결할 수 있습니다. 그 러나 이 경우 중복성 및 늘어난 대역폭은 없습니다. 68 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 InfiniBand 네트워크 InfiniBand 네트워크에 대한 연결은 도메인 유형에 따라 다릅니다. 데이터베이스 도메인: 저장소 개인 네트워크: 도메인의 첫번째 CPU와 연결된 InfiniBand HCA에서 P1(활성)을 통한 연결 및 도메인의 마지막 CPU와 연결된 InfiniBand HCA에서 P0(대기)를 통한 연결. 예를 들어, 풀 랙에서 첫번째 대형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설 치된 InfiniBand HCA의 P1 및 슬롯 12(대기)에 설치된 InfiniBand HCA의 P0를 통해 구성됩니다. Exadata 개인 네트워크: 도메인과 연결된 모든 InfiniBand HCA의 P0(활성) 및 P1(대기)을 통한 연결. 따라서 풀 랙에서 대형 도메인의 경우, 연결은 활성 연결 P0와 대기 연결 P1을 포함 한 8개 모두의 InfiniBand HCA를 통해 구성됩니다. 응용 프로그램 도메인: 저장소 개인 네트워크: 도메인의 첫번째 CPU와 연결된 InfiniBand HCA에서 P1(활성)을 통한 연결 및 도메인의 마지막 CPU와 연결된 InfiniBand HCA에서 P0(대기)를 통한 연결. 예를 들어, 풀 랙에서 첫번째 대형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설 치된 InfiniBand HCA의 P1 및 슬롯 12(대기)에 설치된 InfiniBand HCA의 P0를 통해 구성됩니다. Oracle Solaris Cluster 개인 네트워크: 도메인의 두번째 CPU와 연결된 InfiniBand HCA에서 P0(활성)를 통한 연결 및 도메인의 세번째 CPU와 연결된 InfiniBand HCA에서 P1(대기)을 통한 연결. 예를 들어, 풀 랙에서 첫번째 대형 도메인의 경우, 이러한 연결은 슬롯 11(활성)에 설치된 InfiniBand HCA의 P0 및 슬롯 4(대기)에 설치된 InfiniBand HCA의 P1를 통해 구성됩니다. 중형 도메인 이해(풀 랙) 이 항목에서는 풀 랙의 중형 도메인 구성에 대한 정보를 제공합니다. CPU 및 메모리 리소스 할당 백분율 [69] 관리 네트워크 [71] 10GbE 클라이언트 액세스 네트워크 [71] InfiniBand 네트워크 [72] CPU 및 메모리 리소스 할당 백분율 논리적 도메인에 할당하는 CPU 및 메모리 리소스 양은 SPARC T5-8 서버에도 있는 다른 도 메인의 크기에 따라 달라집니다. 시스템 이해 69

소프트웨어 구성 이해 70 F3-1 구성(1개의 대형 도메인과 2개의 중형 도메인): CPU 및 메모리 리소스 할당에 사 용 가능한 옵션은 다음과 같습니다. 대형 도메인을 위한 소켓 4개, 2개의 중형 도메인을 위한 도메인당 소켓 2개 대형 도메인을 위한 소켓 2개, 첫번째 중형 도메인을 위한 소켓 4개, 두번째 중형 도메인을 위한 소켓 2개 대형 도메인 및 첫번째 중형 도메인을 위한 소켓 2개, 두번째 중형 도메인을 위한 소켓 4개 대형 도메인을 위한 소켓 6개, 2개의 중형 도메인을 위한 도메인당 소켓 1개 대형 도메인을 위한 소켓 5개, 첫번째 중형 도메인을 위한 소켓 2개, 두번째 중형 도메인을 위한 소켓 1개 대형 도메인을 위한 소켓 5개, 첫번째 중형 도메인을 위한 소켓 1개, 두번째 중형 도메인을 위한 소켓 2개 F4-1 구성(4개의 중형 도메인): CPU 및 메모리 리소스 할당에 사용 가능한 옵션은 다음 과 같습니다. 중형 도메인 4개 모두에 대한 도메인당 소켓 2개 첫번째 중형 도메인을 위한 소켓 1개, 두번째 및 세번째 중형 도메인을 위한 도메인 당 소켓 2개, 네번째 중형 도메인을 위한 소켓 3개 첫번째 중형 도메인을 위한 소켓 3개, 두번째 중형 도메인을 위한 소켓 1개, 세번째 및 네번째 중형 도메인을 위한 도메인당 소켓 2개 첫번째 중형 도메인을 위한 소켓 3개, 두번째 및 네번째 중형 도메인을 위한 도메인 당 소켓 2개, 세번째 중형 도메인을 위한 소켓 1개 첫번째 중형 도메인을 위한 소켓 3개, 두번째 및 세번째 중형 도메인을 위한 도메인 당 소켓 2개, 네번째 중형 도메인을 위한 소켓 1개 F4-2 구성(1개의 대형 도메인, 2개의 소형 도메인, 1개의 중형 도메인): CPU 및 메모리 리소스 할당에 사용 가능한 옵션은 다음과 같습니다. 대형 도메인을 위한 소켓 4개, 2개의 소형 도메인을 위한 도메인당 소켓 1개, 중형 도메인을 위한 소켓 2개 대형 도메인을 위한 소켓 3개, 2개의 소형 도메인을 위한 도메인당 소켓 1개, 두번 째 중형 도메인을 위한 소켓 3개 대형 도메인을 위한 소켓 2개, 2개의 소형 도메인을 위한 도메인당 소켓 1개, 중형 도메인을 위한 소켓 4개 대형 도메인을 위한 소켓 5개, 2개의 소형 도메인과 중형 도메인을 위한 도메인당 소켓 1개 F5-1 구성(3개의 중형 도메인, 2개의 소형 도메인): CPU 및 메모리 리소스 할당에 사용 가능한 옵션은 다음과 같습니다. 첫번째 및 두번째 중형 도메인을 위한 도메인당 소켓 2개, 첫번째 및 두번째 소형 도메인을 위한 도메인당 소켓 1개, 세번째 중형 도메인을 위한 소켓 2개 첫번째 중형 도메인을 위한 소켓 1개, 두번째 중형 도메인을 위한 소켓 2개, 첫번째 소형 도메인을 위한 소켓 1개, 두번째 소형 도메인과 세번째 중형 도메인을 위한 도 메인당 소켓 2개 첫번째 및 두번째 중형 도메인을 위한 도메인당 소켓 2개, 첫번째 소형 도메인을 소 켓 1개, 두번째 소형 도메인을 위한 소켓 2개, 세번째 중형 도메인을 위한 소켓 1개 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 첫번째 중형 도메인을 위한 소켓 2개, 두번째 중형 도메인을 위한 소켓 1개, 첫번째 소형 도메인을 위한 소켓 2개, 두번째 소형 도메인을 위한 소켓 1개, 세번째 중형 도메인을 위한 소켓 2개 F6-1 구성(2개의 중형 도메인, 4개의 소형 도메인): CPU 및 메모리 리소스 할당에 사용 가능한 옵션은 다음과 같습니다. 첫번째 중형 도메인을 위한 소켓 2개, 4개의 소형 도메인을 위한 도메인당 소켓 1 개, 두번째 중형 도메인을 위한 소켓 2개 첫번째 중형 도메인을 위한 소켓 3개, 4개의 소형 도메인 및 두번째 중형 도메인을 위한 도메인당 소켓 1개 첫번째 중형 도메인 및 4개의 소형 도메인을 위한 도메인당 소켓 1개, 두번째 중형 도메인을 위한 소켓 3개 F7-1 구성(1개의 중형 도메인, 6개의 소형 도메인): 중형 도메인을 위한 소켓 2개, 6개 의 소형 도메인을 위한 도메인당 소켓 1개 관리 네트워크 각 중형 도메인에 지정되는 1GbE 호스트 관리 포트 수 및 유형은 중형 도메인에 연결된 CPU에 따라 달라집니다. CPU0/CPU1: NET0-1 CPU2/CPU3: NET1, NET3(가상 네트워크 장치 사용) CPU4/CPU5: NET0, NET2(가상 네트워크 장치 사용) CPU6/CPU7: NET2-3 10GbE 클라이언트 액세스 네트워크 PCI 루트 컴플렉스 쌍 2개. 따라서 10GbE NIC 2개가 풀 랙 SPARC T5-8 서버의 중형 도 메인과 연결됩니다. 한 포트는 이중 포트 10GbE NIC 각각에 사용됩니다. 두 개의 별도 10GbE NIC에 있는 두 개의 포트는 한 개의 IPMP 그룹에 속합니다. 다음 10GbE NIC 및 포트는 중형 도메인이 연결된 CPU에 따라 중형 도메인에 대한 클라이 언트 액세스 네트워크 연결에 사용됩니다. CPU0/CPU1: PCIe 슬롯 1, 포트 0(활성) PCIe 슬롯 9, 포트 1(대기) CPU2/CPU3: PCIe 슬롯 2, 포트 0(활성) PCIe 슬롯 10, 포트 1(대기) CPU4/CPU5: PCIe 슬롯 5, 포트 0(활성) PCIe 슬롯 13, 포트 1(대기) 시스템 이해 71

소프트웨어 구성 이해 CPU6/CPU7: PCIe 슬롯 6, 포트 0(활성) PCIe 슬롯 14, 포트 1(대기) 단일 데이터 주소가 이러한 두 물리적 포트에 액세스하는 데 사용됩니다. 데이터 주소를 통해 10GbE NIC에 있는 두 개의 포트 중 하나의 연결이 실패하는 경우에도 트래픽이 IPMP 그룹 의 포트에 계속 흘러갈 수 있습니다. 참고 - 또한 10GbE 네트워크에 수행할 수 있는 10GbE 연결 수가 제한되는 경우 두 개의 포 트가 아닌 각 IPMP 그룹에 있는 한 개의 포트만 10GbE 네트워크에 연결할 수 있습니다. 그 러나 이 경우 중복성 및 늘어난 대역폭은 없습니다. InfiniBand 네트워크 InfiniBand 네트워크에 대한 연결은 도메인 유형에 따라 다릅니다. 데이터베이스 도메인: 저장소 개인 네트워크: 도메인의 첫번째 CPU와 연결된 InfiniBand HCA에서 P1(활성)을 통한 연결 및 도메인의 두번째 CPU와 연결된 InfiniBand HCA에서 P0(대기)를 통한 연결. 예를 들어, 풀 랙에서 첫번째 중형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설 치된 InfiniBand HCA의 P1 및 슬롯 11(대기)에 설치된 InfiniBand HCA의 P0를 통해 구성됩니다. Exadata 개인 네트워크: 도메인과 연결된 모든 InfiniBand HCA의 P0(활성) 및 P1(대기)을 통한 연결. 예를 들어, 풀 랙에서 첫번째 중형 도메인의 경우, 연결은 활성 연결 P0와 대기 연 결 P1을 포함한 2개 모두의 InfiniBand HCA(슬롯 3 및 슬롯 11)를 통해 구성됩니 다. 응용 프로그램 도메인: 저장소 개인 네트워크: 도메인의 첫번째 CPU와 연결된 InfiniBand HCA에서 P1(활성)을 통한 연결 및 도메인의 두번째 CPU와 연결된 InfiniBand HCA에서 P0(대기)를 통한 연결. 예를 들어, 풀 랙에서 첫번째 중형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설 치된 InfiniBand HCA의 P1 및 슬롯 11(대기)에 설치된 InfiniBand HCA의 P0를 통해 구성됩니다. Oracle Solaris Cluster 개인 네트워크: 도메인의 첫번째 CPU와 연결된 InfiniBand HCA에서 P0(활성)를 통한 연결 및 도메인의 두번째 CPU와 연결된 InfiniBand HCA에서 P1(대기)을 통한 연결. 예를 들어, 풀 랙에서 첫번째 중형 도메인의 경우, 이러한 연결은 슬롯 3(활성)에 설 치된 InfiniBand HCA의 P0 및 슬롯 11(대기)에 설치된 InfiniBand HCA의 P1을 통해 구성됩니다. 72 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 소형 도메인 이해(풀 랙) 참고 - 풀 랙의 경우, 소형 도메인과 연관된 슬롯에 광 섬유 채널 PCIe 카드를 설치할 수 없 습니다. 풀 랙 구성에서는 하나 이상의 10GbE NIC를 포함하는 도메인에만 광 섬유 채널 PCIe 카드를 추가할 수 있습니다. 클라이언트 액세스 네트워크에 대한 연결을 위해 한 개의 10GbE NIC를 남겨야 하지만 10GbE NIC가 두 개 이상인 도메인에서는 다른 10GbE NIC 를 광 섬유 채널 HBA로 교체할 수 있습니다. 소형 도메인 구성에 대한 자세한 내용은 풀 랙 구성 이해 [63]를 참조하고 광 섬유 채널 PCIe 카드에 대한 자세한 내용은 선택적 광 섬 유 채널 PCIe 카드 사용 [131]을 참조하십시오. 이 항목에서는 풀 랙의 소형 도메인 구성에 대한 정보를 제공합니다. CPU 및 메모리 리소스 할당 백분율 [73] 관리 네트워크 [74] 10GbE 클라이언트 액세스 네트워크 [75] InfiniBand 네트워크 [76] CPU 및 메모리 리소스 할당 백분율 논리적 도메인에 할당하는 CPU 및 메모리 리소스 양은 SPARC T5-8 서버에도 있는 다른 도 메인의 크기에 따라 달라집니다. F4-2 구성(1개의 대형 도메인, 2개의 소형 도메인, 1개의 중형 도메인): CPU 및 메모리 리소스 할당에 사용 가능한 옵션은 다음과 같습니다. 대형 도메인을 위한 소켓 4개, 2개의 소형 도메인을 위한 도메인당 소켓 1개, 중형 도메인을 위한 소켓 2개 대형 도메인을 위한 소켓 3개, 2개의 소형 도메인을 위한 도메인당 소켓 1개, 두번 째 중형 도메인을 위한 소켓 3개 대형 도메인을 위한 소켓 2개, 2개의 소형 도메인을 위한 도메인당 소켓 1개, 중형 도메인을 위한 소켓 4개 대형 도메인을 위한 소켓 5개, 2개의 소형 도메인과 중형 도메인을 위한 도메인당 소켓 1개 F5-1 구성(3개의 중형 도메인, 2개의 소형 도메인): CPU 및 메모리 리소스 할당에 사용 가능한 옵션은 다음과 같습니다. 첫번째 및 두번째 중형 도메인을 위한 도메인당 소켓 2개, 첫번째 및 두번째 소형 도메인을 위한 도메인당 소켓 1개, 세번째 중형 도메인을 위한 소켓 2개 첫번째 중형 도메인을 위한 소켓 1개, 두번째 중형 도메인을 위한 소켓 2개, 첫번째 소형 도메인을 위한 소켓 1개, 두번째 소형 도메인과 세번째 중형 도메인을 위한 도 메인당 소켓 2개 첫번째 및 두번째 중형 도메인을 위한 도메인당 소켓 2개, 첫번째 소형 도메인을 소 켓 1개, 두번째 소형 도메인을 위한 소켓 2개, 세번째 중형 도메인을 위한 소켓 1개 시스템 이해 73

소프트웨어 구성 이해 첫번째 중형 도메인을 위한 소켓 2개, 두번째 중형 도메인을 위한 소켓 1개, 첫번째 소형 도메인을 위한 소켓 2개, 두번째 소형 도메인을 위한 소켓 1개, 세번째 중형 도메인을 위한 소켓 2개 F5-2 구성(1개의 대형 도메인과 4개의 소형 도메인): CPU 및 메모리 리소스 할당에 사 용 가능한 옵션은 다음과 같습니다. 대형 도메인을 위한 소켓 4개, 4개의 소형 도메인을 위한 도메인당 소켓 1개 대형 도메인을 위한 소켓 3개, 처음 3개의 소형 도메인을 위한 도메인당 소켓 1개, 네번째 소형 도메인을 위한 소켓 2개 대형 도메인을 위한 소켓 2개, 첫번째 및 두번째 소형 도메인을 위한 도메인당 소켓 1개, 세번째 및 네번째 소형 도메인을 위한 도메인당 소켓 2개 대형 도메인을 위한 소켓 2개, 처음 3개의 소형 도메인을 위한 도메인당 소켓 1개, 네번째 소형 도메인을 위한 소켓 3개 대형 도메인 및 첫번째 소형 도메인을 위한 소켓 2개, 두번째 및 세번째 소형 도메 인을 위한 도메인당 소켓 1개, 네번째 소형 도메인을 위한 소켓 2개 F6-1 구성(2개의 중형 도메인, 4개의 소형 도메인): CPU 및 메모리 리소스 할당에 사용 가능한 옵션은 다음과 같습니다. 첫번째 중형 도메인을 위한 소켓 2개, 4개의 소형 도메인을 위한 도메인당 소켓 1 개, 두번째 중형 도메인을 위한 소켓 2개 첫번째 중형 도메인을 위한 소켓 3개, 4개의 소형 도메인 및 두번째 중형 도메인을 위한 도메인당 소켓 1개 첫번째 중형 도메인 및 4개의 소형 도메인을 위한 도메인당 소켓 1개, 두번째 중형 도메인을 위한 소켓 3개 F7-1 구성(1개의 중형 도메인, 6개의 소형 도메인): 중형 도메인을 위한 소켓 2개, 6개 의 소형 도메인을 위한 도메인당 소켓 1개 F8-1 구성(8개의 소형 도메인): 각 소형 도메인당 소켓 1개 관리 네트워크 각 소형 도메인에 지정되는 1GbE 호스트 관리 포트 수 및 유형은 소형 도메인에 연결된 CPU에 따라 달라집니다. 74 CPU0: NET0-1 CPU1: NET1, NET3(가상 네트워크 장치 사용) CPU2: NET0, NET2(가상 네트워크 장치 사용) CPU3: NET1, NET3(가상 네트워크 장치 사용) CPU4: NET0, NET2(가상 네트워크 장치 사용) CPU5: NET1, NET3(가상 네트워크 장치 사용) CPU6: NET0, NET2(가상 네트워크 장치 사용) CPU7: NET2-3 Oracle SuperCluster T5-8 2014년 10월

소프트웨어 구성 이해 10GbE 클라이언트 액세스 네트워크 PCI 루트 컴플렉스 쌍 1개. 따라서 10GbE NIC 1개가 풀 랙 SPARC T5-8 서버의 소형 도메 인과 연결됩니다. 두 포트가 이중 포트 10GbE NIC 각각에 사용되며, 각 10GbE NIC에 있는 두 포트는 한 개의 IPMP 그룹에 속합니다. 소형 도메인의 경우 이중 포트 10GbE NIC 각각 에 있는 두 포트는 10GbE 네트워크에 연결됩니다. 다음 10GbE NIC 및 포트는 소형 도메인이 연결된 CPU에 따라 소형 도메인에 대한 클라이 언트 액세스 네트워크 연결에 사용됩니다. CPU0: PCIe 슬롯 1, 포트 0(활성) PCIe 슬롯 1, 포트 1(대기) CPU1: PCIe 슬롯 9, 포트 0(활성) PCIe 슬롯 9, 포트 1(대기) CPU2: PCIe 슬롯 2, 포트 0(활성) PCIe 슬롯 2, 포트 1(대기) CPU3: PCIe 슬롯 10, 포트 0(활성) PCIe 슬롯 10, 포트 1(대기) CPU4: PCIe 슬롯 5, 포트 0(활성) PCIe 슬롯 5, 포트 1(대기) CPU5: PCIe 슬롯 13, 포트 0(활성) PCIe 슬롯 13, 포트 1(대기) CPU6: PCIe 슬롯 6, 포트 0(활성) PCIe 슬롯 6, 포트 1(대기) CPU7: PCIe 슬롯 14, 포트 0(활성) PCIe 슬롯 14, 포트 1(대기) 단일 데이터 주소가 이러한 두 물리적 포트에 액세스하는 데 사용됩니다. 데이터 주소를 통해 10GbE NIC에 있는 두 개의 포트 중 하나의 연결이 실패하는 경우에도 트래픽이 IPMP 그룹 의 포트에 계속 흘러갈 수 있습니다. 시스템 이해 75

클러스터링 소프트웨어 이해 참고 - 또한 10GbE 네트워크에 수행할 수 있는 10GbE 연결 수가 제한되는 경우 두 개의 포 트가 아닌 각 IPMP 그룹에 있는 한 개의 포트만 10GbE 네트워크에 연결할 수 있습니다. 그 러나 이 경우 중복성 및 늘어난 대역폭은 없습니다. InfiniBand 네트워크 InfiniBand 네트워크에 대한 연결은 도메인 유형에 따라 다릅니다. 데이터베이스 도메인: 저장소 개인 네트워크: 각 소형 도메인에서 CPU와 연결된 InfiniBand HCA의 P1(활성) 및 P0(대기)를 통한 연결. 예를 들어, CPU0와 연결된 소형 도메인의 경우, 이러한 연결은 해당 InfiniBand HCA에서 포트 P1(활성) 및 P0(대기)까지 슬롯 3에 설치된 InfiniBand HCA를 통 해 구성됩니다. Exadata 개인 네트워크: 각 소형 도메인에서 CPU와 연결된 InfiniBand HCA의 P0(활성) 및 P1(대기)을 통한 연결. 예를 들어, CPU0와 연결된 소형 도메인의 경우, 이러한 연결은 해당 InfiniBand HCA에서 포트 P0(활성) 및 P1(대기)까지 슬롯 3에 설치된 InfiniBand HCA를 통 해 구성됩니다. 응용 프로그램 도메인: 저장소 개인 네트워크: 각 소형 도메인에서 CPU와 연결된 InfiniBand HCA의 P1(활성) 및 P0(대기)를 통한 연결. 예를 들어, CPU0와 연결된 소형 도메인의 경우, 이러한 연결은 해당 InfiniBand HCA에서 포트 P1(활성) 및 P0(대기)까지 슬롯 3에 설치된 InfiniBand HCA를 통 해 구성됩니다. Oracle Solaris Cluster 개인 네트워크: 각 소형 도메인에서 CPU와 연결된 InfiniBand HCA의 P0(활성) 및 P1(대기)을 통한 연결. 예를 들어, CPU0와 연결된 소형 도메인의 경우, 이러한 연결은 해당 InfiniBand HCA에서 포트 P0(활성) 및 P1(대기)까지 슬롯 3에 설치된 InfiniBand HCA를 통 해 구성됩니다. 클러스터링 소프트웨어 이해 클러스터링 소프트웨어는 일반적으로 상호 연결된 여러 서버에서 사용되므로 최종 사용자 및 응용 프로그램에 대해 한 개의 서버처럼 표시됩니다. Oracle SuperCluster T5-8의 경 우 클러스터링 소프트웨어는 다른 SPARC T5-8 서버에 있는 동일한 유형의 도메인과 함께 SPARC T5-8 서버에 있는 특정한 논리적 도메인을 클러스터화하는 데 사용됩니다. 클러스터 링 소프트웨어의 이점은 다음과 같습니다. 76 소프트웨어 또는 하드웨어 오류로 인한 시스템 중단 시간 감소 또는 제거 Oracle SuperCluster T5-8 2014년 10월

클러스터링 소프트웨어 이해 정상적으로 단일 서버 시스템을 종료하는 종류의 오류에 관계없이 최종 사용자에게 데 이터 및 응용 프로그램의 가용성 보장 클러스터에 노드를 추가하고 로드 균형을 조정하여 서비스를 추가 프로세서까지 확장함 으로써 응용 프로그램 처리량 증가 전체 클러스터를 종료하지 않고 유지 관리를 수행할 수 있도록 하여 시스템 가용성 향상 Oracle SuperCluster T5-8은 다음 클러스터링 소프트웨어를 사용합니다. 데이터베이스 도메인용 클러스터 소프트웨어 [77] Oracle Solaris 응용 프로그램 도메인용 클러스터 소프트웨어 [77] 데이터베이스 도메인용 클러스터 소프트웨어 Oracle Database 11g Real Application Clusters(Oracle RAC)는 데이터베이스 도메인 에서 Oracle 데이터베이스의 클러스터링을 가능하게 합니다. Oracle RAC는 SPARC T5-8 서버에 있는 데이터베이스 도메인을 함께 클러스터링하기 위해 기반구조에 대해 Oracle Clusterware를 사용합니다. Oracle Clusterware는 Oracle 데이터베이스와 통합된 이식 가능 클러스터 관리 솔루션입 니다. 또한 Oracle Clusterware는 Oracle RAC를 사용하기 위한 필수 구성 요소입니다. Oracle Clusterware를 통해 단일 인스턴스 및 Oracle RAC 데이터베이스의 결합에서 사용 할 클러스터링된 저장소 풀을 만들 수 있습니다. 단일 인스턴스 Oracle 데이터베이스의 경우 Oracle 데이터베이스와 인스턴스 간에 일대일 관계를 갖습니다. 그러나 Oracle RAC 환경의 경우 데이터베이스와 인스턴스 간에 일대다 관 계를 갖습니다. Oracle RAC 환경에서 클러스터 데이터베이스 인스턴스는 한 개의 데이터베 이스에 액세스합니다. 여러 서버의 결합된 처리 능력은 단일 서버에서 사용할 수 있는 것보다 더 많은 처리량과 확장성을 제공할 수 있습니다. Oracle RAC는 한 개의 Oracle 데이터베이 스에 액세스하기 위해 여러 서버에 단일 시스템 이미지를 제공하는 Oracle 데이터베이스 옵 션입니다. Oracle RAC는 모든 응용 프로그램 유형의 고가용성 및 확장성을 제공하는 고유한 기술입니 다. 또한 Oracle RAC 기반구조는 Oracle 엔터프라이즈 그리드 컴퓨팅 구조를 구현하기 위 한 핵심 구성 요소입니다. 여러 인스턴스가 단일 데이터베이스에 액세스하면 서버가 단일 오 류 지점이 되는 것을 방지합니다. Oracle RAC 데이터베이스에 배포하는 응용 프로그램은 코 드 변경 없이 작동할 수 있습니다. Oracle Solaris 응용 프로그램 도메인용 클러스터 소프트 웨어 Oracle Solaris Cluster 소프트웨어는 Oracle Solaris 응용 프로그램 도메인에 사용되는 선 택적 클러스터링 도구입니다. Oracle SuperCluster T5-8에서 Oracle Solaris Cluster 소프 시스템 이해 77

네트워크 요구 사항 이해 트웨어는 SPARC T5-8 서버의 Oracle Solaris 응용 프로그램 도메인을 함께 클러스터화하는 데 사용됩니다. 네트워크 요구 사항 이해 다음 항목은 Oracle SuperCluster T5-8에 대한 네트워크 요구 사항에 대해 설명합니다. 네트워크 요구 사항 개요 [78] Oracle SuperCluster T5-8에 대한 네트워크 연결 요구 사항 [81] 기본 IP 주소 [82] 네트워크 요구 사항 개요 Oracle SuperCluster T5-8에는 SPARC T5-8 서버, Exadata Storage Server 및 ZFS Storage Appliance뿐만 아니라 네트워크에 SPARC T5-8 서버를 연결하기 위한 장비가 포 함되어 있습니다. 네트워크 연결을 통해 서버가 원격으로 관리되고 클라이언트가 SPARC T5-8 서버에 연결될 수 있습니다. 각 SPARC T5-8 서버는 다음 네트워크 구성 요소 및 인터페이스로 구성됩니다. 호스트 관리 네트워크에 연결하기 위한 포함된 기가비트 이더넷 포트 4개(NET0, NET1, NET2 및 NET3) Oracle ILOM(Oracle Integrated Lights Out Manager) 원격 관리를 위한 이더넷 포 트(NET MGT) 1개 InfiniBand 개인 네트워크에 연결하기 위한 이중 포트 Sun QDR InfiniBand PCIe 로우 프로파일 호스트 채널 어댑터(Host Channel Adapter, HCA) 4개(하프 랙) 또는 8개 (풀 랙) 10GbE 클라이언트 액세스 네트워크에 연결하기 위한 이중 포트 Sun Dual 10GbE SFP+ PCIe 2.0 로우 프로파일 네트워크 인터페이스 카드(NIC) 4개(하프 랙) 또는 8개 (풀 랙) 참고 - 10GbE PCIe 2.0 네트워크 카드용 QSFP 모듈은 개별적으로 구입합니다. 각 Exadata Storage Server는 다음과 같은 네트워크 구성 요소 및 인터페이스로 구성됩니 다. 호스트 관리 네트워크에 연결하기 위한 포함된 기가비트 이더넷 포트 1개(NET0) InfiniBand 개인 네트워크에 연결하기 위한 이중 포트 Sun QDR InfiniBand PCIe 로우 프로파일 호스트 채널 어댑터(Host Channel Adapter, HCA) 1개 Oracle ILOM 원격 관리를 위한 이더넷 포트(NET MGT) 1개 각 ZFS 저장소 컨트롤러는 다음 네트워크 구성 요소 및 인터페이스로 구성됩니다. 78 Oracle SuperCluster T5-8 2014년 10월

네트워크 요구 사항 이해 호스트 관리 네트워크에 연결하기 위한 포함된 기가비트 이더넷 1개 첫번째 저장소 컨트롤러의 NET0(랙의 슬롯 25에 설치됨) 두번째 저장소 컨트롤러의 NET1(랙의 슬롯 26에 설치됨) InfiniBand 개인 네트워크에 연결하기 위한 이중 포트 QDR InfiniBand 호스트 채널 어 댑터 1개 사이드밴드 관리를 사용하는 Oracle ILOM 원격 관리를 위한 이더넷 포트 1개(NET0) 전용 Oracle ILOM 포트는 사이드밴드로 인해 사용되지 않습니다. Oracle SuperCluster T5-8과 함께 제공되는 Cisco Catalyst 4948 이더넷 스위치는 설치 중 최소 구성으로 제공됩니다. 최소 구성의 경우 IP 경로 지정을 사용 안함으로 설정하고 다음을 설정합니다. 호스트 이름 IP 주소 서브넷 마스크 기본 게이트웨이 도메인 이름 도메인 이름 서버 NTP 서버 시간 표준 시간대 스위치를 사용자의 환경에서 제대로 작동하게 하려면 여러 VLAN(Virtual Local Area Network) 정의, 경로 지정 사용과 같은 추가 구성이 필요할 수 있지만 이러한 구성은 설치 서비스의 범위를 벗어납니다. 추가 구성이 필요한 경우 네트워크 관리자는 Oracle SuperCluster T5-8을 설치하는 동안 필요한 구성 단계를 수행해야 합니다. Oracle SuperCluster T5-8을 배포하려면 최소 네트워크 요구 사항을 충족하는지 확인하십 시오. Oracle SuperCluster T5-8에 대해 세 개의 네트워크가 있습니다. 각 네트워크는 다른 네트워크로부터 분리된 고유한 서브넷에 있어야 합니다. 네트워크 설명은 다음과 같습니다. 관리 네트워크 이 필수 네트워크는 기존 관리 네트워크에 연결되고 Oracle SuperCluster T5-8의 모든 구성 요소의 관리 작업에 사용됩니다. 랙의 이더넷 스위치 에 연결된 스위치, 서버, Oracle ILOM에 연결됩니다. 랙의 이더넷 스위치에서 기존 관 리 네트워크까지 한 개의 업링크가 있습니다. 참고 - PDU에 대한 네트워크 연결은 전기적 전류가 원격으로 모니터링되는 경우에만 필요합 니다. 각 SPARC T5-8 서버 및 Exadata Storage Server에는 두 개의 관리용 네트워크 인터 페이스가 사용됩니다. 한 개는 1GbE 호스트 관리 인터페이스를 통해 운영 체제에 관 리 액세스를 제공하고 다른 한 개는 Oracle ILOM 이더넷 인터페이스를 통해 Oracle Integrated Lights Out Manager에 액세스를 제공합니다. 시스템 이해 79

네트워크 요구 사항 이해 참고 - SPARC T5-8 서버에는 4개의 1GbE 호스트 관리 인터페이스가 있습니다(NET 0 - NET3). 네 개의 모든 NET 인터페이스는 물리적으로 연결되고 중복성을 제공하기 위해 IPMP를 사용합니다. 자세한 내용은 소프트웨어 구성 이해 [40]을 참조하십시오. ZFS 저장소 컨트롤러를 관리 네트워크에 연결하는 데 사용되는 방법은 컨트롤러에 따라 다릅니다. 저장소 컨트롤러 1: 1GbE 호스트 관리 네트워크에 대한 액세스뿐만 아니라 사이드 밴드 관리를 사용하여 Oracle ILOM 네트워크에 대한 액세스를 제공하기 위해 사 용되는 NET0입니다. 저장소 컨트롤러 2: 사이드밴드 관리를 사용하여 Oracle ILOM 네트워크에 대한 액세스를 제공하기 위해 사용되는 NET0 및 1GbE 호스트 관리 네트워크에 대한 액 세스를 제공하기 위해 사용되는 NET1입니다. Oracle SuperCluster T5-8은 랙의 이더넷 스위치에 연결된 Oracle ILOM 인터페이스 및 1GbE 호스트 관리 인터페이스와 함께 제공됩니다. SPARC T5-8 서버의 1GbE 호스 트 관리 인터페이스를 클라이언트 또는 응용 프로그램 네트워크 트래픽에 사용해서는 안됩니다. 이러한 인터페이스에 대한 케이블 연결 또는 구성 변경은 허용되지 않습니다. 클라이언트 액세스 네트워크 이 필수 10GbE 네트워크는 SPARC T5-8 서버를 기존 클라이언트 네트워크에 연결하며 서버에 대한 클라이언트 액세스에 사용됩니다. 데이 터베이스 응용 프로그램은 SCAN(Single Client Access Name) 및 Oracle RAC 가상 IP(Virtual IP, VIP) 주소를 사용하는 네트워크를 통해 데이터베이스에 액세스합니다. InfiniBand 개인 네트워크 이 네트워크는 랙에서 InfiniBand 스위치를 사용하여 SPARC T5-8 서버, ZFS Storage Appliance 및 Exadata Storage Server에 연결됩니 다. 데이터베이스 도메인으로 구성된 SPARC T5-8 서버의 경우 Oracle 데이터베이스는 Oracle RAC 클러스터 상호 연결 트래픽 및 Exadata Storage Server와 ZFS Storage Appliance의 데이터에 액세스하기 위해 이 네트워크를 사용합니다. 응용 프로그램 도 메인으로 구성된 SPARC T5-8 서버의 경우 Oracle Solaris Cluster는 클러스터 상호 연 결 트래픽 및 ZFS Storage Appliance의 데이터에 액세스하기 위해 이 네트워크를 사용 합니다. 라우트가 가능하지 않은 이 네트워크는 Oracle SuperCluster T5-8에 완전히 포함되어 있으며 기존 네트워크에 연결되지 않습니다. 이 네트워크는 설치 중 자동으로 구성됩니다. 참고 - 모든 네트워크는 서로 분리된 고유한 서브넷에 있어야 합니다. 다음 그림은 기본 네트워크 다이어그램을 보여줍니다. 80 Oracle SuperCluster T5-8 2014년 10월

네트워크 요구 사항 이해 그림 18 Oracle SuperCluster T5-8에 대한 네트워크 다이어그램 Oracle SuperCluster T5-8에 대한 네트워크 연결 요구 사항 다음 연결은 Oracle SuperCluster T5-8 설치에 필요합니다. 표1 설치에 필요한 새 네트워크 연결 연결 유형 연결 수 설명 관리 네트워크 이더넷 스위치용 1개 기존 관리 네트워크에 연결 클라이언트 액세스 네트워크 일반적으로 논리적 도메인당 2개 클라이언트 액세스 네트워크에 연결합니다. (논 리적 도메인당 연결이 한 개뿐인 경우 IPMP를 통 한 중복성이 구성되지 않습니다.) 시스템 이해 81

네트워크 요구 사항 이해 기본 IP 주소 이해 다음 항목은 제조 중 Oracle SuperCluster T5-8 구성 요소에 지정된 기본 IP 주소를 나열합 니다. 기본 IP 주소 [82] 기본 호스트 이름 및 IP 주소 [82] 기본 IP 주소 4세트의 기본 IP 주소가 제조 시 지정됩니다. 관리 IP 주소 SPARC T5-8 서버, Exadata Storage Server 및 ZFS 저장소 컨트롤러에 대한 Oracle ILOM에 사용되는 IP 주소입니다. 호스트 IP 주소 SPARC T5-8 서버, Exadata Storage Server, ZFS 저장소 컨트롤러 및 스위치에 사용되는 호스트 IP 주소입니다. InfiniBand IP 주소 InfiniBand 인터페이스는 SPARC T5-8 서버, Exadata Storage Server 및 ZFS 저장소 컨트롤러 간의 기본 통신 채널입니다. Oracle SuperCluster T5-8을 동일한 InfiniBand 패브릭의 다른 Oracle SuperCluster T5-8이나 Oracle Exadata 또는 Exalogic 시스템에 연결하는 경우 InfiniBand 인터페이스는 1개의 Oracle SuperCluster T5-8 및 다른 Oracle SuperCluster T5-8이나 Oracle Exadata 또는 Exalogic 시스템의 SPARC T5-8 서버와 저장소 서버 헤드 간의 통신을 사용으로 설정합니다. 10GbE IP 주소 10GbE 클라이언트 액세스 네트워크 인터페이스에 사용되는 IP 주소 입니다. 작은 정보 - 이러한 인터페이스가 사용되는 방법에 대한 추가 정보는 그림 18. Oracle SuperCluster T5-8에 대한 네트워크 다이어그램 을 참조하십시오. 기본 호스트 이름 및 IP 주소 Oracle SuperCluster T5-8에서 사용되는 기본 IP 주소의 경우 다음 항목을 참조하십시오. 82 Oracle ILOM 및 호스트 관리 네트워크의 기본 호스트 이름 및 IP 주소 [83] InfiniBand 및 10GbE 클라이언트 액세스 네트워크의 기본 호스트 이름 및 IP 주 소 [84] Oracle SuperCluster T5-8 2014년 10월

네트워크 요구 사항 이해 Oracle ILOM 및 호스트 관리 네트워크의 기본 호스트 이름 및 IP 주소 표2 Oracle ILOM 및 호스트 관리 네트워크의 기본 호스트 이름 및 IP 주소 제조 시 지정된 정보 장치 번호 랙 구성 요소(전면 보기) Oracle ILOM 호스 트 이름 Oracle ILOM IP 주 소 호스트 관리 호스트 이름 호스트 관리 IP 주소 해당 없 음 PDU-A(후면 보기의 왼쪽) sscpdua 192.168.1.210 해당 없음 PCU-B(후면 보기의 오른쪽) sscpdub 192.168.1.211 해당 없음 42 Exadata Storage Server 8 ssces8-sp 192.168.1.108 cell08 192.168.1.8 41 (풀 랙 전용) 40 Exadata Storage Server 7 ssces7-sp 192.168.1.107 cell07 192.168.1.7 39 (풀 랙 전용) 38 Exadata Storage Server 6 ssces6-sp 192.168.1.106 cell06 192.168.1.6 37 (풀 랙 전용) 36 Exadata Storage Server 5 ssces5-sp 192.168.1.105 cell05 192.168.1.5 35 (풀 랙 전용) 34 ZFS 저장소 컨트롤러 2 sscsn2-sp 192.168.1.116 sscsn2-m1 192.168.1.16 33 ZFS 저장소 컨트롤러 1 sscsn1-sp 192.168.1.115 sscsn1-m1 192.168.1.15 32 Sun Datacenter InfiniBand Switch 36(리프 2) sscnm1-m3 192.168.1.203 해당 없음 해당 없음 31 ZFS Storage Appliance용 Sun Disk Shelf 해당 없음 해당 없음 해당 없음 해당 없음 27 Cisco Catalyst 4948 이더넷 관리 스 위치 ssc4948-m1 192.168.1.200 해당 없음 해당 없음 26 Sun Datacenter InfiniBand Switch 36(리프 1) sscnm1-m2 192.168.1.202 해당 없음 해당 없음 25 SPARC T5-8 서버 2 ssccn2-sp 192.168.1.110 ssccn2-m4 192.168.1.39 ssccn2-m3 192.168.1.29 ssccn2-m2 192.168.1.19 30 29 28 24 23 22 21 시스템 이해 83

네트워크 요구 사항 이해 제조 시 지정된 정보 장치 번호 랙 구성 요소(전면 보기) Oracle ILOM 호스 트 이름 Oracle ILOM IP 주 소 호스트 관리 호스트 이름 호스트 관리 IP 주소 ssccn2-m1 192.168.1.10 ssccn1-m4 192.168.1.38 ssccn1-m3 192.168.1.28 ssccn1-m2 192.168.1.18 ssccn1-m1 192.168.1.9 20 19 18 17 SPARC T5-8 서버 1 ssccn1-sp 192.168.1.109 16 15 14 13 12 11 10 9 Exadata Storage Server 4 ssces4-sp 192.168.1.104 cell04 192.168.1.4 Exadata Storage Server 3 ssces3-sp 192.168.1.103 cell03 192.168.1.3 Exadata Storage Server 2 ssces2-sp 192.168.1.102 cell02 192.168.1.2 Exadata Storage Server 1 ssces1-sp 192.168.1.101 cell01 192.168.1.1 Sun Datacenter InfiniBand Switch 36(스파인) sscnm1-m1 192.168.1.201 해당 없음 해당 없음 8 7 6 5 4 3 2 1 InfiniBand 및 10GbE 클라이언트 액세스 네트워크의 기본 호스트 이름 및 IP 주소 InfiniBand 및 10GbE 클라이언트 액세스 네트워크의 기본 호스트 이름 및 IP 주소 표3 제조 시 지정된 정보 장치 번호 랙 구성 요소(전면 보기) InfiniBand 호스트 이름 InfiniBand IP 주소 10GbE 클라이언트 액세스 호스트 이름 10GbE 클라이언트 액세스 IP 주소 해당 없 음 PDU-A(후면 보기의 왼쪽) 해당 없음 해당 없음 해당 없음 해당 없음 PCU-B(후면 보기의 오른쪽) 해당 없음 해당 없음 해당 없음 해당 없음 84 Oracle SuperCluster T5-8 2014년 10월

네트워크 요구 사항 이해 제조 시 지정된 정보 장치 번호 랙 구성 요소(전면 보기) InfiniBand 호스트 이름 InfiniBand IP 주소 10GbE 클라이언트 액세스 호스트 이름 10GbE 클라이언트 액세스 IP 주소 42 Exadata Storage Server 8 ssces8-stor 192.168.10.108 해당 없음 해당 없음 41 (풀 랙 전용) 40 Exadata Storage Server 7 ssces7-stor 192.168.10.107 해당 없음 해당 없음 39 (풀 랙 전용) 38 Exadata Storage Server 6 ssces6-stor 192.168.10.106 해당 없음 해당 없음 37 (풀 랙 전용) 36 Exadata Storage Server 5 ssces5-stor 192.168.10.105 해당 없음 해당 없음 35 (풀 랙 전용) 34 ZFS 저장소 컨트롤러 2 해당 없음 해당 없음 해당 없음 해당 없음 33 ZFS 저장소 컨트롤러 1 sscsn1-stor1 192.168.10.15 해당 없음 해당 없음 32 Sun Datacenter InfiniBand Switch 36(리프 2) 해당 없음 해당 없음 해당 없음 해당 없음 31 ZFS Storage Appliance용 Sun Disk Shelf 해당 없음 해당 없음 해당 없음 해당 없음 27 Cisco Catalyst 4948 이더넷 관리 스 위치 해당 없음 해당 없음 해당 없음 해당 없음 26 Sun Datacenter InfiniBand Switch 36(리프 1) 해당 없음 해당 없음 해당 없음 해당 없음 25 SPARC T5-8 서버 2 ssccn2-ib8 192.168.10.80 ssccn2-tg16 192.168.40.32 ssccn2-tg15 192.168.40.31 ssccn2-tg14 192.168.40.30 ssccn2-tg13 192.168.40.29 ssccn2-tg12 192.168.40.28 ssccn2-tg11 192.168.40.27 ssccn2-tg10 192.168.40.26 ssccn2-tg9 192.168.40.25 ssccn2-tg8 192.168.40.24 ssccn2-tg7 192.168.40.23 30 29 28 24 23 22 21 ssccn2-ib7 ssccn2-ib6 ssccn2-ib5 ssccn2-ib4 192.168.10.70 192.168.10.60 192.168.10.50 192.168.10.40 시스템 이해 85

네트워크 요구 사항 이해 제조 시 지정된 정보 장치 번호 랙 구성 요소(전면 보기) 20 19 10GbE 클라이언트 액세스 호스트 이름 10GbE 클라이언트 액세스 IP 주소 ssccn2-ib3 192.168.10.30 ssccn2-tg6 192.168.40.22 ssccn2-tg5 192.168.40.21 ssccn2-tg4 192.168.40.20 ssccn2-tg3 192.168.40.19 ssccn2-tg2 192.168.40.18 ssccn2-tg1 192.168.40.17 ssccn1-tg16 192.168.40.16 ssccn1-tg15 192.168.40.15 ssccn1-tg14 192.168.40.14 ssccn1-tg13 192.168.40.13 ssccn1-tg12 192.168.40.12 ssccn1-tg11 192.168.40.11 ssccn1-tg10 192.168.40.10 ssccn1-tg9 192.168.40.9 ssccn1-tg8 192.168.40.8 ssccn1-tg7 192.168.40.7 ssccn1-tg6 192.168.40.6 ssccn1-tg5 192.168.40.5 ssccn1-tg4 192.168.40.4 ssccn1-tg3 192.168.40.3 ssccn1-tg2 192.168.40.2 ssccn1-tg1 192.168.40.1 ssccn2-ib1 SPARC T5-8 서버 1 16 ssccn1-ib8 ssccn1-ib7 15 ssccn1-ib6 14 ssccn1-ib5 13 ssccn1-ib4 12 ssccn1-ib3 11 ssccn1-ib2 10 9 InfiniBand IP 주소 ssccn2-ib2 18 17 InfiniBand 호스트 이름 ssccn1-ib1 192.168.10.20 192.168.10.10 192.168.10.79 192.168.10.69 192.168.10.59 192.168.10.49 192.168.10.39 192.168.10.29 192.168.10.19 192.168.10.9 Exadata Storage Server 4 ssces4-stor 192.168.10.104 해당 없음 해당 없음 Exadata Storage Server 3 ssces3-stor 192.168.10.103 해당 없음 해당 없음 Exadata Storage Server 2 ssces2-stor 192.168.10.102 해당 없음 해당 없음 8 7 6 5 4 86 Oracle SuperCluster T5-8 2014년 10월

네트워크 요구 사항 이해 제조 시 지정된 정보 장치 번호 랙 구성 요소(전면 보기) InfiniBand 호스트 이름 InfiniBand IP 주소 10GbE 클라이언트 액세스 호스트 이름 10GbE 클라이언트 액세스 IP 주소 3 Exadata Storage Server 1 ssces1-stor 192.168.10.101 해당 없음 해당 없음 Sun Datacenter InfiniBand Switch 36(스파인) 해당 없음 해당 없음 해당 없음 해당 없음 2 1 시스템 이해 87

88 Oracle SuperCluster T5-8 2014년 10월

현장 준비 이 절에서는 시스템용 현장을 준비하기 위해 취해야 할 조치를 설명합니다. 주의 및 고려 사항 [89] 시스템 사양 검토 [90] 전원 요구 사항 검토 [92] 냉각 준비 [98] 언로드 경로 및 포장 풀기 장소 준비 [101] 네트워크 준비 [104] 주의 및 고려 사항 새 랙의 위치를 선택할 때 다음 사항을 고려하십시오. 다음과 같은 노출된 위치에 랙을 설치하지 마십시오. 직사광선 과도한 먼지 부식성 가스 염분 농도가 진한 공기 잦은 진동 강한 무선 주파수 방해 소스 정전기 올바른 접지를 제공하는 전원 콘센트를 사용합니다. 규정된 전기 기술자가 모든 접지 작업을 수행해야 합니다. 랙의 각 접지 선은 해당 랙에만 사용해야 합니다. 접지 저항이 10ohm보다 크면 안 됩니다. 건물의 접지 방법을 확인합니다. 장비의 레이블에 표시된 처리 관련 주의 사항, 경고 및 참고 사항을 준수합니다. (점검 목록) 48시간 동안 에어 컨디셔닝 시스템을 작동하여 방의 온도를 적절한 수준으 로 맞춥니다. (점검 목록) 설치 준비를 위해 해당 구역을 완전히 깨끗하게 진공 청소기로 청소합니다. 현장 준비 89

시스템 사양 검토 시스템 사양 검토 물리적 사양 [90] 설치 및 서비스 영역 [90] 랙과 바닥 홈 치수 [91] 물리적 사양 물리적 사양과 공간 요구 사항을 검토하여 설치 현장에서 시스템을 적절히 수용할 수 있는지 확인하십시오. 매개변수 미터 영국식 높이 1998mm 78.66인치 측면 패널 포함 너비 600mm 23.62인치 깊이(도어 포함) 1200mm 47.24인치 깊이(도어 제외) 1112mm 43.78인치 최소 천장 높이 2300mm 90인치 캐비닛 위와 천장 사이의 최소 공간 914mm 36인치 중량(풀 랙) 869kg 1,916파운드 중량(하프 랙) 706kg 1,556파운드 관련 정보 설치 및 서비스 영역 [90] 랙과 바닥 홈 치수 [91] 운송 패키지 치수 [101] 설치 및 서비스 영역 시스템을 설치하고 서비스하기에 충분한 공간을 제공하는 설치 현장을 선택하십시오. 90 위치 유지 관리 액세스 후면 유지 관리 914mm Oracle SuperCluster T5-8 2014년 10월 36인치

시스템 사양 검토 위치 유지 관리 액세스 전면 유지 관리 914mm 36인치 상단 유지 관리 914mm 36인치 관련 정보 물리적 사양 [90] 랙과 바닥 홈 치수 [91] 랙과 바닥 홈 치수 운송 팰릿에 랙을 고정하는 마운팅 브래킷을 사용하면 바닥에 랙을 마운트할 수 있습니다. 자 체 마운팅 볼트를 제공해야 합니다. 랙의 바닥을 통해 아래로 케이블 경로를 설정하려는 경우 바닥 타일에 사각형 구멍을 뚫습니 다. 랙의 후면 부분 아래, 2개의 후면 이동용 바퀴 사이와 후면 안쪽 레일 뒤로 구멍을 찾습니 다. 권장되는 구멍 너비는 280mm(11인치)입니다. 개별 접지 케이블을 사용하려는 경우 접지 케이블 설치(선택 사항) [113]를 참조하십시오. 주의 - 랙의 이동용 바퀴 또는 수평 조절 다리 브래킷을 배치할 구멍을 만들지 마십시오. 현장 준비 91

전원 요구 사항 검토 그림 19 랙 고정 치수 그림 범례 1 2 3 4 5 6 7 마운팅 브래킷에서 랙의 가장자리까지 거리는 113mm(4.45인치)입니다. 마운팅 구멍 슬롯 중앙 사이의 너비는 374mm(14.72인치)입니다. 마운팅 브래킷과 랙의 가장자리 사이의 거리는 113mm(4.45인치)입니다. 전면과 후면 마운팅 구멍 슬롯 중앙 사이의 거리는 1120mm(44.1인치)입니다. 케이블 경로 설정 바닥 홈 깊이는 330mm(13인치)입니다. 바닥 홈과 랙의 가장자리 사이의 거리는 160mm(6.3인치)입니다. 바닥 홈의 너비는 280mm(11인치)입니다. 관련 정보 구멍 뚫린 바닥 타일 [101] 물리적 사양 [90] 설치 및 서비스 영역 [90] 전원 요구 사항 검토 92 시스템 전력 소비 [93] Oracle SuperCluster T5-8 2014년 10월

전원 요구 사항 검토 설비 전원 요구 사항 [93] 접지 요구 사항 [94] PDU 전원 요구 사항 [94] 시스템 전력 소비 설명 풀랙 하프 랙 최대 15.97kVA 9.09kVA 15.17kW 8.6kW 13.31kVA 7.5kVA 12.64kW 7.13kW 일반 관련 정보 설비 전원 요구 사항 [93] 접지 요구 사항 [94] PDU 전원 요구 사항 [94] 설비 전원 요구 사항 각 전원 코드에 개별 회로 차단기를 제공합니다. PDU에 전원을 공급하는 모든 전원 회로에는 전용 AC 차단기 패널을 사용하십시오. 차단기 스위치 및 차단기 패널은 다른 높은 전원의 장비와 공유해서는 안 됩니다. AC 전원 공급 장치 분기 회로 사이에 전원 부하의 균형을 유지합니다. 전기적 변동 및 중단으로부터 랙을 보호하려면 전용 배전 시스템, 무정전 전원 공급 장치 (Uninterruptible Power Supply, UPS), 전원 조절 장비 및 피뢰기가 있어야 합니다. 관련 정보 시스템 전력 소비 [93] 접지 요구 사항 [94] PDU 전원 요구 사항 [94] 현장 준비 93

전원 요구 사항 검토 접지 요구 사항 항상 접지된 전원 콘센트에 코드를 연결하십시오. 컴퓨터 장비는 전기 회로가 지면에 접지되 어야 합니다. 다른 접지 방법은 위치에 따라 다르기 때문에 올바른 접지 방법은 IEC 문서와 같은 설명서를 참조하십시오. 설비 관리자나 공인 전기 엔지니어가 건물의 접지 방법을 확인하고 접지 작업 을 수행해야 합니다. 관련 정보 설비 전원 요구 사항 [93] 시스템 전력 소비 [93] PDU 전원 요구 사항 [94] PDU 전원 요구 사항 시스템을 주문할 때 다음 옵션 중 하나를 선택했습니다. 저전압 또는 고전압 단상 또는 3상 전원 Oracle 마케팅 및 제조 부품 번호는 다음 표를 참조하십시오. 참고 - 각 시스템에는 2개의 배전 장치(Power Distribution Unit, PDU)가 있습니다. 랙에 있 는 2개의 PDU 모두 동일한 유형이어야 합니다. PDU 옵션 표4 전압 위상 참조 낮음 2 표 5. 저전압 2상 PDU 낮음 3 표 6. 저전압 3상 PDU 높음 1 표 7. 고전압 단상 PDU 높음 3 표 8. 고전압 3상 PDU 저전압 2상 PDU 표5 저전압 2상(2W+GND) kva 크기 22kVA 94 Oracle SuperCluster T5-8 2014년 10월 설명

전원 요구 사항 검토 저전압 2상(2W+GND) 설명 마케팅 부품 번호 7100873 제조 부품 번호 7018123 상 2 입력 코드에 중성 접지점이 제공되지 않음 전압 입력 등급 3x [2Ph. (2W+접지)] 208 Vac, 50/60 Hz, 위상당 최대 36.8A 200V - 240V AC 정격 범위의 Ph-Ph 입력 소스에 연결 가능 PDU당 Amp 110.4A(3개 입력 x 36.8A) 콘센트 42 C13 6 C19 입력 수 3개 입력 x50a 플러그, 2Ph(2W+접지) 입력 전류 최대 36.8A 전류(입력당) 데이터 센터 콘센트 Hubbell CS8264C PDU당 콘센트 그룹 6 사용 가능한 PDU 전원 코드 길이 2m(6.6피트) PDU당 3개 입력/플러그 또는 시스템에 대 해 총 6개 입력/플러그 PDU 전원 코드는 4m(13피트)이지만 섹션 은 랙의 내부 라우팅에 사용됩니다. 요약: Oracle SuperCluster T5-8의 PDU 수: 2 PDU당 회로 수: 3 @ 50A 2상 208V 필요한 총 회로 수: 6 @ 50A 2상 208V(PDU당 2개) 필요한 총 데이터 센터 콘센트 수: 6 x Hubbell CS8264C PDU당 총 암페어: 110.4A 2상 208V 전체 Oracle SuperCluster T5-8의 총 암페어: 220.8A 2상 208V(2 PDU @ 각 110.4A 2상 208V) 표6 저전압 3상 PDU 저전압 3상(3W+GND) 설명 kva 크기 24kVA 마케팅 부품 번호 6444A 제조 부품 번호 597-1162-01 상 3 입력 코드에 중성 접지점이 제공되지 않음 전압 입력 등급 2x [3Ph. (3W+접지)] 208 Vac, 50/60 Hz, 위상당 최대 34.6A 190V - 220V AC 정격 범위의 Ph-Ph 입력 소스에 연결 가능 PDU당 Amp 120A(3 x 20A) 현장 준비 95

전원 요구 사항 검토 저전압 3상(3W+GND) 콘센트 42 C13 설명 6 C19 입력 수 2개 입력 x 60A 플러그, 3ph(3W+GND) 입력 전류 최대 34.6A (상당) 데이터 센터 콘센트 IEC 309-3P4W-IP67 PDU당 콘센트 그룹 6 사용 가능한 PDU 전원 코드 길이 2m(6.6피트) PDU당 2개 입력/플러그 또는 시스템에 대 해 총 4개 입력/플러그 (60A, 250V, AC, 3Ph) PDU 전원 코드는 4m(13피트)이지만 섹션 은 랙의 내부 라우팅에 사용됩니다. 요약: Oracle SuperCluster T5-8의 PDU 수: 2 PDU당 회로 수: 2 @ 60A 3상 208V 필요한 총 회로 수: 4 @ 60A 3상 208V(PDU당 2개) 필요한 총 데이터 센터 콘센트 수: 4 x IEC 309-3P4W-IP67 PDU당 총 암페어: 120A 3상 208V 전체 Oracle SuperCluster T5-8의 총 암페어: 240A 3상 208V(2 PDU @ 각 120A 3상 208V) 고전압 단상 PDU 표7 고전압 단상(2W+GND) kva 크기 22kVA 마케팅 부품 번호 7100874 제조 부품 번호 7018124 상 1 전압 입력 등급 3x [1Ph. (2W+접지)] 230 Vac, 50 Hz, 위상당 최대 32A PDU당 Amp 96A(3개 입력 x 32A) 콘센트 42 C13 설명 220V - 240V AC 정격 범위의 Ph-N 입력 소스에 연결 가능 6 C19 입력 수 3개 입력 x 32A 플러그, 1Ph(2W+접지) 입력 전류 최대 32A 전류(입력당) 데이터 센터 콘센트 IEC 309-2P3W-IP44 96 Oracle SuperCluster T5-8 2014년 10월 PDU당 3개 입력/플러그 또는 시스템에 대 해 총 6개 입력/플러그

전원 요구 사항 검토 고전압 단상(2W+GND) PDU당 콘센트 그룹 6 사용 가능한 PDU 전원 코드 길이 2m(6.6피트) 설명 PDU 전원 코드는 4m(13피트)이지만 섹션 은 랙의 내부 라우팅에 사용됩니다. 요약: Oracle SuperCluster T5-8의 PDU 수: 2 PDU당 회로 수: 3 @ 32A 단상 230V 필요한 총 회로 수: 6 @ 32A 단상 230V(PDU당 2개) 필요한 총 데이터 센터 콘센트 수: 6 x IEC 309-2P3W-IP44 PDU당 총 암페어: 96A 단상 230V 전체 Oracle SuperCluster T5-8의 총 암페어: 192A 단상 230V(2 PDU @ 각 96A 단상 230V) 표8 고전압 3상 PDU 고전압 3상(4W+GND) kva 크기 24kVA 마케팅 부품 번호 6445A 제조 부품 번호 597-1163-01 상 3 전압 입력 등급 2x [3Ph. (4W+접지)] 230/400 Vac, 50/60 Hz, 위상당 최대 18A PDU당 Amp 109A(6개 입력 x 18.1A) 콘센트 42 C13 설명 220V - 240V AC 정격 범위의 Ph-N 입력 소스에 연결 가능 6 C19 입력 수 2개 입력 x25a 플러그, 3ph(4W+GND) 입력 전류 최대 18A (상당) 데이터 센터 콘센트 IEC 309-4P5W-IP44 PDU당 콘센트 그룹 6 사용 가능한 PDU 전원 코드 길이 2m(6.6피트) PDU당 2개 입력/플러그 또는 시스템에 대 해 총 4개 입력/플러그 (32A, 400V, AC, 3Ph) PDU 전원 코드는 4m(13피트)이지만 섹션 은 랙의 내부 라우팅에 사용됩니다. 요약: Oracle SuperCluster T5-8의 PDU 수: 2 현장 준비 97

냉각 준비 고전압 3상(4W+GND) 설명 PDU당 회로 수: 2 @ 25A 3상 230/400V 필요한 총 회로 수: 4 @ 25A 3상 230/400V(PDU당 2개) 필요한 총 데이터 센터 콘센트 수: 4 x IEC 309-4P5W-IP44 PDU당 총 암페어: 109A 3상 230/400V 전체 Oracle SuperCluster T5-8의 총 암페어: 218A 3상 230/400V(2 PDU @ 각 109A 3상 230/400V) 관련 정보 설비 전원 요구 사항 [93] 접지 요구 사항 [94] 시스템 전력 소비 [93] 냉각 준비 환경 요구 사항 [98] 열 손실 및 공기 흐름 요구 사항 [99] 구멍 뚫린 바닥 타일 [101] 환경 요구 사항 조건 작동 요구 사항 비작동 요구 사항 설명 온도 5 ~ 32 C (41 ~ 89.6 F) -40 ~ 70 C (-40 ~ 158 F) 최적 랙 냉각의 경우 데이터 센 터 온도가 21 ~ 23 C (70 ~ 47 F)인 것입니다. 상대 습도 10 ~ 90% 상대 습도, 비응축 최대 93%의 상대 습도 최적 데이터 센터 랙 냉각은 45 ~ 50%, 비응축입니다. 고도 3048m(10000피트) 최대 12000m(40000피트) 주변 온도는 수면 위의 900m 고도 이상 300m당 1도씩 낮아 집니다. 규정에 따라 최대 고도 2000m(6560피트)로 설치가 제한될 수 있는 중국 제외. 관련 정보 98 열 손실 및 공기 흐름 요구 사항 [99] Oracle SuperCluster T5-8 2014년 10월

냉각 준비 구멍 뚫린 바닥 타일 [101] 열 손실 및 공기 흐름 요구 사항 다음 표에서는 시스템에서 방출되는 최대 열 비율을 보여줍니다. 시스템을 적절히 냉각하려 면 적절한 공기 흐름이 시스템을 통과하는지 확인하십시오. 설명 풀랙 하프 랙 최대 54,405BTU/시간당 31,013BTU/시간 57.4kJ/시간당 32.69kJ/시간 45,422BTU/시간당 25,591BTU/시간 47.8kJ/시간당 26.97kJ/시간 일반 기본 랙 및 확장 랙의 공기 흐름 방향은 앞에서 뒤로입니다. 주의 - 에어컨에서 캐비닛까지 찬 공기의 이동 또는 캐비닛 뒤에서 나오는 뜨거운 공기의 이동 을 제한하지 마십시오. 다음 추가 요구 사항을 준수합니다. 환기를 위해 랙의 전면에 914mm(36인치), 랙의 후면에 914mm(36인치)의 최소 여 유 공간을 확보합니다. 랙의 왼쪽 및 오른쪽 또는 위쪽에 대한 공기 흐름 요구 사항은 없 습니다. 랙이 구성 요소로 완전히 채워지지 않은 경우 필러 패널로 빈 섹션을 덮습니다. 현장 준비 99

냉각 준비 그림 20 앞에서 뒤로인 공기 흐름 방향 표9 공기 흐름(나열된 양은 근사값임) 랙 일반 풀랙 CFM 2,523 2,103 하프 랙 CFM 1,436 1,185 관련 정보 100 최대 환경 요구 사항 [98] Oracle SuperCluster T5-8 2014년 10월

언로드 경로 및 포장 풀기 장소 준비 구멍 뚫린 바닥 타일 [101] 구멍 뚫린 바닥 타일 기본 시스템 설치는 슬래브 바닥이라고 가정하지만, 올린 바닥에 서버를 설치하는 경우 시스 템에 냉각 공기를 공급하려면 랙 앞에 구멍 뚫린 타일을 사용합니다. 각 타일은 약 400CFM 의 공기 흐름을 공급해야 합니다. 타일에서 찬 공기가 랙으로 흘러 들어올 수 있으면 구멍 뚫린 타일은 랙 앞에 어떤 순서로든 정렬할 수 있습니다. 다음은 바닥 타일의 권장 수입니다. 랙 타일 수 풀랙 6 하프 랙 4 관련 정보 열 손실 및 공기 흐름 요구 사항 [99] 환경 요구 사항 [98] 랙과 바닥 홈 치수 [91] 언로드 경로 및 포장 풀기 장소 준비 사다리차에서 설치 현장으로 시스템을 옮길 수 있는지 확인하십시오. 운송 패키지 치수 [101] 적재 도크 및 수령 장소 요구 사항 [102] 액세스 경로 지침 [103] 포장 풀기 장소 [103] 운송 패키지 치수 다음 패키지 치수가 Oracle SuperCluster T5-8에 적용됩니다. 현장 준비 101

언로드 경로 및 포장 풀기 장소 준비 매개변수 미터 영국식 높이 2159mm 85인치 너비 1219mm 48인치 깊이 1575mm 62인치 포장 중량(풀 랙) 1009.2kg 2225파운드 포장 중량(하프 랙) 721kg 1586파운드 관련 정보 적재 도크 및 수령 장소 요구 사항 [102] 액세스 경로 지침 [103] 포장 풀기 장소 [103] 물리적 사양 [90] 적재 도크 및 수령 장소 요구 사항 랙이 도착하기 전에 수령 장소가 운송 패키지가 들어가기에 충분한지 확인합니다. 적재 도크가 표준 화물 운송 트럭의 높이와 경사로 요구 사항을 충족시키는 경우 팰릿 잭을 사용하여 랙을 꺼낼 수 있습니다. 적재 도크가 요구 사항을 충족하지 않는 경우에는 랙을 꺼 내는 데 표준 포크리프트 또는 다른 수단을 제공합니다. 또는 하역 장치가 있는 트럭으로 랙 을 운반하도록 요청할 수 있습니다. 랙이 도착하면 설치 현장에 도착할 때까지 랙을 운송 패키지 안에 그대로 둡니다. 참고 - 적응 시간: 운송 패키지가 너무 차갑거나 뜨거운 경우 컴퓨터실 또는 유사한 환경에 패 키지를 닫은 채로 세워 두어 컴퓨터실과 같은 온도가 되도록 합니다. 적응하는 데 최대 24시 간까지 필요할 수 있습니다. 관련 정보 102 운송 패키지 치수 [101] 액세스 경로 지침 [103] 포장 풀기 장소 [103] 물리적 사양 [90] Oracle SuperCluster T5-8 2014년 10월

언로드 경로 및 포장 풀기 장소 준비 액세스 경로 지침 서버를 최종 목적지로 옮길 때까지 포장 상자에 그대로 두는 것이 좋습니다. 시스템을 매끄럽게 운송할 수 있도록 액세스 경로를 계획합니다. 설치 현장에 대한 전체 액세 스 경로는 진동이 발생할 수 있는 올림 패턴이 없어야 합니다. 갑작스런 멈춤 또는 충격이 발 생할 수 있는 엘리베이터 또는 입구와 같은 장애물을 피하고, 다음 경로 요구 사항을 충족해 야 합니다. 액세스 경로 항목 운송 팰릿 사용 운송 팰릿 사용 안 함 최소 문 높이 2184mm 2000mm (86인치) (78.74인치) 1220 600mm (48인치) (23.62인치) 1575mm 1200mm (62인치) (47.24인치) 최대 경사 6도 6도 엘리베이터, 팰릿 잭 및 바닥 적재 최소 수용량 (포장 중량은 운송 패키지 치수 [101] 참 조) 1134kg 1134kg (2500파운드) (2500파운드) 최소 문 폭 최소 엘리베이터 깊이 관련 정보 운송 패키지 치수 [101] 적재 도크 및 수령 장소 요구 사항 [102] 포장 풀기 장소 [103] 물리적 사양 [90] 포장 풀기 장소 데이터 센터에 들어가기 전에 부피를 줄이려면 적합한 공간에서 포장 재료를 제거합니다. 배송 상자에서 포장을 풀기 전에 충분한 공간을 확보합니다. 포장을 푸는 위치에서 설치 위치 까지 랙을 옮기기 위해 충분한 여유 공간 및 장애물이 없는 통로가 있는지 확인합니다. 관련 정보 운송 패키지 치수 [101] 현장 준비 103

네트워크 준비 액세스 경로 지침 [103] 적재 도크 및 수령 장소 요구 사항 [102] 물리적 사양 [90] 네트워크 준비 Oracle SuperCluster T5-8에 맞게 네트워크를 준비합니다. 네트워크 연결 요구 사항 [104] 네트워크 IP 주소 요구 사항 [104] 시스템용 DNS 준비 [105] 네트워크 연결 요구 사항 물리적 네트워크 연결의 최소 개수가 아래에 나열됩니다. 매개변수 설명 풀랙 하프 랙 네트워크 드롭 (최소량) 1Gb 이더넷 1 x 1GB 1 x 1GB 10Gb 이더넷 SPARC T5-8당 1개의 연결을 사용하 는 경우 4 x 10GB SPARC T5-8당 1개의 연결을 사용 하는 경우 2 x 10GB SPARC T5-8당 2개의 연결을 사용하 는 경우 8 x 10GB SPARC T5-8당 2개의 연결을 사용 하는 경우 4 x 10GB SPARC T5-8당 4개의 연결을 사용하 는 경우 32 x 10GB SPARC T5-8당 4개의 연결을 사용 하는 경우 16 x 10GB SPARC T5-8당 1개의 연결만 있는 경우 IPMP를 사용하는 중복성은 없습니다. 관련 정보 네트워크 IP 주소 요구 사항 [104] 시스템용 DNS 준비 [105] 네트워크 요구 사항 이해 [78] 네트워크 IP 주소 요구 사항 Oracle SuperCluster T5-8의 경우 각 네트워크에 필요한 IP 주소 수는 시스템에 대해 선택 한 구성 유형에 따라 다릅니다. 구성에 필요한 IP 주소 수에 대한 자세한 내용은 적절한 구성 워크시트를 참조하십시오. 104 Oracle SuperCluster T5-8 2014년 10월

시스템용 DNS 준비 관련 정보 네트워크 연결 요구 사항 [104] 시스템용 DNS 준비 [105] 네트워크 요구 사항 이해 [78] 시스템용 DNS 준비 시작하기 전에 시스템이 도착하기 전에 다음 작업을 끝내야 합니다. 이러한 작업을 끝내기 전까지 설치 및 초기 구성을 진행할 수 없습니다. 참고 - GNS(Grid Naming Service)는 초기 구성이 끝날 때까지 랙에 구성되지 않습니다. 1. 다음 문서에서 필요한 정보를 제공합니다. 2. Oracle SuperCluster T5-8 현장 점검 목록 시스템 유형에 대한 구성 워크시트 문서 작성된 구성 워크시트 문서에 지정된 호스트 이름 및 IP 주소를 사용하여 시스템에 대한 DNS(Domain Name System) 주소를 만들고 등록합니다. 또한 모든 공용 주소, SCAN(Single Client Access Name) 주소 및 VIP 주소도 설치하기 전 에 DNS에 등록해야 합니다. 참고 - 구성 워크시트 문서는 세 개의 IP 주소가 있는 단일 이름으로 클라이언트 액세스 네트 워크에서 SCAN을 정의합니다. 3. 정방향 확인 및 역방향 확인을 위해 DNS에 등록된 모든 주소를 구성합니다. 역방향 확인은 정방향으로도 확인되어(정방향으로 확인된 역방향 DNS) 정방향 DNS 항목과 역방향 DNS 항목이 서로 일치해야 합니다. 세 SCAN 주소에 대한 SCAN 이름은 라운드 로빈 확인을 위해 DNS에 구성되어야 합니다. 관련 정보 워크시트에 대한 추가 정보를 위한 구성 워크시트 문서 Oracle Grid Infrastructure Installation Guide for Linux - SCAN 주소에 대한 추가 정 보 DNS 공급업체 설명서 - 라운드 로빈 이름 확인 구성에 대한 추가 정보 네트워크 IP 주소 요구 사항 [104] 현장 준비 105

시스템용 DNS 준비 106 네트워크 연결 요구 사항 [104] Oracle SuperCluster T5-8 2014년 10월

시스템 설치 이 장에서는 Oracle SuperCluster T5-8의 설치 방법에 대해 설명합니다. 설치 개요 [107] Oracle 안전 정보 [108] 시스템의 포장 풀기 [109] 랙을 제자리로 이동 [111] 랙 고정 [115] 처음으로 시스템 전원 켜기 [118] 선택적 광 섬유 채널 PCIe 카드 사용 [131] 설치 개요 다음은 설치 프로그램에 대한 요약 정보입니다. 1. 설치를 준비합니다. 1. 안전 예방 조치, 지침, 현장 점검 목록 및 현장 요구 사항을 검토합니다. 2. 현장에 설치 준비가 되었는지 확인합니다. 3. 워크시트를 완성합니다. 참조 Oracle 안전 정보 [108] 현장 준비 Oracle SuperCluster T5-8 현장 점검 목록 및 Oracle SuperCluster T5-8 구성 워크시트 2. 설치를 시작합니다. 1. Oracle SuperCluster T5-8의 포장을 풉니다. 2. 할당된 공간에 Oracle SuperCluster T5-8을 배 치합니다. 3. 전원 코드를 연결하기 전에 예비 확인을 수행합 니다. 4. 시각적으로 시스템을 검사하여 하드웨어를 확 인합니다. 시스템의 포장 풀기 [109]. 3. 랙의 PDU 전원을 켭니다. 1. 랙 전원을 연결합니다. 2. 주 PDU(PDU A)의 후면에 위치한 6개의 PDU 회로 차단기의 스위치를 켭니다. 처음으로 시스템 전원 켜기 [118] 시스템 설치 107

Oracle 안전 정보 3. 전원 공급 자가 테스트 장치 검사가 끝나고 모 든 Oracle ILOM 서비스 프로세서가 부트되도 록 3-5분 동안 기다립니다. 4. Oracle SuperCluster T5-8의 각 SPARC T5-8 서버에 서버 대기 전원이 켜져 있는지 확인합니 다. 5. 각 데이터베이스 연산 모드에 주 전원이 켜져 있 는지 확인합니다. 4. ZFS 저장소 컨트롤러가 자동으로 시작되어야 합니다. 저장소 제어기가 시작하지 않는 경우 1. 2개의 ZFS 저장소 컨트롤러 전면에 있는 소프트 스위치를 누릅니다. 2. ZFS Storage Appliance가 NFS 서비스, 데몬 및 기본 서비스를 시작하도록 3-5분 동안 기다 립니다. 3. ZFS 저장소 컨트롤러에 할당된 IP 주소를 ping 하여 시스템이 시작되어 실행 중인지 확인합니 다. 5. Exadata Storage 셀을 시작합니다. Oracle ILOM이 부트되도록 기다린 다음 전원 켜 기 버튼을 누르거나 Oracle ILOM을 통해 Exadata Storage Server를 켭니다. 6. SPARC T5-8 서버를 시작합니다. 1. SPARC T5-8 서버의 전면에 있는 소프트 스위 치를 누릅니다. 2. 전원이 이더넷 스위치에 공급되는지 확인합니 다. 3. 전원이 Sun Datacenter Infiniband Switch 36 스위치에 공급되는지 확인합니다. 7. Oracle SuperCluster T5-8을 구성합니다. 8. 설치를 끝냅니다. (선택 사항) 다른 서버에서 데이터베이스를 복사하 려면 PCIe 카드를 설치합니다. 선택적 광 섬유 채널 PCIe 카드 사용 [131] Oracle 안전 정보 Oracle 서버 또는 장비를 설치하기 전에 Oracle의 안전 정보에 대해 숙지합니다. 108 제품 패키지에 인쇄된 안전 고지 사항을 읽습니다. 랙에 포함된 Important Safety Information for Sun Hardware Systems(821-1590) 문서를 읽습니다. Oracle SuperCluster T5-8 2014년 10월

시스템의 포장 풀기 Sun Rack II Safety and Compliance Guide(820-4762)의 모든 안전 고지 사항을 읽 습니다. 이 설명서는 http://www.oracle.com/documentation에서 사용할 수 있습니 다. Sun Rack II Power Distribution Units Users Guide(820-4760)의 모든 안전 고지 사 항을 읽습니다. 이 설명서는 http://www.oracle.com/documentation에서 사용할 수 있습니다. 장비에 있는 안전 레이블을 읽습니다. 시스템의 포장 풀기 설치용 도구 [109] 포장 풀기 지침 찾기 [109] 시스템 포장 풀기 및 검사 [110] 설치용 도구 다음 추가 도구가 설치에 필요합니다. 2번 십자 스크루드라이버 정전기 방지 손목 고정대 플라스틱 스트랩 테이프를 자르기 위한 도구 포장 풀기 지침 찾기 포장 풀기 지침을 찾습니다. 포장 풀기 지침이 운송용 패키지 외부에 부착되어 있습니다. 그림 21. 랙 포장 풀기 은 운송용 패키지의 주요 구성 요소를 보여줍니다. 시스템 설치 109

시스템 포장 풀기 및 검사 그림 21 랙 포장 풀기 시스템 포장 풀기 및 검사 주의 - 운반용 팰릿에서 랙을 흔들거나 기울이면 넘어져 심각하게 손상되거나 망가질 수 있습 니다. 110 Oracle SuperCluster T5-8 2014년 10월

랙을 제자리로 이동 참고 - 운반용 팰릿에 랙을 고정시키는 데 사용된 마운팅 브래킷을 보관합니다. 이러한 마운 팅 브래킷을 사용하면 설치 현장 바닥에 랙을 영구적으로 고정할 수 있습니다. 교체 브래킷을 주문할 수 없기 때문에 이러한 브래킷을 폐기하지 마십시오. 1. 2번 십자 스크루드라이버를 사용하여 각 랙의 아래쪽 전면 가장자리에서 운송 브래킷을 제거 합니다. 2. 랙이 손상되었는지 확인합니다. 3. 랙에 느슨해지거나 빠진 나사가 있는지 확인합니다. 4. 랙이 주문한 구성과 같은지 확인합니다. 5. 패키지의 측면에 있는 고객 정보 시트(Customer Information Sheet, CIS)를 참조하십 시오. 2개의 렌치가 들어 있습니다. 12mm 렌치는 캐비닛 수평 조절 다리용입니다. 17mm 렌치는 운반용 팰릿에 랙을 고정시키는 볼트용입니다. 2개의 키는 캐비닛 문용입니다. 다른 하드웨어와 예비 부품 한 상자가 운반 상자에 포함되어 있습니다. 이러한 부품 중 일부는 이 설치에 필요하지 않습니다. 모든 케이블이 제자리에 안전하고 단단하게 연결되었는지 확인합니다. a. 전원 코드를 확인합니다. 데이터 센터 설비 전원 소스에 올바른 커넥터가 제공되었는지 확인합니다. b. 6. 네트워크 데이터 케이블을 확인합니다. 해당되는 경우 바닥 타일 준비를 확인합니다. 구멍 뚫린 바닥 타일 [101]을 참조하십시오. 7. 설치 현장 주위에 데이터 센터 공기 흐름을 확인합니다. 자세한 내용은 열 손실 및 공기 흐름 요구 사항 [99]를 참조하십시오. 랙을 제자리로 이동 Oracle SuperCluster T5-8 이동 [112] 접지 케이블 설치(선택 사항) [113] 시스템 설치 111

Oracle SuperCluster T5-8 이동 Oracle SuperCluster T5-8 이동 1. 설치 현장에 대한 이동 경로를 계획합니다. 액세스 경로 지침 [103]을 참조하십시오. 2. 시스템 문이 닫히고 고정되었는지 확인합니다. 3. 랙의 수평 조절 다리 4개를 모두 올려 방해가 되지 않는지 확인합니다. 주의 - 적어도 두 명이 랙을 이동합니다. 앞에 한 사람과 뒤에 한 사람이 랙을 다루도록 합니 다. 초당 0.6(약 초당 2피트) 이하로 느리게 랙을 이동합니다. 4. 뒤에서 설치 현장으로 시스템을 밉니다. 참고 - 앞의 이동용 바퀴는 회전하지 않으므로 뒤의 이동용 바퀴를 돌려 캐비닛을 끌어야 합니 다. 주의 - 랙을 이동하기 위해 측면 패널을 밀지 마십시오. 측면 패널을 밀면 랙이 넘어질 수 있습 니다. 주의 - 랙을 기울이거나 흔들지 마십시오. 넘어질 수 있습니다. 112 Oracle SuperCluster T5-8 2014년 10월

접지 케이블 설치(선택 사항) 접지 케이블 설치(선택 사항) 시스템 배전 장치(Power Distribution Unit, PDU)는 해당 전원 코드를 통해 접지됩니다. 추 가로 접지하려면 섀시 접지 케이블을 시스템에 연결합니다. 추가 접지 지점을 사용하면 전류 누설을 좀 더 효과적으로 방출할 수 있습니다. 시스템 설치 113

접지 케이블 설치(선택 사항) 주의 - 적절한 PDU 소켓 접지를 확인할 때까지 접지 케이블을 설치하지 마십시오. PDU 전원 입력 리드 코드 및 접지 케이블은 공통 접지를 참조해야 합니다. 참고 - 접지 케이블은 시스템과 함께 제공되지 않습니다. 1. 설치 현장의 데이터 센터에 제대로 접지된 전원 소스가 있는지 확인합니다. 접지가 필요합니다. 접지 요구 사항 [94]을 참조하십시오. 2. 올린 바닥 및 전원 소켓과 같은 모든 접지 지점이 설비 접지를 참조하는지 확인합니다. 3. 이 설치를 위해 직접적인 금속과 금속 간 접촉이 이루어졌는지 확인합니다. 접지 케이블 연결 영역에 솔리드 접촉을 보장하기 제거해야 하는 채색되거나 코팅된 표면이 있을 수 있습니다. 4. 접지 케이블을 시스템 프레임의 바닥 후면에 있는 연결 지점 중 한 곳에 연결합니다. 연결 지점은 오른쪽의 랙 후면 내에 있는 조절 가능한 볼트입니다. 114 Oracle SuperCluster T5-8 2014년 10월

랙 고정 랙 고정 수평 조절 다리 조정 [115] 마운팅 브래킷 설치(선택 사항) [116] 수평 조절 다리 조정 랙의 가장자리 4곳에 수평 조절 다리가 있습니다. 1. 랙 내에서 12mm 렌치를 찾습니다. 2. 수평 조절 다리를 바닥까지 낮추려면 렌치를 사용합니다. 제대로 낮추면, 4개의 수평 조절 다리가 랙의 전체 중량을 지탱해야 합니다. 시스템 설치 115

마운팅 브래킷 설치(선택 사항) 마운팅 브래킷 설치(선택 사항) 운반용 팰릿에 랙을 고정시키는 동일한 마운팅 브래킷을 사용하면 랙을 영구적으로 바닥에 마운팅할 수 있습니다. 그림 22. 마운팅 구멍 및 바닥 홈 치수 는 마운팅 브래킷의 위치 및 치수를 보여줍니다. 1. 마운팅 브래킷을 위해 볼트 4개와 와셔를 가져옵니다. 마운팅 브래킷의 볼트 구멍은 직경 10mm입니다. 참고 - 위치에 적합한 볼트를 선택합니다. Oracle에서는 마운팅 볼트를 제공하지 않습니다. 116 Oracle SuperCluster T5-8 2014년 10월

마운팅 브래킷 설치(선택 사항) 그림 22 마운팅 구멍 및 바닥 홈 치수 그림 범례 1 2 3 4 5 6 7 마운팅 브래킷에서 랙의 가장자리까지 거리는 113mm(4.45인치)입니다. 마운팅 구멍 슬롯 중앙 사이의 너비는 374mm(14.72인치)입니다. 마운팅 브래킷과 랙의 가장자리 사이의 거리는 113mm(4.45인치)입니다. 전면과 후면 마운팅 구멍 슬롯 중앙 사이의 거리는 1120mm(44.1인치)입니다. 케이블 경로 설정 바닥 홈 깊이는 330mm(13인치)입니다. 바닥 홈과 랙의 가장자리 사이의 거리는 160mm(6.3인치)입니다. 케이블 경로 설정 바닥 홈 너비는 280mm(11인치)입니다. 2. 바닥에 볼트 구멍을 뚫습니다. 3. 구멍에 랙을 배치합니다. 4. 전면과 후면 랙 문을 엽니다. 5. 랙을 바닥에 마운트합니다. 시스템 설치 117

처음으로 시스템 전원 켜기 6. 마운팅 브래킷을 시스템 및 바닥에 고정시키는 모든 볼트를 단단하게 조입니다. 처음으로 시스템 전원 켜기 전원 코드를 랙에 연결 [118] 시스템 전원 켜기 [122] 시스템에 랩탑 연결 [126] 10GbE 클라이언트 액세스 네트워크에 연결 [128] 전원 코드를 랙에 연결 1. 118 설비 차단기 패널에서 랙의 모든 차단기가 꺼짐 위치에 있는지 확인합니다. Oracle SuperCluster T5-8 2014년 10월

전원 코드를 랙에 연결 주의 - 회로 차단기가 켜짐 위치에 있는 경우 AC 케이블을 랙에 연결할 때 치명적인 스파크가 발생할 수 있습니다. 2. 후면 캐비닛 문을 엽니다. 3. PDU의 스위치가 꺼짐 위치에 있는지 확인합니다. 두 PDU 모두 완전히 꺼졌는지 확인합니다. PDU-A는 캐비닛의 왼쪽에 있습니다. PDU-B는 오른쪽에 있습니다. 각 PDU에는 각 소켓 그 룹마다 1개씩 6개의 스위치(회로 차단기)가 있습니다. 시스템 설치 119

전원 코드를 랙에 연결 그림 23 PDU의 전원 스위치 그림 범례 1 2 전원 스위치가 켜짐 위치에 수평으로 배치되어 있습니다. 전원 스위치가 꺼짐 위치로 기울어져 있습니다. 4. 전원 코드에 올바른 전원 커넥터가 제공되었는지 확인합니다. 5. 전원 코드 케이블 끈을 풉니다. 끈은 운송만을 위한 것으로 더 이상 필요하지 않습니다. 6. 120 랙 위나 바닥 아래로 설비 콘센트까지 전원 코드의 경로를 설정합니다. Oracle SuperCluster T5-8 2014년 10월

전원 코드를 랙에 연결 시스템 설치 121

시스템 전원 켜기 7. 전원 코드를 한꺼번에 고정합니다. 8. PDU 전원 코드 커넥터를 설비 콘센트에 연결합니다. 시스템 전원 켜기 1. 각 주 전원 코드가 연결되었는지 확인합니다. 2. 설비 회로 차단기를 켭니다. 3. 배전 장치 B(PDU B)의 전원 스위치만 켭니다. 참고 - 이 때 PDU A를 켜지 마십시오. PDU B는 랙의 후면 오른쪽 측면에 있습니다. 아래를 참조하십시오. PDU B에 있는 토글 스위치의 ON( )쪽을 누릅니다. 122 Oracle SuperCluster T5-8 2014년 10월

시스템 전원 켜기 PDU B 전원을 켜면 랙의 전원 공급 장치 절반만 켜집니다. 나머지 전원 공급 장치는 4단계에 서 전원이 켜집니다. 참고 - 각 구성 요소의 위치는 하드웨어 구성 요소 식별 [14]을 참조하십시오. 모든 PDU B 회로 차단기가 켜지면 구성 요소의 LED가 다음 상태여야 합니다. a. SPARC T5-8 서버를 확인합니다. 전원 정상 녹색 LED 깜박임 서비스 작업 필요 주황색 LED 꺼짐 PS1 및 PS3 전원 LED 녹색 PS0 및 PS2 전원 LED 주황색 LED가 이러한 상태가 아닌 경우 SPARC T5-8 서버의 전면에 있는 전원 버튼을 누릅니 다. b. ZFS 저장소 컨트롤러를 확인합니다. 전원 정상 녹색 LED(전면 패널) 운영 체제가 부트되는 동안 깜박입니다. 시스템 설치 123

시스템 전원 켜기 운영 체제가 부트된 다음 전원 정상 LED가 계속 켜져 있음으로 변경됩니다(이 작업 은 최대 10분이 걸릴 수 있음). 서비스 작업 필요 주황색 LED(전면 패널) - 꺼짐 왼쪽 전원 공급 장치(후면 패널) - 녹색 오른쪽 전원 공급 장치(후면 패널) - 꺼짐 LED가 이러한 상태가 아닌 경우 ZFS 저장소 컨트롤러의 전면에 있는 전원 버튼을 누릅 니다. c. Sun Disk Shelf의 후면에서, 두 전원 버튼 모두 켜짐 위치로 누릅니다. LED가 다음 상태여야 합니다. d. Sun Datacenter InfiniBand Switch 36 스위치의 전면을 확인합니다. e. 왼쪽 전원 공급 장치 LED(PS0 LED) - 빨간색 오른쪽 전원 공급 장치 LED(PS1 LED) - 녹색 Cisco Catalyst 4948 이더넷 관리 스위치의 전면을 확인합니다. 4. 서비스 작업 필요 주황색 LED 꺼짐 왼쪽 전원 공급 장치(후면 패널) - 주황색 오른쪽 전원 공급 장치(후면 패널) - 녹색 PS1 LED 빨간색 PS2 LED 녹색 배전 장치 A(PDU A)의 전원 스위치만 켭니다. PDU A는 랙의 왼쪽에 있습니다. PDU A에 있는 토글 스위치의 ON( )쪽을 누릅니다. 124 Oracle SuperCluster T5-8 2014년 10월

시스템 전원 켜기 모든 PDU A 회로 차단기가 켜지면 구성 요소의 LED가 다음 상태여야 합니다. a. SPARC T5-8 서버를 확인합니다. b. 전원 정상 녹색 LED 깜박임 서비스 작업 필요 주황색 LED 꺼짐 PS1 및 PS3 전원 LED 녹색 PS0 및 PS2 전원 LED 녹색 ZFS 저장소 컨트롤러를 확인합니다. 전원 정상 녹색 LED 켜짐 서비스 작업 필요 주황색 LED 꺼짐 왼쪽 전원 공급 장치 - 녹색 오른쪽 전원 공급 장치 - 녹색 시스템 설치 125

시스템에 랩탑 연결 작은 정보 - ZFS 저장소 컨트롤러에 할당된 IP 주소를 ping하여 시스템이 시작되어 실행 중인 지 확인할 수 있습니다. 기본 NET0 IP 주소는 기본 IP 주소 [82]를 참조하십시오. 또는 저장 소 어플라이언스의 관리 콘솔을 시작하려고 할 수 있습니다. IP 주소를 ping하거나 관리 콘솔 을 시작하기 전에 시스템에 랩탑 연결 [126]에 설명된 대로 랩탑을 랙에 연결해야 합니다. c. Sun Disk Shelf를 확인합니다. d. Exadata Storage Server를 확인합니다. e. 전원 정상 LED - Oracle ILOM이 부트되는 동안(약 3분) 꺼진 다음 깜박입니다. 서비스 작업 필요 주황색 LED 꺼짐 Sun Datacenter InfiniBand Switch 36 스위치의 전면을 확인합니다. f. 서비스 작업 필요 주황색 LED 꺼짐 왼쪽 전원 공급 장치 - 녹색 오른쪽 전원 공급 장치 - 녹색 왼쪽 전원 공급 장치 LED(PS0 LED) - 녹색 오른쪽 전원 공급 장치 LED(PS1 LED) - 녹색 Cisco Catalyst 4948 이더넷 관리 스위치의 전면을 확인합니다. PS1 LED 녹색 PS2 LED 녹색 시스템에 랩탑 연결 1. 랩탑에 기능적 USB 및 네트워크 포트가 있는지 확인합니다. 2. 최대 길이 25피트의 Category 5E 패치 케이블 및 최대 길이 15피트의 직렬 케이블이 있는 지 확인합니다. 3. 랙의 후면 캐비닛 문을 엽니다. 4. 랩탑의 네트워크 포트를 Cisco Catalyst 4948 이더넷 스위치에서 사용하지 않는 입력 포트 에 연결합니다. 이 스위치는 시스템 랙의 장치 19에 통풍구가 있는 필러 패널 내부에 있습니다. 스위치의 관 리 또는 콘솔 포트에 연결하면 안 됩니다. 스위치에 포트 레이블이 붙어 있습니다. 126 Oracle SuperCluster T5-8 2014년 10월

시스템에 랩탑 연결 참고 - 직렬 연결이 필요한 경우 USB-직렬 어댑터를 사용하여 랩탑의 USB 포트에서 Cisco 스위치까지 연결할 수 있습니다. USB-직렬 어댑터는 모든 게이트웨이 스위치(Sun Network QDR InfiniBand 게이트웨이 스위치)의 랙에 설치됩니다. 추가 어댑터가 Oracle SuperCluster T5-8 구성의 운송 키트에 포함되어 있습니다. 5. 랩탑을 부트하지 않은 경우 지금 운영 체제를 시작합니다. Windows 운영 체제를 사용하는 경우 다음을 수행합니다. a. 제어판 > 네트워크 연결로 이동합니다. 네트워크 연결 목록에서 유선 네트워크 어 댑터를 선택한 다음 마우스 오른쪽 버튼으로 누르고 속성을 선택합니다. 네트워크 속성 화면이 표시됩니다. b. 일반 탭을 누르고 인터넷 프로토콜(TCP/IP)을 선택합니다. 속성을 누릅니다. 인터넷 프로토콜(TCP/IP) 속성 화면이 표시됩니다. c. 다음 IP 주소 사용 옵션을 선택한 다음 랩탑에 대한 정적 IP 주소를 입력합니다. 참고 - 이 정적 IP는 Cisco 이더넷 스위치가 있는 네트워크와 동일한 서브넷 및 주소 범위에 있어야 합니다. 제조 시 지정된 SPARC T5-8 서버의 기본 NET0 IP 주소 또는 구성 유틸리티 도구를 사용하여 재구성된 사용자 정의 IP 주소를 사용할 수 있습니다. 기본 NET0 IP 주소 목 록은 기본 IP 주소 [82]를 참조하십시오. d. 기본 게이트웨이가 필요하지는 않지만 기본 게이트웨이 필드에 동일한 IP 주소를 입력합니다. e. 네트워크 연결 화면을 종료하려면 확인을 누릅니다. Linux 운영 체제를 사용 중인 경우 다음을 수행합니다. a. root 사용자로 로그인합니다. b. 명령 프롬프트에서 ETH0와 같이 시스템에 연결된 네트워크 장치를 표시하려면 다 음 명령을 입력합니다. # ifconfig -a 시스템에 연결된 네트워크 장치 또는 어댑터 목록이 표시됩니다. 시스템 설치 127

10GbE 클라이언트 액세스 네트워크에 연결 c. 원하는 네트워크 인터페이스를 설정하려면 다음 예처럼 명령 프롬프트에서 ifconfig 명령을 실행합니다. # ifconfig eth0 192.0.2.10 netmask 255.255.255.0 up 이 예에서 ifconfig 명령은 255.255.255.0의 네트워크 마스크와 함께 IPv4 주소 192.0.2.10을 eth0 인터페이스에 할당합니다. 6. 랩탑 연결을 위해 PuTTY 같은 telnet 또는 ssh 클라이언트 프로그램을 엽니다. 시작되어 실행 중인 SPARC T5-8 서버의 IP 주소 또는 서비스 프로세서 IP 주소 중 하나에 연 결합니다. 참고 - 랩탑의 케이블을 Cisco Catalyst 4948 이더넷 스위치에 연결하면 시스템 구성 요소의 NET0 IP 주소를 사용하여 통신할 수 있습니다. 제조 시 할당된 기본 IP 주소 목록은 기본 IP 주소 [82]를 참조하십시오. 참고 - 사용자 또는 Oracle 설치자가 Oracle SuperCluster T5-8 구성 유틸리티 도구 및 스 크립트 세트를 실행하여 시스템의 IP 주소를 재구성하지 않은 경우 기본 IP 주소 세트를 사 용할 수 있습니다. 사용자 또는 Oracle 설치자가 이미 Oracle SuperCluster T5-8 구성 유 틸리티 세트의 도구 및 스크립트를 실행한 경우 Oracle SuperCluster T5-8 Configuration Worksheets 문서에 제공된 네트워크 IP 주소를 사용할 수 있습니다. 10GbE 클라이언트 액세스 네트워크에 연결 시작하기 전에 클라이언트 액세스 네트워크의 IP 주소 및 호스트 이름은 초기 구성 전에 DNS(Domain Name System)에 등록되어야 합니다. 또한 모든 공용 주소, SCAN(Single Client Access Name) 주소 및 VIP 주소는 설치하기 전에 DNS에 등록되어야 합니다. 10GbE 클라이언트 액세스 네트워크 기반구조는 Oracle SPARC SuperCluster T5-8 설치 프로세스에 필요한 부분입니다. 다음 구성 요소가 시스템에 포함되어 있습니다. 128 특정 PCIe 슬롯에 사전 설치된 각 SPARC T5-8 서버의 이중 포트 Sun Dual 10GbE SFP+ PCIe NIC 4개 또는 8개(자세한 내용은 카드 위치(SPARC T5-8 서버) [23] 및 10GbE 클라이언트 액세스 네트워크 물리적 연결(SPARC T5-8 서버) [29] 참조) 10GbE NIC에 사전 설치된 트랜시버 하프 랙용 10m SFP-QSFP 광 스플리터 케이블 4개 또는 풀 랙용 케이블 8개 Oracle SuperCluster T5-8 2014년 10월

10GbE 클라이언트 액세스 네트워크에 연결 클라이언트 액세스 네트워크에 연결하기 위해 제공된 SFP-QSFP 케이블을 사용하려면 다음 10GbE 클라이언트 액세스 네트워크 기반구조 구성 요소를 제공해야 합니다. QSFP 연결이 있는 10GbE 스위치(예: Sun Network 10GbE Switch 72p) 10GbE 스위치에 연결하기 위한 트랜시버(하프 랙용 트랜시버 4개 또는 풀 랙용 트랜시 버 8개) 클라이언트 액세스 네트워크에 연결하기 위해 제공된 SFP-QSFP 케이블을 사용하지 않으려 면 다음 10GbE 클라이언트 액세스 네트워크 기반구조 구성 요소를 제공해야 합니다. 10GbE 스위치 SPARC T5-8 서버측의 SFP+ 연결이 있는 적합한 광 케이블 연결 10GbE 스위치에 모든 케이블을 연결하는 데 적합한 트랜시버 현장에 10GbE 클라이언트 액세스 네트워크 기반구조가 설정되지 않은 경우 10GbE 네 트워크 스위치 반대편에서 네트워크 속도가 10Gb에서 1Gb로 떨어지더라도 설치 시 시 스템을 연결할 수 있는 사용 가능한 10GbE 네트워크 스위치가 있어야 합니다. Oracle SuperCluster T5-8은 10GbE 클라이언트 액세스 네트워크 기반구조가 제자리에 없으면 고 객 현장에 설치될 수 없습니다. 1. 클라이언트 액세스 네트워크에 연결하기 위해 사용할 Sun Dual 10GbE SFP+ PCIe NIC를 찾습니다. NIC 연결은 시스템에 대해 설정한 도메인의 유형 및 수에 따라 달라집니다. 자세한 내용은 10GbE 클라이언트 액세스 네트워크 물리적 연결(SPARC T5-8 서버) [29] 및 소프트웨어 구성 이해 [40]를 참조하십시오. 2. 10GbE 클라이언트 액세스 네트워크에 연결하기 위해 사용할 SFP 케이블을 찾습니다. 시스템 또는 사용자 고유의 SFP 케이블과 함께 제공된 SFP-QSFP 광 스플리터 케이 블을 사용할 수 있습니다. 3. 10GbE NIC의 포트에 케이블의 SFP 측면을 연결합니다. 4. 제공한 10GbE 스위치에 케이블의 다른 끝을 연결합니다. 다음 그림은 하프 랙에 있는 두 개의 SPARC T5-8 서버 중 하나에 대해 10GbE 클라이언트 액세스 네트워크에 대한 연결 레이아웃 예를 보여줍니다. 2개의 SFP-QSFP 케이블의 QSFP 끝 2개가 10GbE 스위치의 QSFP 포트(이 예에서는 Sun Network 10GbE Switch 72p)에 연결됩니다. 2개의 SFP-QSFP 케이블의 SFP+ 끝이 SPARC T5-8 서버에 설치된 10GbE NIC의 SFP + 포트에 연결됩니다. 일부 구성은 구성에 따라 10GbE NIC의 SFP+ 포트에 대해 더 적 은 연결이 있습니다. 시스템 설치 129

10GbE 클라이언트 액세스 네트워크에 연결 그림 24 10GbE 클라이언트 액세스 네트워크에 대한 연결 예 그림 범례 1 2 3 130 QSFP 연결이 있는 10GbE 스위치(Sun Network 10GbE Switch 72p 표시) SFP-QSFP 케이블의 QSFP 커넥터 끝, 10GbE 스위치의 QSFP 포트에 연결 SFP-QSFP 케이블의 SFP+ 커넥터 끝, SPARC T5-8 서버의 10GbE NIC의 SFP+ 포트에 연결 Oracle SuperCluster T5-8 2014년 10월

선택적 광 섬유 채널 PCIe 카드 사용 선택적 광 섬유 채널 PCIe 카드 사용 선택적 광 섬유 채널 PCIe 카드를 사용하면 기존 저장소 부속 시스템에서 데이터베이스 도메 인의 Oracle SuperCluster T5-8과 통합된 Exadata Storage Server로 데이터를 쉽게 마이 그레이션하거나 응용 프로그램 도메인에 대한 SAN 기반 저장소에 액세스할 수 있습니다. 선 택적 광 섬유 채널 PCIe 카드는 표준 Oracle SuperCluster T5-8 구성에 포함되어 있지 않으 므로 개별적으로 구입해야 합니다. 지원되는 옵션은 다음과 같습니다. StorageTek 8Gb FC PCI-Express HBA, Qlogic StorageTek 8Gb FC PCI-Express HBA, Emulex 하프 랙 시스템의 경우 선택적 광 섬유 채널 PCIe 카드는 10GbE NIC 또는 InfiniBand HCA 로 채워지지 않은 다음의 나머지 PCIe 카드 슬롯 하나 또는 모두에 설치될 수 있습니다. 슬롯 2 슬롯 4 슬롯 5 슬롯 7 슬롯 10 슬롯 12 슬롯 13 슬롯 15 SPARC T5-8 서버의 슬롯 위치에 대한 자세한 내용은 카드 위치(SPARC T5-8 서 버) [23]를 참조하십시오. 풀 랙 시스템의 경우 모든 16개의 PCIe 슬롯이 10GbE NIC 또는 InfiniBand HCA로 채워 지므로, 선택적 광 섬유 채널 PCIe 카드를 설치하기 위해서는 PCIe 슬롯을 비우기 위해 특정 10GbE NIC를 제거해야 합니다. 하지만 PCIe 슬롯은 여러 도메인에 지정되고, 도메인에 지 정된 PCIe 슬롯은 도메인 구성에 따라 다르기 때문에, Oracle SuperCluster T5-8의 풀 랙 버전에서 광 섬유 채널 PCIe 카드를 설치하기 위해서는 10GbE NIC를 광 섬유 채널 카드로 교체한 후 도메인이 올바르게 구성될 수 있도록 Oracle에 문의해야 합니다. 참고 - 풀 랙의 경우, 소형 도메인과 연관된 슬롯에 광 섬유 채널 PCIe 카드를 설치할 수 없 습니다. 풀 랙 구성에서는 하나 이상의 10GbE NIC를 포함하는 도메인에만 광 섬유 채널 PCIe 카드를 추가할 수 있습니다. 클라이언트 액세스 네트워크에 대한 연결을 위해 한 개의 10GbE NIC를 남겨야 하지만 10GbE NIC가 두 개 이상인 도메인에서는 다른 10GbE NIC 를 광 섬유 채널 HBA로 교체할 수 있습니다. 소형 도메인의 구성에 대한 자세한 내용은 풀 랙 구성 이해 [63] 및 소형 도메인 이해(풀 랙) [73]를 참조하십시오. 선택적 광 섬유 채널 PCIe 카드를 설치한 후에는 설치된 슬롯 또는 도메인 구성에 따라 특정 도메인과 연결됩니다. 자세한 내용은 소프트웨어 구성 이해 [40]를 참조하십시오. 시스템 설치 131

선택적 광 섬유 채널 PCIe 카드 사용 선택적 광 섬유 채널 PCIe 카드를 사용하는 경우 다음 제한 사항을 확인하십시오. Oracle Solaris 10 또는 Oracle Solaris 11을 실행 중인 응용 프로그램 도메인에 연결 된 슬롯에 설치된 경우 광 섬유 채널 PCIe 카드는 Oracle Database 11gR2가 아닌 지 원되는 데이터베이스를 위한 데이터베이스 파일 저장소를 비롯하여 어떤 용도로도 사용 될 수 있습니다. 데이터베이스 도메인과 연결된 슬롯에 설치된 경우 광 섬유 채널 PCIe 카드는 Oracle Database 11gR2 데이터의 저장소용이 아닌 데이터 마이그레이션용으로만 사용할 수 있습니다. Oracle은 광 섬유 채널 PCIe 카드의 GbE 포트에 기반한 추가 네트워크 인터페이스의 사용을 권장하지 않습니다. Oracle은 이러한 포트에 기반한 네트워크에서 발생하는 질 문 또는 문제를 지원하지 않습니다. PCIe 카드 설치를 위한 지침은 다음을 참조하십시오. PCIe 카드와 함께 제공된 설명서 SPARC T5-8 서버 서비스 설명서: http://docs.oracle.com/cd/e35078_01/index.html 132 Oracle SuperCluster T5-8 2014년 10월

시스템 유지 관리 다음 항목은 Oracle SuperCluster T5-8에 대한 유지 관리 정보에 대해 설명합니다. 주의 및 경고 [133] 시스템 전원 끄기 [134] 시스템 전원 켜기 [137] SuperCluster 소프트웨어의 버전 식별 [137] SuperCluster 도구 [138] Oracle Solaris 11 부트 환경 관리 [139] Dynamic Intimate Shared Memory 사용 [143] 구성 요소 관련 서비스 절차 [144] Exadata Storage Server 유지 관리 [145] 시스템 조정(ssctuner) [149] CPU 및 메모리 리소스 구성(osc-setcoremem) [157] CPU 및 메모리 할당 구성(레거시 setcoremem) [185] Capacity-on-Demand [198] 주의 및 경고 다음 주의 및 경고가 Oracle SuperCluster T5-8 시스템에 적용됩니다. 주의 - 고압 전원을 사용하는 이 제품의 부품을 만지지 마십시오. 만지면 심각한 부상을 입을 수 있습니다. 주의 - 전면 및 후면 캐비닛 문을 닫아 두십시오. 닫아 두지 않을 경우 시스템 오류가 발생하거 나 하드웨어 구성 요소가 손상될 수 있습니다. 주의 - 적절한 공기 흐름을 허용하고 구성 요소의 과열을 방지하기 위해 캐비닛의 맨 위와 앞 뒤를 깨끗하게 유지합니다. 시스템 유지 관리 133

시스템 전원 끄기 제공된 하드웨어만 사용하십시오. 시스템 전원 끄기 정상적인 전원 끄기 순서 [134] 비상 전원 끄기 [136] 정상적인 전원 끄기 순서 정상적인 환경에서 시스템을 종료하려면 이 절차를 사용하십시오. 1. Oracle Solaris Cluster를 종료합니다. # /usr/cluster/bin/cluster shutdown -g 0 -y 2. Ops Center가 실행 중인 경우 엔터프라이즈 컨트롤러를 종료합니다. # /opt/sunwxvmoc/bin/ecadm stop HA 환경의 경우 다음 명령을 사용합니다. # /opt/sunwxvmoc/bin/ecadm ha-stop-no-relocate 3. 다음 방법 중 하나를 사용하여 데이터베이스를 종료합니다. 4. 5. 6. 7. http://docs.oracle.com/cd/b28359_01/server.111/b28310/start003.htm Exadata Storage Server 종료 [135]. Exadata Storage Server 전원 끄기 [135] LDom 정상 종료 [136] 각 SPARC T5-8 서버를 정상적으로 종료합니다. # init 0 8. ZFS 저장소 컨트롤러를 정상적으로 종료합니다. 브라우저 인터페이스에 로그인하고 위쪽 창 왼쪽의 전원 아이콘을 누릅니다. 9. 회로 차단기를 내려서 스위치 전원을 끄고 전체 랙을 종료합니다. 134 시스템 전원을 다시 켜려면 시스템 전원 켜기 [137]를 참조하십시오. Oracle SuperCluster T5-8 2014년 10월

Exadata Storage Server 종료 Exadata Storage Server 종료 Exadata Storage Server 전원을 끄기 전에 각 서버에 이 절차를 수행하십시오. 이 작업에 대 한 자세한 내용은 다음 위치에서 Exadata 설명서를 참조하십시오. http://wd0338.oracle.com/archive/cd_ns/e13877_01/doc/doc.112/e13874/ maintenance.htm#cegbhcjg 1. 다른 오프라인 디스크가 있는지 확인하려면 다음 명령을 실행합니다. CellCLI > LIST GRIDDISK ATTRIBUTES name WHERE asmdeactivationoutcome!= 'Yes' 그리드 디스크가 반환되면 적절한 Oracle ASM 디스크 그룹 중복성이 유지되지 않기 때문에 Exadata Storage Server를 오프라인 상태로 설정하는 것은 안전하지 않습니다. 하나 이상 의 그리드 디스크가 이 상태에 있는 경우 Exadata Storage Server를 오프라인 상태로 설정 하면 Oracle ASM에서 영향을 받는 디스크 그룹의 마운트를 해제하여 데이터베이스가 갑자 기 종료됩니다. 2. Exadata Storage Server를 오프라인 상태로 설정하는 것이 안전한 경우 모든 그리드 디스 크를 비활성화합니다. CellCLI> ALTER GRIDDISK ALL INACTIVE 모든 디스크가 비활성화되고 오프라인 상태이면 이 명령이 완료됩니다. 3. 모든 그리드 디스크가 INACTIVE 상태인지 확인합니다. CellCLI> LIST GRIDDISK WHERE STATUS!= 'inactive' 모든 그리드 디스크가 INACTIVE 상태이면 Exadata Storage Server가 데이터베이스 가용 성에 영향을 주지 않고 종료될 수 있습니다. 4. 셀을 종료합니다. Exadata Storage Server 전원 끄기 [135]를 참조하십시오. Exadata Storage Server 전원 끄기 각 Exadata Storage Server에 다음 절차를 수행하십시오. Exadata Storage Server 전원을 끌 때 다음에 유의하십시오. 여러 Exadata Storage Server를 종료하기 전에 모든 데이터베이스와 Oracle Clusterware 프로세스를 종료해야 합니다. 시스템 유지 관리 135

LDom 정상 종료 Exadata Storage Server 한 대의 전원을 꺼도 데이터베이스 프로세스나 Oracle ASM 실행에 영향을 주지 않습니다. Exadata Storage Server 전원을 끄거나 다시 시작하면 데이터베이스 가용성에 영향을 미칠 수 있습니다. 다음 명령은 Exadata Storage Server를 즉시 종료합니다. # shutdown -h -y now LDom 정상 종료 SPARC T5-8 서버 구성은 설치 중 선택한 구성 항목에 따라 다릅니다. 하나의 LDom으로 실 행 중인 경우, 다른 서버와 마찬가지로 OS를 완전히 종료하면 시스템이 종료됩니다. 2개의 LDom을 실행하는 경우 게스트 도메인을 먼저 종료한 후 기본 도메인(컨트롤)을 종료합니다. 세 개 이상의 도메인으로 실행 중인 경우, 가상화된 하드웨어와 관련된 도메인을 식별하여 먼 저 종료해야 합니다. 그런 다음 계속해서 게스트 도메인을 종료하고 마지막으로 기본(컨트 롤) 도메인을 종료합니다. 1. 각 비I/O 도메인을 종료, 중지하고 바인드 해제합니다. # ldm stop domainname LDom domainname stopped # ldm unbind-domain domainname 2. 활성 I/O 도메인을 종료, 중지하고 바인드 해제합니다. # ldm stop activedomainname LDom activedomainname stopped # ldm unbind-domain activedomainname 3. 기본 도메인을 정지합니다. # shutdown -i5 -g0 -y 더 이상 바인드된 도메인이 없으므로 펌웨어가 자동으로 시스템 전원을 끕니다. 비상 전원 끄기 지진 또는 홍수 등의 비상 상황이 발생하여 시스템에서 비정상적인 냄새나 연기가 감지되거 나 사람들의 안전에 위협이 되면 Oracle SuperCluster T5-8을 즉시 중지해야 합니다. 이 경 우 다음 방법 중 하나를 사용하여 시스템 전원을 끄십시오. 136 Oracle SuperCluster T5-8 2014년 10월

시스템 전원 켜기 다음 방법 중 하나로 시스템 전원을 끕니다. 컴퓨터실의 회로 차단기 전원을 끄거나 비상 전원 끄기 스위치를 잡아 당깁니다. 사이트 EPO 스위치를 꺼서 Oracle SuperCluster T5-8에서 전원을 제거합니다. 랙에 있는 두 PDU의 전원을 끕니다. 비상 상황 후에는 Oracle 지원 서비스에 문의하여 시스템에 전원을 복구합니다. 관련 정보 정상적인 전원 끄기 순서 [134] 시스템 전원 켜기 종료 절차의 역순으로 시스템 전원을 켭니다. 1. 랙에 전원을 공급하는 양쪽 회로 차단기를 켭니다. 시스템 전원이 켜지고 Exadata Storage Server, SPARC T5-8 서버, ZFS 저장소 컨트롤러가 대기 모드로 돌아갑니다. 2. 각 ZFS 저장소 컨트롤러를 부트합니다. 3. 각 SPARC T5-8 서버를 부트합니다. 4. 각 Exadata Storage Server를 부트합니다. SuperCluster 소프트웨어의 버전 식별 SuperCluster 소프트웨어의 버전을 확인하려면 이 절차를 수행합니다. 1. 관리 네트워크에서 SPARC 서버 중 하나에 로그인합니다. 2. 다음과 같이 입력합니다. # svcprop -p configuration/build svc:/system/oes/id:default 3. 출력에 따라 소프트웨어 버전을 확인합니다. ssc-1.x.x ssc-2.x.x(이상) 시스템 유지 관리 137

SuperCluster 도구 SuperCluster 도구 SuperCluster 소프트웨어 버전에 따라 다음 표 중 하나를 사용합니다. 표에서는 사용 가능한 도구를 확인할 수 있습니다. 버전을 식별하려면 SuperCluster 소프트웨어의 버전 식별 [137]을 참조하십시오. 참고 - 표에서 SuperCluster의 전체 도구 목록은 제공되지 않습니다. 대신 표의 도구 목록은 이후 절에서 다뤄지고, 특정 SuperCluster 소프트웨어 버전에 따라 사용 가능한 항목에 대한 정보가 제공됩니다. SuperCluster v1.x 도구 표 10 도구 설명 링크 ssc_control 요청 시 용량 기능을 제공합니다. 이 도구를 사용 하면 요청 시 코어를 사용 또는 사용 안함으로 설 정할 수 있습니다. Capacity-on-Demand [198] ssctuner SuperCluster Oracle Solaris 10 및 Oracle Solaris 11 전역 영역에서 다양한 매개변수 모니 터 및 조정을 위해 실행되는 스크립트 및 구성 파 일 세트입니다. 시스템 조정(ssctuner) [149] setcoremem 도메인 간 CPU 및 메모리 리소스 할당 방법을 변 경할 수 있습니다. CPU 및 메모리 할당 구성(레거시 setcoremem) [185] SuperCluster v2.x 도구 표 11 도구 설명 링크 Oracle I/O 도메인 만들기 도 구 사용자가 선택한 CPU, 메모리 및 I/O 리소스를 지 정하여 요청 시 I/O 도메인을 만들 수 있습니다. Oracle I/O Domain Administration Guide를 참조 하십시오. osc-setcoremem 도메인 간 CPU 및 메모리 리소스 할당 방법을 변 경할 수 있습니다. 이 도구는 사용자의 CPU 리소 스 할당 방법에 따라 각 도메인에 적절한 양의 메 모리를 자동으로 지정하여 NUMA 효과를 최소화 하고 성능을 최적화할 수 있도록 보장합니다. CPU 및 메모리 리소스 구성(oscsetcoremem) [157] (레거시 버전) setcoremem이라는 이전 도구도 계속 사용할 수 있 지만 이름이 약간 달라졌습니다. osc-setcoremem 대신 이 레거시 버전을 사용하려면 특정 Super Cluster 플랫폼에 대한 도구 이름을 사용하십시오. CPU 및 메모리 할당 구성(레거시 setcoremem) [185] 요청 시 용량 기능을 제공합니다. 이 도구를 사용 하면 요청 시 코어를 사용 또는 사용 안함으로 설 정할 수 있습니다. Capacity-on-Demand [198] setcoremem-t4 setcoremem-t5 setcoremem-m6 ssc_control 138 Oracle SuperCluster T5-8 2014년 10월

Oracle Solaris 11 부트 환경 관리 도구 설명 링크 ssctuner SuperCluster Oracle Solaris 10 및 Oracle Solaris 11 전역 영역에서 다양한 매개변수 모니 터 및 조정을 위해 실행되는 스크립트 및 구성 파 일 세트입니다. 시스템 조정(ssctuner) [149] Oracle Solaris 11 부트 환경 관리 Oracle Solaris OS를 시스템에 처음하면 부트 환경이 만들어집니다. beadm(1m) 유틸리티를 사용하여 시스템에 추가 부트 환경을 만들고 관리할 수 있습니다. 시스템이 설치된 후에 원래 부트 환경의 백업을 만듭니다. 필요한 경우 원래 부트 환경의 백 업으로 부트할 수 있습니다. 다음 항목은 시스템에 부트 환경을 만들고 관리하는 방법을 설명 합니다. Oracle Solaris 11 부트 환경에 대한 자세한 내용은 다음을 참조하십시오. http://docs.oracle.com/cd/e23824_01/html/e21801/toc.html 다중 부트 환경 유지 관리의 이점 [139] 부트 환경 만들기 [140] 다양한 빌드 환경으로 마운트 [142] 원래 부트 환경으로 재부트 [142] 불필요한 부트 환경 제거 [142] 다중 부트 환경 유지 관리의 이점 다중 부트 환경에서는 시스템 관리자가 시스템을 업데이트하기 전에 백업 부트 환경을 만들 수 있으므로 소프트웨어를 업데이트하거나 변경할 때 위험이 줄어듭니다. 필요한 경우 백업 부트 환경을 부트하도록 선택할 수 있습니다. 다음 예제는 여러 개의 Oracle Solaris 부트 환경을 beadm 유틸리티로 관리하는 것이 얼마나 유용한지 보여줍니다. 시스템에서 여러 개의 부트 환경을 유지 관리하고 필요에 따라 각각에 다양한 업데이트 를 수행할 수 있습니다. 예를 들어, beadm create 명령을 사용하여 부트 환경을 복제할 수 있습니다. 여기서 만든 복제본은 원본의 부트 가능한 복사본입니다. 그런 다음 원래 부트 환경과 그 복제본에서 다양한 소프트웨어 패키지를 설치, 테스트, 업데이트할 수 있습니다. 부트 환경은 한 번에 하나만 활성 상태일 수 있지만 beadm mount 명령을 사용하여 비활 성 부트 환경을 마운트할 수 있습니다. 그런 다음 pkg 명령을 대체 루트(-R) 옵션과 함께 사용하여 해당 환경에 특정 패키지를 설치하거나 업데이트할 수 있습니다. 시스템 유지 관리 139

부트 환경 만들기 부트 환경을 수정하는 경우 beadm create 명령을 사용하여 수정 중 아무 단계에서나 해 당 환경의 스냅샷을 생성할 수 있습니다. 예를 들어, 부트 환경에 월별 업그레이드를 수 행하는 경우 각 월별 업그레이드에 대한 스냅샷을 캡처할 수 있습니다. 다음과 같이 명령을 사용합니다. # beadm create BeName@snapshotNamedescription 스냅샷 이름은 BeName@snapshotdescription 형식을 사용해야 합니다. 여기서 BeName 은 스냅샷을 만들려는 기존 부트 환경의 이름입니다. 스냅샷의 날짜나 목적이 식별되도 록 사용자 정의 snapshotdescription을 입력합니다. beadm list -s 명령을 사용하여 부트 환경에 사용 가능한 스냅샷을 볼 수 있습니다. 스냅샷을 부트할 수 없더라도 beadm create 명령에 -e 옵션을 사용하면 해당 스냅샷에 기반한 부트 환경을 만들 수 있습니다. 그런 다음 beadm activate 명령을 사용하여 이 부트 환경이 다음 재부트 시 기본 부트 환경이 되도록 지정할 수 있습니다. 다중 Oracle Solaris 11 부트 환경의 이점에 대한 자세한 내용은 다음을 참조하십시오. http://docs.oracle.com/cd/e23824_01/html/e21801/snap3.html#scrolltoc 부트 환경 만들기 원래 부트 환경을 수정하기 전에 기존 부트 환경의 백업을 만들려면 beadm 명령을 사용하 여 활성 부트 환경의 복제본으로 새 부트 환경을 만들고 마운트할 수 있습니다. 이 복제본은 SPARC 시스템의 부트 메뉴에 대체 부트 환경으로 나열됩니다. 1. 대상 시스템에 로그인합니다. localsys% ssh systemname -l root Password: Last login: Wed Nov 13 20:27:29 2011 from dhcp-vpn-r Oracle Corporation SunOS 5.11 solaris April 2011 root@sup46:~# 2. ZFS 부트 환경을 beadm으로 관리합니다. root@sup46:~# beadm list BE Active Mountpoint Space Policy Created ---------------------------------------------------------solaris NR / 2.17G static 2011-07-13 12:01 140 Oracle SuperCluster T5-8 2014년 10월

부트 환경 만들기 참고 - Active 열에서 첫번째 글자는 부트 환경의 현재 상태를 나타내고 두번째 글자는 다음 재부트 시 상태를 나타냅니다. 위의 예제에서 N은 현재(Now) 부트 환경을 나타내고 R은 부 트 환경이 다음 재부트(Reboot) 시 활성이 됨을 나타냅니다. 3. 현재 환경을 기반으로 새 ZFS 부트 환경을 만듭니다. root@sup46:~# beadm create solaris_backup root@sup46:~# beadm list BE Active Mountpoint Space Policy Created ----------------------------------------------------------------solaris NR / 2.17G static 2011-07-13 12:01 solaris_backup 35.0K static 2011-07-17 21:01 4. 다음 부트 환경으로 변경합니다. root@sup46:~# beadm activate solaris_backup root@sup46:~# beadm list BE Active Mountpoint Space Policy Created ----------------------------------------------------------------solaris_backup R 2.17G static 2011-07-17 21:01 solaris N / 1.86G static 2011-07-13 12:01 5. 새 부트 환경으로 재부트합니다. root@sup46:~# reboot Connection to systemname closed by remote host. Connection to systemname closed. localsys% ssh systemname -l root Password: Last login: Thu Jul 14 14:37:34 2011 from dhcp-vpnoracle Corporation SunOS 5.11 solaris April 2011 root@sup46:~# beadm list BE Active Mountpoint Space Policy Created ----------------------------------------------------------------solaris_backup NR 2.19G static 2011-07-17 21:01 solaris / 4.12G static 2011-07-13 12:01 시스템 유지 관리 141

다양한 빌드 환경으로 마운트 다양한 빌드 환경으로 마운트 다음 명령을 사용하여 다양한 빌드 환경으로 마운트하고 다른 빌드 환경을 마운트 해제합니 다. root@sup46:~# beadm root@sup46:~# df -k Filesystem rpool1/root/s_backup mount s_backup /mnt /mnt 1024-blocks Used Available Capacity Mounted on 286949376 2195449 232785749 1% /mnt root@sup46:~# df -k / Filesystem 1024-blocks Used Available Capacity Mounted on rpool1/root/s_backup 286949376 2214203 232785749 1% / root@sup46:~# ls /mnt bin etc lib opt rpool1 system wwss boot export media pkg sbin tmp cdrom home micro platform scde usr dev import mnt proc share var devices java net re shared workspace doe kernel nfs4 root src ws root@sup46:~# root@sup46:~# beadm umount solaris root@sup46:~# 원래 부트 환경으로 재부트 다음 명령을 사용하여 원래 부트 환경으로 재부트합니다. root@sup46:~# root@sup46:~# Connection to Connection to localsys% beadm activate solaris reboot systemname closed by remote host. systemname closed. ssh systemname -l root Password: Last login: Thu Jul 14 14:37:34 2011 from dhcp-vpnoracle Corporation SunOS 5.11 solaris April 2011 root@sup46:~# 불필요한 부트 환경 제거 다음 명령을 사용하여 부트 환경을 제거합니다. 142 Oracle SuperCluster T5-8 2014년 10월

Dynamic Intimate Shared Memory 사용 root@sup46:~# beadm list BE Active Mountpoint Space Policy Created ----------------------------------------------------------------solaris_backup 13.25G static 2011-07-17 21:19 solaris NR 4.12G static 2011-07-13 12:01 root@sup46:~# beadm destroy solaris_backup Are you sure you want to destroy solaris_backup? This action cannot be undone(y/[n]): y root@sup46:~# beadm list BE Active Mountpoint Space Policy Created ----------------------------------------------------------------solaris NR / 4.12G static 2011-07-13 12:01 root@sup46:~# Dynamic Intimate Shared Memory 사용 DISM 제한 사항 [143] DISM 사용 안함 [144] DISM 제한 사항 DISM(Dynamic Intimate Shared Memory)은 ASM 이외의 인스턴스에서 Oracle SuperCluster T5-8 Solaris 환경에 사용할 수 없습니다. ASM 인스턴스 밖에서 시스템에 DISM을 사용하면 과도한 스왑 사용량에서(메모리가 사용 가능한 경우에도) 커널 패닉에 이 르기까지 다양한 성능 문제가 발생할 수 있습니다. 문제가 발생하지 못하도록 ASM 인스턴 스는 일반적으로 소형 메모리 공간으로 결정되었습니다. Solaris 11은 기본적으로 Automatic Memory Management를 사용하기 때문에 이 동작 은 일반적으로 설치 후에 만든 인스턴스에 발생합니다. Oracle Solaris 11 인스턴스를 만들 때 이 DISM 문제를 방지하려면 DISM을 사용 안함으로 설정하십시오. 자세한 내용은 DISM 사용 안함 [144]을 참조하십시오. DISM이 사용자 환경에 적절한지 결정하고 Oracle 데이터베이스에서 DISM을 사용하는 방법을 알아보려면 Oracle 백서 Dynamic SGA Tuning of Oracle Database on Oracle Solaris with DISM 을 참조하십시오. http://www.oracle.com/technetwork/articles/systems-hardware-architecture/ using-dynamic-intimate-memory-sparc-168402.pdf 시스템 유지 관리 143

DISM 사용 안함 DISM 사용 안함 DISM(Dynamic Intimate Shared Memory)은 ASM 이외의 인스턴스에서 Oracle SuperCluster T5-8 Oracle Solaris 환경에 사용할 수 없습니다. 자세한 내용은 DISM 제한 사항 [143]을 참조하십시오. 참고 - DBA의 데이터베이스 관리 업무를 줄여주는 매우 유용한 기능인 ASMM(Automatic Shared Memory Management)을 데이터베이스에서 사용 안함으로 설정하십시오. 다음 두 가지 방법 중 하나로 Oracle Solaris 데이터베이스에서 DISM을 사용 안함으로 설정 합니다. SGA_MAX_SIZE / MEMORY_MAX_TARGET / MEMORY_TARGET 매개변수 설정을 해제하거나, SGA_MAX_SIZE를 SGA_TARGET 매개변수와 동일한 값으로 설정하 거나 인스턴스의 모든 SGA 구성 요소의 합계와 같도록 설정하는 것입니다. 예를 들어, 64G SGA를 설정하려면 다음과 같이 하십시오. alter alter alter alter system system system system set set set set SGA_TARGET=64G scope=spfile; SGA_MAX_SIZE=64G scope=spfile; MEMORY_MAX_TARGET=0 scope=spfile; MEMORY_TARGET=0 scope=spfile; 구성 요소 관련 서비스 절차 Oracle SuperCluster T5-8에 대한 서비스 계약을 체결한 경우, 유지 관리를 위해 서비스 제 공업체에 문의하십시오. 서비스 계약을 체결하지 않은 경우 개별 구성 요소의 설명서에서 일반 유지 관리 정보를 참조 하십시오. 구성 요소 정보 유지 관리 정보 SPARC T5-8 서버 [18] http://download.oracle.com/docs/cd/e23411_01/index.html ZFS Storage Appliance [19] http://download.oracle.com/docs/cd/e22471_01/html/820-4167/toc.html Sun Datacenter InfiniBand Switch 36 스위치 [20] http://download.oracle.com/docs/cd/e19197-01/index.html Cisco Catalyst 4948 이더넷 관리 스위 치 [20] http://www.cisco.com/en/us/docs/switches/lan/catalyst4900/4948e/ installation/guide/4948e_ins.html Exadata Storage Server [19] Exadata Storage Server 유지 관리 [145] 144 Oracle SuperCluster T5-8 2014년 10월

Exadata Storage Server 유지 관리 구성 요소 정보 유지 관리 정보 Oracle VM Server for SPARC http://download.oracle.com/docs/cd/e23120_01/index.html Oracle Solaris Cluster http://download.oracle.com/docs/cd/e18728_01/index.html Oracle Solaris 11 http://download.oracle.com/docs/cd/e19963-01/index.html Oracle Solaris 10 http://download.oracle.com/docs/cd/e23823_01/index.html Exadata Storage Server 유지 관리 Exadata Storage Server는 Oracle 데이터베이스와 함께 사용하기 위해 최적화되어 있으며 대량으로 병렬 구조 및 Exadata Smart Flash Cache를 사용하여 Oracle 데이터베이스 처리 및 속도 I/O 작업을 현저히 가속화합니다. 자세한 내용은 Exadata Storage Server [19]를 참조하십시오. 일반 유지 관리 정보는 Oracle SuperCluster T5-8에 설치된 Exadata Storage Server의 다 음 디렉토리에 있는 Exadata Storage Server 설명서를 참조하십시오. /opt/oracle/cell/doc 다음 항목은 Oracle SuperCluster T5-8의 Exadata Storage Server와 관련된 유지 관리에 대해 설명합니다. 동시 기록(Write-Through) 캐시 모드 모니터링 [145] Exadata Storage Server 종료 또는 재부트 [147] Exadata Storage Server 삭제 [149] 관련 정보 Oracle ASM 디스크 복구 타이머에 대한 추가 정보는 Oracle Exadata Storage Server Software User's Guide를 참조하십시오. 동시 기록(Write-Through) 캐시 모드 모니터링 각 Exadata Storage Server의 디스크 컨트롤러는 컨트롤러 배터리의 방전과 충전을 주 기적으로 수행합니다. 작동 중 쓰기 캐시 정책이 후기록(Write-Back) 캐시에서 동시 기록 (Write-Through) 캐시로 변경됩니다. 동시 기록(Write-Through) 캐시 모드는 후기록 (Write-Back) 캐시 모드보다 느립니다. 그러나 Exadata Storage Server의 전원이 꺼지거 나 고장나는 경우 후기록(Write-Back) 캐시 모드는 데이터 손실의 위험이 있습니다. 릴리 스 11.2.1.3 이전의 Exadata Storage Server 릴리스는 작업이 매달 발생합니다. Oracle Exadata Storage Server 소프트웨어 릴리스 11.2.1.3 이상은 작업이 세 달마다 발생합니다 (예: 1월, 4월, 7월 및 10월 17일 1시). 시스템 유지 관리 145

동시 기록(Write-Through) 캐시 모드 모니터링 1. 학습 주기가 발생하는 시작 시간을 변경하려면 다음과 유사한 명령을 사용합니다. 주기가 완 료되면 시간이 기본 학습 주기 시간으로 되돌아갑니다. CellCLI> ALTER CELL bbulearncycletime="2011-01-22t02:00:00-08:00" 2. 다음 학습 주기에 대한 시간을 확인하려면 다음 명령을 사용합니다. CellCLI> LIST CELL ATTRIBUTES bbulearncycletime Exadata Storage Server는 셀에서 논리적 드라이브에 대한 캐싱 모드의 상태에 관한 정보 경고를 생성합니다. 예를 들면 다음과 같습니다. HDD disk controller battery on disk contoller at adapter 0 is going into a learn cycle. This is a normal maintenance activity that occurs quarterly and runs for approximately 1 to 12 hours. The disk controller cache might go into WriteThrough caching mode during the learn cycle. Disk write throughput might be temporarily lower during this time. The message is informational only, no action is required. 3. 배터리의 상태를 보려면 다음 명령을 사용합니다. # /opt/megaraid/megacli/megacli64 -AdpBbuCmd -GetBbuStatus -a0 다음은 명령의 출력 예입니다. BBU status for Adapter: 0 BatteryType: ibbu08 Voltage: 3721 mv Current: 541 ma Temperature: 43 C BBU Firmware Status: Charging Status : Charging Voltage : OK Temperature : OK Learn Cycle Requested : No Learn Cycle Active : No Learn Cycle Status : OK Learn Cycle Timeout : No I2c Errors Detected : No Battery Pack Missing : No Battery Replacement required : No Remaining Capacity Low : Yes Periodic Learn Required : No Transparent Learn : No Battery state: GasGuageStatus: Fully Discharged : No 146 Oracle SuperCluster T5-8 2014년 10월

Exadata Storage Server 종료 또는 재부트 Fully Charged : No Discharging : No Initialized : No Remaining Time Alarm : Yes Remaining Capacity Alarm: No Discharge Terminated : No Over Temperature : No Charging Terminated : No Over Charged : No Relative State of Charge: 7 % Charger System State: 1 Charger System Ctrl: 0 Charging current: 541 ma Absolute State of Charge: 0% Max Error: 0 % Exit Code: 0x00 Exadata Storage Server 종료 또는 재부트 Exadata Storage Server에서 유지 관리를 수행하는 경우 전원을 끄거나 셀을 재부트해야 할 수 있습니다. 하나 이상의 데이터베이스가 실행 중일 때 Exadata Storage Server를 종 료해야 하는 경우 Exadata Storage Server를 오프라인 상태로 설정하면 Oracle ASM 디 스크 그룹 및 데이터베이스 가용성에 손상을 입히지 않는지 확인합니다. 데이터베이스 가용 성에 영향을 미치지 않고 Exadata Storage Server를 오프라인 상태로 설정하는 기능은 영 향을 받는 디스크 그룹에서 사용되는 Oracle ASM 중복성 수준 및 오프라인 상태로 설정될 Exadata Storage Server로 데이터의 미러 복사본이 있는 다른 Exadata Storage Server의 현재 디스크 상태에 따라 달라집니다. 다음 절차에 따라 Exadata Storage Server 전원을 끕니다. 1. 다른 오프라인 디스크가 있는지 확인하려면 다음 명령을 실행합니다. CellCLI> LIST GRIDDISK ATTRIBUTES name WHERE asmdeactivationoutcome!= 'Yes' 그리드 디스크가 반환되면 적절한 Oracle ASM 디스크 그룹 중복성이 유지되지 않기 때문에 Exadata Storage Server를 오프라인 상태로 설정하는 것은 안전하지 않습니다. 하나 이상 의 그리드 디스크가 이 상태에 있는 경우 Exadata Storage Server를 오프라인 상태로 설정 하면 Oracle ASM에서 영향을 받는 디스크 그룹의 마운트를 해제하여 데이터베이스가 갑자 기 종료됩니다. 2. Exadata Storage Server를 오프라인 상태로 설정하는 것이 안전한 경우 모든 그리드 디스 크를 비활성화합니다. CellCLI> ALTER GRIDDISK ALL INACTIVE 모든 디스크가 비활성화되고 오프라인 상태이면 위의 명령이 완료됩니다. 시스템 유지 관리 147

Exadata Storage Server 종료 또는 재부트 3. Exadata Storage Server를 안전하게 종료하기 위해 모든 그리드 디스크가 INACTIVE인지 확 인합니다. CellCLI> LIST GRIDDISK WHERE STATUS!= 'inactive' 모든 그리드 디스크가 INACTIVE이면 Exadata Storage Server가 데이터베이스 가용성에 영 향을 주지 않고 종료될 수 있습니다. 4. 셀을 종료합니다. 5. 유지 관리를 수행한 다음 셀을 시작합니다. 셀 서비스가 자동으로 시작됩니다. 6. 다음 명령을 사용하여 모든 그리드 디스크를 온라인 상태로 전환합니다. CellCLI> ALTER GRIDDISK ALL ACTIVE 그리드 디스크가 활성화되면 Oracle ASM이 자동으로 그리드 디스크를 동기화하여 디스크 그룹으로 되돌립니다. 7. 다음 명령을 사용하여 모든 그리드 디스크가 성공적으로 온라인 상태가 되었는지 확인합니 다. CellCLI> LIST GRIDDISK ATTRIBUTES name, asmmodestatus asmmodestatus가 모든 그리드 디스크에 대해 ONLINE 또는 UNUSED 상태가 될 때까지 기다립 니다. 예를 들면 다음과 같습니다. DATA_CD_00_dm01cel01 DATA_CD_01_dm01cel01 DATA_CD_02_dm01cel01 DATA_CD_02_dm02cel01 DATA_CD_02_dm03cel01 DATA_CD_02_dm04cel01 DATA_CD_02_dm05cel01 DATA_CD_02_dm06cel01 DATA_CD_02_dm07cel01 DATA_CD_02_dm08cel01 DATA_CD_02_dm09cel01 DATA_CD_02_dm10cel01 DATA_CD_02_dm11cel01 ONLINE SYNCING OFFLINE OFFLINE OFFLINE OFFLINE OFFLINE OFFLINE OFFLINE OFFLINE OFFLINE OFFLINE OFFLINE Oracle ASM 동기화는 모든 그리드 디스크가 asmmodestatus=online 또는 asmmodestatus=unused를 표시하는 경우에만 완료됩니다. 다른 Exadata Storage Server 를 오프라인 상태로 설정하기 전에 Oracle ASM 동기화가 다시 시작된 Exadata Storage Server에서 완료되어야 합니다. 동기화가 완료되지 않은 경우 다른 Exadata Storage Server에서 수행된 검사가 실패합니다. 예를 들면 다음과 같습니다. CellCLI> list griddisk attributes name where asmdeactivationoutcome!= 'Yes' 148 Oracle SuperCluster T5-8 2014년 10월

Exadata Storage Server 삭제 DATA_CD_00_dm01cel02 DATA_CD_01_dm01cel02 DATA_CD_02_dm01cel02 DATA_CD_03_dm01cel02 DATA_CD_04_dm01cel02 DATA_CD_05_dm01cel02 DATA_CD_06_dm01cel02 DATA_CD_07_dm01cel02 DATA_CD_08_dm01cel02 DATA_CD_09_dm01cel02 DATA_CD_10_dm01cel02 DATA_CD_11_dm01cel02 "Cannot de-activate due to other offline disks in the diskgroup" "Cannot de-activate due to other offline disks in the diskgroup" "Cannot de-activate due to other offline disks in the diskgroup" "Cannot de-activate due to other offline disks in the diskgroup" "Cannot de-activate due to other offline disks in the diskgroup" "Cannot de-activate due to other offline disks in the diskgroup" "Cannot de-activate due to other offline disks in the diskgroup" "Cannot de-activate due to other offline disks in the diskgroup" "Cannot de-activate due to other offline disks in the diskgroup" "Cannot de-activate due to other offline disks in the diskgroup" "Cannot de-activate due to other offline disks in the diskgroup" "Cannot de-activate due to other offline disks in the diskgroup" Exadata Storage Server 삭제 1. Oracle ASM에서 다음 명령을 사용하여 물리적 디스크에 있는 Oracle ASM 디스크를 삭제 합니다. ALTER DISKGROUP diskgroup-name DROP DISK asm-disk-name Oracle ASM에서 정확한 중복성 수준을 보장하려면 계속하기 전에 완전히 균형을 맞출 때까 지 기다립니다. 2. Exadata Storage Server에 액세스하는 각 데이터베이스 서버의 cellip.ora 파일에서 IP 주 소 항목을 제거합니다. 3. Exadata Storage Server에서 다음 명령을 사용하여 물리적 디스크에 있는 그리드 디스크, 셀 디스크 및 셀을 삭제합니다. DROP CELLDISK celldisk-on-this-lun FORCE 4. Exadata Storage Server에서 모든 서비스를 종료합니다. 5. 셀의 전원을 끕니다. 작은 정보 - 자세한 내용은 Exadata Storage Server 종료 또는 재부트 [147]를 참조하십 시오. 시스템 조정(ssctuner) Oracle Solaris 전역 영역을 포함하는 SuperCluster는 여러 조정 매개변수를 실시간으로 자 동 모니터 및 조정합니다. 조정은 ssctuner 유틸리티에 의해 처리됩니다. 시스템 유지 관리 149

Exadata Storage Server 삭제 다음 항목에서는 ssctuner 유틸리티에 대해 설명합니다. ssctuner 개요 [150] ssctuner 작업 모니터 [151] 로그 파일 보기 [152] ssctuner 등록 정보 변경 및 기능 사용 안함 [153] ssctuner 설치 [155] ssctuner 사용 [156] 관련 정보 ssctuner에 대한 자세한 내용은 다음 위치에서 MOS 참고 자료 1903388.1을 참조하십 시오. https://support.oracle.com Oracle Solaris OS의 SMF 서비스에 대한 자세한 내용은 다음 위치에서 Oracle Solaris System Administration Guide: Common System Management Tasks를 참조하십시 오. http://docs.oracle.com/cd/e23824_01/html/821-1451/ hbrunlevels-25516.html#scrolltoc ssctuner 개요 ssctuner 유틸리티는 SuperCluster Oracle Solaris 10 및 Oracle Solaris 11 전역 영역에 서 실행되는 Perl 및 Korn 셸 스크립트 및 구성 파일로 구성된 작은 세트입니다. 기본적으로 ssctuner는 설치 시에 설치되고 및 사용으로 설정됩니다. 이 유틸리티는 SMF 서비스로 실시간으로 실행되어 다음 파일을 포함한 여러 시스템 구성 매 개변수와 ndd 매개변수를 모니터 및 조정합니다. /etc/system /kernel/drv/sd.conf /kernel/drv/ssd.conf /etc/inet/ntp.conf 이 유틸리티는 또한 DISM 사용이나 최적이 아닌 NFS 마운트 옵션을 정기적으로 확인합니 다. 기본적으로 이 유틸리티는 2시간마다 실행되며 필요에 따라 매개변수를 수정합니다. 이 유틸리티는 또한 2분마다 성능 저하 상태였다가 온라인으로 복구된 가상 디스크 장치가 있는지 확인하고 해당 zpool을 지웁니다. 150 Oracle SuperCluster T5-8 2014년 10월

ssctuner 작업 모니터 참고 - ssctuner이 다른 값을 필요로 하도록 매개변수를 수동으로 조정할 경우, ssctuner는 매개변수 값을 다시 ssctuner에 필요한 항목으로 설정하고 이 간격 검사 시 변경 사항을 기록 합니다. ssctuner가 관리하는 매개변수 중 하나 이상을 제어해야 하는 경우 ssctuner를 완전 히 사용 안함으로 설정하지 말고 관련 구성 요소를 해제해 보십시오. ssctuner 등록 정보 변 경 및 기능 사용 안함 [153]을 참조하십시오. 참고 - Oracle Solaris 11은 SRU 11.4 이상이어야 합니다. 그렇지 않으면 ssd.conf/sd.conf 설정으로 인해 패닉이 발생할 수 있습니다. 참고 - 다른 SMF 서비스 또는 init 스크립트를 통해 ndd 매개변수를 설정하지 마십시오. ssctuner는 ndd 매개변수를 관리해야 합니다. 관련 정보 ssctuner 작업 모니터 [151] 로그 파일 보기 [152] ssctuner 등록 정보 변경 및 기능 사용 안함 [153] ssctuner 설치 [155] ssctuner 사용 [156] ssctuner 작업 모니터 ssctuner 작업을 봅니다. # svcs -l ssctuner 관련 정보 로그 파일 보기 [152] ssctuner 개요 [150] ssctuner 등록 정보 변경 및 기능 사용 안함 [153] ssctuner 설치 [155] ssctuner 사용 [156] 시스템 유지 관리 151

로그 파일 보기 로그 파일 보기 1. ssctuner 서비스 로그를 봅니다. ssctuner는 syslog 및 ssctuner 서비스 로그에 메시지를 기록합니다. 이러한 메시지는 ssctuner 태그가 지정되며 추가 정보를 위해 다른 파일 위치를 가리킬 수도 있습니다. # svcs -x ssctuner svc:/site/application/sysadmin/ssctuner:default (ssctuner for Oracle SuperCluster) State: online since September 28, 2012 07:30:15 AM PDT See: ssctuner(l) See: /var/svc/log/site-application-sysadmin-ssctuner:default.log Impact: None. # more /var/svc/log/site-application-sysadmin-ssctuner\:default.log [ Sep 28 07:30:00 Disabled. ] [ Sep 28 07:30:00 Rereading configuration. ] [ Sep 28 07:30:10 Enabled. ] [ Sep 28 07:30:10 Executing start method ("/opt/oracle.supercluster/ssctuner.ksh start"). ] ssctuner local0.notice success: Saved rollback for : /etc/system ssctuner local0.notice success: Saved ndd rollback. ssctuner local0.notice success: Saved rollback for : /kernel/drv/sd.conf ssctuner local0.notice success: enabled, version 0.99e. daemon PID= 14599 [ Sep 28 07:30:15 Method "start" exited with status 0. ] ssctuner local0.notice success: daemon executing ssctuner local0.notice success: Changes made to /etc/system ssctuner local0.notice success: Changes made to /kernel/drv/sd.conf 2. /var/adm에서 ssctuner 메시지를 봅니다. # grep -i ssctuner /var/adm/messages Sep 28 07:30:10 etc6cn04 ssctuner: [ID 702911 Sep 28 07:30:10 etc6cn04 ssctuner: [ID 702911 Sep 28 07:30:10 etc6cn04 ssctuner: [ID 702911 Sep 28 07:30:15 etc6cn04 ssctuner: [ID 702911 Sep 28 07:30:15 etc6cn04 ssctuner: [ID 702911 Sep 28 07:30:15 etc6cn04 ssctuner: [ID 702911 Sep 28 07:30:15 etc6cn04 ssctuner: [ID 702911 local0.notice] local0.notice] local0.notice] local0.notice] local0.notice] local0.notice] local0.notice] success: success: success: success: success: success: success: Saved rollback for : /etc/system Saved ndd rollback. Saved rollback for : /kernel/drv/sd.conf enabled, version 0.99e. daemon PID= 14599 daemon executing Changes made to /etc/system Changes made to /kernel/drv/sd.conf 관련 정보 152 ssctuner 작업 모니터 [151] ssctuner 개요 [150] ssctuner 등록 정보 변경 및 기능 사용 안함 [153] ssctuner 설치 [155] ssctuner 사용 [156] Oracle SuperCluster T5-8 2014년 10월

ssctuner 등록 정보 변경 및 기능 사용 안함 ssctuner 등록 정보 변경 및 기능 사용 안함 주의 - 오라클 고객 지원 센터의 승인 없이는 이 절차를 수행하지 마십시오. 등록 정보를 변경 하거나 ssctuner 기능을 사용 안함으로 설정할 경우 예측할 수 없는 결과가 발생할 수 있습니 다. 환경에 따라 EMAIL_ADDRESS 및 디스크 또는 메모리 사용 경고 레벨과 같은 특정 ssctuner 등 록 정보를 변경하는 것이 좋을 수 있습니다. 1. ssctuner 등록 정보를 나열하여 변경하려는 등록 정보를 식별합니다. # svccfg -s ssctuner listprop 'ssctuner_vars/*' ssctuner_vars/crit_threads_fix boolean true ssctuner_vars/crit_threads_nonexa boolean false ssctuner_vars/disk_space_check boolean true ssctuner_vars/disk_usage_crit integer 90 ssctuner_vars/disk_usage_warn integer 85 ssctuner_vars/dism_check boolean true ssctuner_vars/email_address astring root@localhost ssctuner_vars/email_messages boolean true ssctuner_vars/forceload_vdc boolean false ssctuner_vars/intrd_disable boolean true ssctuner_vars/iscsi_tune boolean true ssctuner_vars/major_interval integer 120 ssctuner_vars/mem_usage_crit integer 97 ssctuner_vars/mem_usage_warn integer 94 ssctuner_vars/minor_interval integer 2 ssctuner_vars/ndd_tune boolean true ssctuner_vars/nfs_check boolean true ssctuner_vars/nfs_exclude astring ssctuner_vars/nfs_include astring ssctuner_vars/ntpconf_tune boolean true ssctuner_vars/poweradm_disable boolean true ssctuner_vars/sdconf_tune boolean true ssctuner_vars/serd_threshold_tune boolean true ssctuner_vars/ssdconf_tune boolean true ssctuner_vars/syslog_dup_suppress_hours integer 8 ssctuner_vars/system_tune boolean true ssctuner_vars/zpool_fix boolean true ssctuner_vars/zpool_name_cust astring 2. svccfg 명령을 사용하여 등록 정보 설정을 변경합니다. 다음은 변경해야 할 수 있는 등록 정보의 예입니다. 중요 메시지가 사용자의 전자 메일 주소로 전송되도록 시스템을 구성합니다. ~# svccfg -s ssctuner setprop ssctuner_vars/email_address="my_name@mycorp.com" 시스템 유지 관리 153

ssctuner 등록 정보 변경 및 기능 사용 안함 디스크(/ 및 영역 루트) 사용 경고 레벨을 80%로 변경합니다. ~# svccfg -s ssctuner setprop ssctuner_vars/disk_usage_warn=80 비exa Oracle DB 도메인에 대한 스레드 우선순위 변경을 사용으로 설정합니다. ~# svccfg -s ssctuner setprop ssctuner_vars/crit_threads_nonexa=true SuperCluster 설치 프로그램으로 생성되지 않은 vdisk zpool의 zpool 검사 및 복구를 사용으로 설정합니다. ~# svccfg -s ssctuner setprop ssctuner_vars/zpool_name_cust=my_vdisk_pool 경고 방식에서 NFS 마운트를 제외합니다. ~# svccfg -s ssctuner setprop ssctuner_vars/nfs_exclude='mount_name_or_device' 경고 방식에 NFS 마운트를 포함합니다(제외 대체). ~# svccfg -s ssctuner setprop ssctuner_vars/nfs_include='mount_name_or_device' 모든 NFS 마운트 경고를 사용 안함으로 설정합니다(권장 안함). ~# svccfg -s ssctuner setprop ssctuner_vars/nfs_check=false NFS_EXCLUDE, NFS_INCLUDE 및 ZPOOL_NAME_CUST 등록 정보는 단순 문자열이어야 하지만 간단 한 정규 표현식을 사용할 수 있습니다. 정규 표현식을 사용할 경우에는 반드시 표현식을 큰 따옴표(")로 표시해야 합니다. 또한 다시 시작 후 ssctuner 서비스가 다시 돌아오고 SMF 로그 파일에 오류가 없는지 확인합니다. 3. 변경 사항을 적용하려면 SMF 서비스를 다시 시작합니다. # svcadm restart ssctuner 4. ssctuner 서비스가 사용으로 설정되었고 오류 메시지가 보고되지 않았는지 확인합니다. 잘못된 구문을 사용하여 등록 정보를 변경한 경우에는 서비스가 돌아오지 않습니다. 이 경우 에는 수정해야 하는 잘못된 등록 정보를 식별해야 합니다. # grep -i parameter /var/svc/log/site-application-sysadmin-ssctuner:default.log 항목을 수정 또는 변경한 후에는 3단계를 반복합니다. 154 Oracle SuperCluster T5-8 2014년 10월

ssctuner 설치 관련 정보 ssctuner 개요 [150] ssctuner 작업 모니터 [151] 로그 파일 보기 [152] ssctuner 설치 [155] ssctuner 사용 [156] ssctuner 설치 기본적으로 ssctuner가 설치되고 실행됩니다. 다른 이유로 인해 ssctuner가 설치되지 않았 으면 이 절차에 따라 설치하십시오. 1. ssctuner 패키지를 설치합니다. OS 버전에 따라 Oracle Solaris 패키지 명령과 패키지 이름을 사용합니다. Oracle Solaris 10 OS: 참고 - ORCLssctuner 패키지 트리가 있는 디렉토리에 있어야 합니다. # pkgadd -d ORCLssctuner Oracle Solaris 11 OS: 참고 - 최신 exa 제품군 저장소를 게시자로 설정해야 합니다. # pkg install ssctuner 2. 패키지 설치 후 ssctuner 서비스가 자동으로 시작되는지 확인합니다. # svcs ssctuner 서비스가 1~2분 후에도 온라인 상태로 전환되지 않으면 서비스 로그 파일을 확인합니다. 로 그 파일 보기 [152]를 참조하십시오. 3. OS를 재부트합니다. ssctuner로 구성 파일이 변경될 때는 변경 사항이 적용되도록 OS를 재부트해야 합니다. 시스템 유지 관리 155

ssctuner 사용 관련 정보 ssctuner 개요 [150] ssctuner 작업 모니터 [151] 로그 파일 보기 [152] ssctuner 등록 정보 변경 및 기능 사용 안함 [153] ssctuner 사용 [156] ssctuner 사용 일반적으로 ssctuner는 실행 중인 상태입니다. 다른 이유로 인해 ssctuner가 실행 중이 아니 면 이 절차에 따라 사용으로 설정하십시오. 1. ssctuner를 사용으로 설정합니다. # svcadm enable ssctuner 2. ssctuner 서비스가 시작되었는지 확인합니다. # svcs ssctuner 서비스가 1~2분 후에도 온라인 상태로 전환되지 않으면 서비스 로그 파일을 확인합니다. 로 그 파일 보기 [152]를 참조하십시오. 3. /var/adm/messages 로그에서 ssctuner로 구성 파일 설정이 변경되었는지 확인합니다. 로그 파일 보기 [152]를 참조하십시오. 구성 설정이 변경된 경우, 변경 사항이 적용되도록 OS를 재부트해야 합니다. 설정이 변경되 지 않았으면 OS를 재부트하지 않아도 됩니다. 관련 정보 156 ssctuner 개요 [150] ssctuner 작업 모니터 [151] 로그 파일 보기 [152] ssctuner 등록 정보 변경 및 기능 사용 안함 [153] ssctuner 설치 [155] Oracle SuperCluster T5-8 2014년 10월

CPU 및 메모리 리소스 구성(osc-setcoremem) CPU 및 메모리 리소스 구성(osc-setcoremem) 다음 항목에서는 osc-setcoremem이라는 CPU/메모리 도구를 사용하여 도메인의 CPU 및 메 모리 할당을 변경할 수 있습니다. 참고 - osc-setcoremem 도구는 SuperCluster v2.x 소프트웨어에서 제공됩니다. 이전의 setcoremem이라는 CPU/메모리 도구도 사용할 수 있지만 이름이 약간 달 라졌습니다. SuperCluster 도구 [138] 및 CPU 및 메모리 할당 구성(레거시 setcoremem) [185]을 참조하십시오. 설명 링크 CPU/메모리 도구에 대해 알아봅니다. CPU/메모리 도구 개요(osc-setcoremem) [158] CPU/메모리 도구를 사용하여 SuperCluster 리소스를 수정할 수 있는지 여부를 확인합니다. 지원되는 도메인 구성 [159] CPU 및 메모리 할당을 계획합니다. CPU 및 메모리 할당 계획 [160] 도메인 구성을 식별합니다. 현재 도메인 구성 표시(osc-setcoremem) [163] 현재 도메인 구성 표시(ldm) [164] osc-setcoremem 로그 파일 액세스 [178] SP 구성 보기 [181] 소켓 또는 코어 레벨에서 도메인 CPU 및 메모리 리소스를 구성 합니다. CPU/메모리 할당 변경(소켓 세분성) [166] 일부 리소스를 보관할 수 있도록 도메인 CPU 및 메모리 리소스 를 구성합니다. 코어 및 메모리 보관 [173] 이전의 osc-setcoremem 실행에 대한 정보에 액세스합니다. osc-setcoremem 로그 파일 액세스 [178] CPU/메모리 할당 변경(코어 세분성) [170] SP 구성 보기 [181] 이전 CPU/메모리 구성으로 되돌리거나 제거합니다. 이전 CPU/메모리 구성으로 되돌리기 [183] CPU/메모리 구성 제거 [184] 시스템 유지 관리 157

CPU 및 메모리 리소스 구성(osc-setcoremem) CPU/메모리 도구 개요(osc-setcoremem) 참고 - osc-setcoremem 유틸리티는 SuperClusters v.2.x 소프트웨어에서만 제공됩니다. SuperCluster 소프트웨어의 버전 식별 [137]을 참조하십시오. SuperClusters v.1.x 소프 트웨어의 경우 CPU 및 메모리 할당 구성(레거시 setcoremem) [185]을 참조하십시오. SuperCluster 컴퓨팅 노드 CPU 및 메모리 리소스는 처음에 구성에 정의된 대로 설치 중에 할당됩니다. CPU 소켓은 IB HCA와 동일한 비율로 도메인에 지정됩니다. 예를 들어, 서버 또 는 PDom에 IB HCA 4개가 포함된 경우 2개의 HCA를 포함하는 도메인에 CPU 소켓의 절반 이 지정되고 HCA 1개를 포함하는 도메인에 CPU 소켓의 1/4이 지정됩니다. 메모리는 동일 한 비율로 지정됩니다. 도메인 간 CPU 및 메모리 리소스 할당 방법을 변경하려면 CPU/메모리 도구(oscsetcoremem)를 사용합니다. 이 도구를 사용하여 리소스 할당을 변경할 때는 리소스 할당을 추적하고 선택한 항목이 유효 한지 확인합니다. 이 도구는 사용자의 CPU 리소스 할당 방법에 따라 각 도메인에 적절한 양의 메모리를 자동으 로 지정하여 NUMA 효과를 최소화하고 성능을 최적화할 수 있도록 보장합니다. 이 도구를 사용하면 다음 두 가지 세분성 레벨 중 하나에서 CPU 및 메모리 할당을 변경할 수 있습니다. 소켓 세분성 이 도구는 각 도메인에 최소 1개의 소켓을 자동으로 할당한 후 사용자 가 남은 소켓을 도메인에 할당할 수 있게 해줍니다. CPU/메모리 할당 변경(소켓 세분 성) [166]을 참조하십시오. 코어 세분성 이 도구는 최소 코어 개수를 각 도메인에 자동으로 할당한 후 사용자가 코어를 한 개씩 추가로 할당할 수 있게 해줍니다. CPU/메모리 할당 변경(코어 세분 성) [170]을 참조하십시오. 일부 리소스가 어떤 도메인에도 할당되지 않도록 CPU 및 메모리 리소스를 구성한 경우에는 이렇게 할당되지 않은 리소스가 보관됩니다. 유휴 리소스는 논리적 CPU 및 메모리 저장소에 배치되며 I/O 도메인에 사용할 수 있습니다. 코어 및 메모리 보관 [173]을 참조하십시오. 언제라도 전용 도메인의 리소스를 보관할 수 있지만 I/O 도메인을 만든 다음에는 유휴 리소 스를 전용 도메인으로 이동할 수 없습니다. 또한 지원되는 도메인 구성 [159]을 참조하십시오. 관련 정보 158 지원되는 도메인 구성 [159] CPU 및 메모리 할당 계획 [160] 현재 도메인 구성 표시(osc-setcoremem) [163] Oracle SuperCluster T5-8 2014년 10월

CPU 및 메모리 리소스 구성(osc-setcoremem) 현재 도메인 구성 표시(ldm) [164] CPU/메모리 할당 변경(소켓 세분성) [166] CPU/메모리 할당 변경(코어 세분성) [170] 코어 및 메모리 보관 [173] 지원되는 도메인 구성 이 표에서는 SuperCluster 구성을 식별한 후 지원되는 리소스 할당 작업을 검토할 수 있습니 다. 참고 - 전용 도메인은 I/O 도메인과 연관되지 않은 응용 프로그램 또는 데이터베이스 도메인 일 수 있습니다. SuperCluster 도메인의 여러 유형에 대한 자세한 내용은 소프트웨어 구성 이해 [40]를 참조하십시오. 도메인 구성 지원되는 리소스 할당 작업 링크 모든 도메인이 전용 도메인 인 경우 도메인에 CPU 및 메모리 리소스를 할당할 방법을 계획 합니다. CPU 및 메모리 할당 계획 [160] 소켓 또는 코어 레벨에서 도메인 간에 모든 리소스를 다 시 할당합니다(기본 도메인 리소스가 변경될 경우에는 재부트 필요). CPU/메모리 할당 변경(소켓 세분성) [166] 라이센스 목적으로 전용 도메인의 리소스를 제거(보관) 합니다. 참고 - 유휴 리소스는 모든 도메인에서 사용할 수 없습 니다. 코어 및 메모리 보관 [173] 이전 리소스 구성으로 되돌아갑니다. 이전 CPU/메모리 구성으로 되돌리기 [183] CPU/메모리 구성을 제거합니다. CPU/메모리 구성 제거 [184] 혼합된 도메인 - 일부는 전 용 도메인이고 다른 일부는 루트 도메인인 경우 CPU/메모리 할당 변경(코어 세분성) [170] I/O 도메인을 만들기 전에 초기 설치 시에만 수행할 수 있는 작업: 도메인에 CPU 및 메모리 리소스를 할당할 방법을 계획합니다. CPU 및 메모리 할당 계획 [160] 소켓 또는 코어 레벨에서 도메인 간에 모든 리소스 를 다시 할당합니다(전용 도메인 리소스가 변경될 경우에는 재부트 필요). CPU/메모리 할당 변경(소켓 세분성) [166] 이전의 할당 구성으로 되돌아갑니다. 이전 CPU/메모리 구성으로 되돌리기 [183] CPU/메모리 할당 변경(코어 세분성) [170] 언제라도 수행할 수 있는 작업: I/O 도메인에 대한 리소스를 구성합니다. I/O Domain Administration Guide를 참조하십 시오. 시스템 유지 관리 159

CPU 및 메모리 할당 계획 도메인 구성 지원되는 리소스 할당 작업 링크 리소스를 I/O 도메인에 사용할 수 있도록 전용 도 메인에서 리소스를 이동합니다. 코어 및 메모리 보관 [173] 전용 도메인 간에 리소스를 이동합니다. CPU/메모리 할당 변경(소켓 세분성) [166] CPU/메모리 할당 변경(코어 세분성) [170] CPU/메모리 구성을 제거합니다. CPU/메모리 구성 제거 [184] 관련 정보 CPU/메모리 도구 개요(osc-setcoremem) [158] CPU 및 메모리 할당 계획 [160] 현재 도메인 구성 표시(osc-setcoremem) [163] 현재 도메인 구성 표시(ldm) [164] CPU/메모리 할당 변경(소켓 세분성) [166] CPU/메모리 할당 변경(코어 세분성) [170] 코어 및 메모리 보관 [173] CPU 및 메모리 할당 계획 리소스 할당을 수정하는 기본 방법은 다음 두 가지입니다. 모든 리소스 할당 도메인의 리소스를 다른 도메인으로 이동하고 모든 리소스가 할당되 었는지 확인합니다. 일부 리소스 할당 안함 컴퓨팅 노드에 사용할 수 있는 최대 코어 및 메모리보다 적은 양을 할당합니다. 사용되지 않은 코어는 유휴 코어로 간주되며 라이센스 목적상 집계되 지 않습니다. 하지만 유휴 코어는 논리적 CPU 및 메모리 저장소에 추가됩니다. 루트 도 메인이 있으면 나중에 저장소 리소스를 I/O 도메인에 할당할 수 있습니다. 코어 및 메모 리 보관 [173]을 참조하십시오. 도메인 리소스를 보기 위해 사용하는 명령에 따라 소켓, 코어 및 VCPU 값을 변환해야 할 수 있습니다. 160 SuperCluster T5-8의 경우 다음 사양을 사용합니다. 1개 소켓 = 16개 코어 1개 코어 = 8개 VCPU SuperCluster M6-32의 경우 다음 사양을 사용합니다. 1개 소켓 = 12개 코어 1개 코어 = 8개 VCPU Oracle SuperCluster T5-8 2014년 10월

CPU 및 메모리 할당 계획 1. 각 컴퓨팅 노드에 대해 현재 리소스 구성을 식별합니다. 현재 구성을 표시하려면 다음 절차 중 하나를 참조하십시오. 현재 도메인 구성 표시(osc-setcoremem) [163] 현재 도메인 구성 표시(ldm) [164] 이 예에서는 SuperCluster T5-8 풀 랙에 있는 1개의 컴퓨팅 노드에 5개의 전용 도메인과 1 개의 루트 도메인이 포함됩니다. 도메인 도메인 유형 이전 코어 수 이전 메모리(GB) primary 전용 32 512 ssccn2-dom1 전용 16 256 ssccn2-dom2 전용 16 256 ssccn2-dom3 전용 16 256 ssccn2-dom4 전용 16 256 ssccn2-dom5 루트 4 64 28 448 할당되지 않은 리소스 2. 도메인 리소스도 함께 추가하여 총 리소스 수를 확인합니다. CPU 및 메모리 리소스의 총 수량 계산은 리소스 계획을 결정하기 위한 시작 지점입니다. 리소스를 식별할 때는 다음과 같은 사항에 주의해야 합니다. 루트 도메인 리소스 루트 도메인의 배타적 사용을 위해 예약된 소량의 리소스입니다 (이 예에서는 4개 코어 및 64GB 메모리). 이러한 리소스는 계획에 포함하지 마십시오. 할당되지 않은 리소스 이러한 리소스는 루트 도메인을 만들 때 또는 osc-setcoremem 명령을 사용하여 일부 리소스를 할당되지 않은 상태로 둘 때 CPU 및 메모리 저장소에 배치됩니다. 이 예에서는 전용 도메인에 대한 리소스 및 할당되지 않은 리소스를 합산해서 총 리소스를 제 공합니다. 루트 도메인 리소스는 총 리소스에 포함되지 않습니다. 도메인 도메인 유형 이전 코어 수 이전 메모리(GB) primary 전용 32 512 ssccn2-dom1 전용 16 256 ssccn2-dom2 전용 16 256 ssccn2-dom3 전용 16 256 시스템 유지 관리 161

CPU 및 메모리 할당 계획 3. 도메인 도메인 유형 이전 코어 수 이전 메모리(GB) ssccn2-dom4 전용 16 256 ssccn2-dom5 루트 N/A N/A 할당되지 않은 리소스 28 448 총 리소스 124 1984 사이트 요구 사항 및 SuperCluster의 도메인 유형 및 숫자에 따라 각 도메인에 CPU 및 메모 리를 할당할 방법을 결정합니다. 다음은 리소스가 보관(할당 취소)될 수 있도록 primary, ssccn2-dom2, ssccn2-dom4의 리소스 를 줄이는 계획에 대한 예입니다. 유휴 리소스는 나중에 I/O 도메인에서 사용할 수 있습니다. 이전 및 이후 열의 총 리소스는 일치해야 합니다. 이를 통해 모든 리소스가 계획에 포함되었 는지 확인할 수 있습니다. 도메인 도메인 유형 이전 코어 수 코어 이후 4. 메모리 이후(GB) primary 전용 32 16 512 256 ssccn2-dom1 전용 16 16 256 256 ssccn2-dom2 전용 16 8 256 64 ssccn2-dom3 전용 16 16 256 256 ssccn2-dom4 전용 16 4 256 64 ssccn2-dom5 루트 N/A N/A N/A N/A 할당되지 않은 리소스 28 64 448 1088 총 리소스 124 124 1984 1984 다음에 고려할 작업: 소켓 세분성 레벨에서 리소스 할당을 변경합니다. CPU/메모리 할당 변경(소켓 세분성) [166] 참조 코어 세분성 레벨에서 리소스 할당을 변경합니다. CPU/메모리 할당 변경(코어 세분성) [170] 참조 할당되지 않은 리소스를 늘립니다. 코어 및 메모리 보관 [173] 참조 관련 정보 162 이전 메모리 (GB) CPU/메모리 도구 개요(osc-setcoremem) [158] Oracle SuperCluster T5-8 2014년 10월

현재 도메인 구성 표시(osc-setcoremem) 지원되는 도메인 구성 [159] 현재 도메인 구성 표시(osc-setcoremem) [163] 현재 도메인 구성 표시(ldm) [164] CPU/메모리 할당 변경(소켓 세분성) [166] CPU/메모리 할당 변경(코어 세분성) [170] 코어 및 메모리 보관 [173] 현재 도메인 구성 표시(osc-setcoremem) 이 절차에서는 osc-setcoremem 명령을 사용하여 컴퓨팅 노드 도메인 구성을 표시하는 방법 을 설명합니다. 참고 - 또는 ldm 명령을 사용하여 유사한 정보를 가져올 수 있습니다. 현재 도메인 구성 표시 (ldm) [164]를 참조하십시오. 1. 컴퓨팅 노드의 컨트롤 도메인에 수퍼 유저로 로그인합니다. 2. osc-setcoremem 명령을 사용하여 도메인 및 리소스를 봅니다. 참고 - 리소스 할당을 변경하기 위해 osc-setcoremem 명령을 계속 사용하지 않으려면 첫번째 프롬프트에서 CTL-C를 입력합니다. 예: # /opt/oracle.supercluster/bin/osc-setcoremem osc-setcoremem v1.0 built on Oct 29 2014 10:21:05 Current Configuration: Full-Rack T5-8 SuperCluster +-------------------------+-------+--------+-----------+--- MINIMUM ----+ DOMAIN CORES MEM_GB TYPE CORES MEM_GB +-------------------------+-------+--------+-----------+-------+--------+ primary 32 512 Dedicated 9 64 ssccn2-dom1 16 256 Dedicated 4 32 ssccn2-dom2 16 256 Dedicated 4 32 ssccn2-dom3 16 256 Dedicated 4 32 ssccn2-dom4 16 256 Dedicated 4 32 ssccn2-dom5 4 64 Root 4 64 +-------------------------+-------+--------+-----------+-------+--------+ 시스템 유지 관리 163

현재 도메인 구성 표시(ldm) unallocated or parked 28 448 - -- -- +-------------------------+-------+--------+-----------+-------+--------+ [Note] Following domains will be skipped in this session. Root Domains -----------ssccn2-dom5 CPU allocation preference: 1. Socket level 2. Core level In case of Socket level granularity, proportional memory capacity is automatically selected for you. Choose Socket or Core level [S or C] <CTL-C> 관련 정보 현재 도메인 구성 표시(ldm) [164] CPU/메모리 할당 변경(소켓 세분성) [166] CPU/메모리 할당 변경(코어 세분성) [170] 코어 및 메모리 보관 [173] 현재 도메인 구성 표시(ldm) 이 절차에서는 일련의 ldm 명령을 사용하여 컴퓨팅 노드 도메인 구성을 표시하는 방법을 설 명합니다. 참고 - 또는 osc-setcoremem 명령을 사용하여 유사한 정보를 가져올 수 있습니다. 현재 도메 인 구성 표시(osc-setcoremem) [163]를 참조하십시오. 1. 컴퓨팅 노드의 컨트롤 도메인에 root로 로그인합니다. 2. 어느 도메인이 루트 도메인인지 식별합니다. 루트 도메인은 STATUS 열에서 IOV로 식별됩니다. 이 예에서는 ssccn2-dom5가 루트 도메인입니다. 다른 도메인은 전용 도메인입니다. # ldm list-io grep BUS NAME pci_0 164 TYPE BUS Oracle SuperCluster T5-8 2014년 10월 BUS pci_0 DOMAIN STATUS primary

현재 도메인 구성 표시(ldm) pci_1 pci_2 pci_3 pci_4 pci_5 pci_6 pci_7 pci_8 pci_9 pci_10 pci_11 pci_12 pci_13 pci_14 pci_15 BUS BUS BUS BUS BUS BUS BUS BUS BUS BUS BUS BUS BUS BUS BUS 3. pci_1 pci_2 pci_3 pci_4 pci_5 pci_6 pci_7 pci_8 pci_9 pci_10 pci_11 pci_12 pci_13 pci_14 pci_15 primary primary primary ssccn2-dom1 ssccn2-dom1 ssccn2-dom2 ssccn2-dom2 ssccn2-dom3 ssccn2-dom3 ssccn2-dom4 ssccn2-dom4 ssccn2-dom5iov ssccn2-dom5iov ssccn2-dom5iov ssccn2-dom5iov 도메인 및 리소스 할당 정보를 봅니다. 이 예에서는 ssccn2-dom5가 루트 도메인입니다(2단계). 루트 도메인에 나열된 리소스는 루 트 도메인 자체에 대해 예약된 리소스만 나타냅니다. 유휴 리소스는 표시되지 않습니다. # ldm list NAME primary ssccn2-dom1 ssccn2-dom2 ssccn2-dom3 ssccn2-dom4 ssccn2-dom5 STATE active active active active active active FLAGS -n-cv-n----n----n----n----n--v- CONS UART 5001 5002 5003 5004 5005 VCPU 256 128 128 128 128 32 MEMORY 523008M 256G 256G 256G 256G 64G UTIL 0.1% 0.0% 0.0% 0.1% 0.0% 0.0% NORM 0.1% 0.0% 0.0% 0.1% 0.0% 0.0% UPTIME 19m 13m 13m 13m 14m 1d 10h 15m SuperCluster 모델에 따라 다음 사양 중 하나를 사용하여 소켓, 코어 및 VCPU 값을 변환합 니다. 4. SuperCluster T5-8의 경우 다음 사양을 사용합니다. 1개 소켓 = 16개 코어 1개 코어 = 8개 VCPU SuperCluster M6-32의 경우 다음 사양을 사용합니다. 1개 소켓 = 12개 코어 1개 코어 = 8개 VCPU 유휴 리소스의 양을 확인합니다. 이 예에서는 첫번째 명령줄이 논리적 CPU 저장소에 있는 코어 수를 보고합니다. 두번째 명 령줄은 논리적 메모리 저장소에 있는 메모리 양을 보고합니다. # ldm list-devices -p core grep cid wc -l 28 # ldm list-devices memory MEMORY PA SIZE 시스템 유지 관리 165

CPU/메모리 할당 변경(소켓 세분성) 0x300000000000 0x380000000000 224G 224G 관련 정보 현재 도메인 구성 표시(osc-setcoremem) [163] CPU/메모리 할당 변경(소켓 세분성) [166] CPU/메모리 할당 변경(코어 세분성) [170] 코어 및 메모리 보관 [173] CPU/메모리 할당 변경(소켓 세분성) 각 컴퓨팅 노드에서 이 절차를 수행하면 소켓 세분성 레벨에서 CPU 및 메모리 리소스 할당을 변경할 수 있습니다. 참고 - 이 절차를 수행할 수 있는지 확인하려면 지원되는 도메인 구성 [159]을 참조하십 시오. 이 도구는 다음과 같이 항목을 변경합니다. 루트 도메인을 자동으로 검색합니다. 모든 도메인의 최소 및 최대 리소스를 계산하고 사용자가 유효한 수량만 선택할 수 있게 해줍니다. 사용자가 선택한 항목에 따라 도메인 리소스를 수정합니다. CPU 리소스와 동일한 비율로 메모리 용량을 자동으로 지정합니다. (필요한 경우) 비기본 도메인을 중지합니다. (필요한 경우) 기본 도메인을 새로운 리소스로 재부트합니다. (필요한 경우) 새 리소스로 비기본 도메인을 가져옵니다. 이 절차의 예제에서는 6개 도메인이 포함된 SuperCluster T5-8 풀 랙 컴퓨팅 노드를 보여줍 니다. 이 절차의 개념은 다른 SuperCluster 모델에도 적용됩니다. 이 예제에서는 primary 도메인에서 1개 소켓과 256GB 메모리를 제거하여 ssccn2-dom2에 할당합니다. 이 표에서는 할당 계획을 보여줍니다(CPU 및 메모리 할당 계획 [160] 참조). 166 Oracle SuperCluster T5-8 2014년 10월

CPU/메모리 할당 변경(소켓 세분성) 도메인 도메인 유형 이전 소켓 소켓 이후 이전 메모리 (GB) 이후 메모리 (GB) primary 전용 2 1 512 256 ssccn2-dom1 전용 1 1 256 256 ssccn2-dom2 전용 1 2 256 512 ssccn2-dom3 전용 1 1 256 256 ssccn2-dom4 전용 1 1 256 256 ssccn2-dom5 루트 N/A N/A N/A N/A 할당되지 않음 28 28 448 448 총 할당된 리소스 34 34 1984 1984 1. 컴퓨팅 노드의 컨트롤 도메인에 수퍼 유저로 로그인합니다. 2. ldm bind 명령을 사용하여 비활성 도메인을 활성화합니다. 비활성 도메인이 존재할 경우 도구가 계속되지 않습니다. 3. osc-setcoremem을 실행하여 리소스를 재구성합니다. 프롬프트가 표시되면 응답합니다. 기본값을 선택하려면 Enter를 누릅니다. # /opt/oracle.supercluster/bin/osc-setcoremem osc-setcoremem v1.0 built on Oct 29 2014 10:21:05 Current Configuration: Full-Rack T5-8 SuperCluster +-------------------------+-------+--------+-----------+--- MINIMUM ----+ DOMAIN CORES MEM_GB TYPE CORES MEM_GB +-------------------------+-------+--------+-----------+-------+--------+ primary 32 512 Dedicated 9 64 ssccn2-dom1 16 256 Dedicated 4 32 ssccn2-dom2 16 256 Dedicated 4 32 ssccn2-dom3 16 256 Dedicated 4 32 ssccn2-dom4 16 256 Dedicated 4 32 ssccn2-dom5 4 64 Root 4 64 +-------------------------+-------+--------+-----------+-------+--------+ unallocated or parked 28 448 - -- -- +-------------------------+-------+--------+-----------+-------+--------+ [Note] Following domains will be skipped in this session. Root Domains 시스템 유지 관리 167

CPU/메모리 할당 변경(소켓 세분성) -----------ssccn2-dom5 CPU allocation preference: 1. Socket level 2. Core level In case of Socket level granularity, proportional memory capacity is automatically selected for you. Choose Socket or Core level [S or C] s Step 1 of 1: Socket count selection : desired socket count [min: 1, max: 2. default: 1] : 1 you chose [1] socket for primary domain primary ssccn2-dom1 : desired socket count [min: 1, max: 2. default: 1] : 1 you chose [1] socket for ssccn2-dom1 domain ssccn2-dom2 : desired socket count [min: 1, max: 2. default: 1] : 2 you chose [2] sockets for ssccn2-dom2 domain ssccn2-dom3 : desired socket count [min: 1, max: 1. default: 1] : 1 you chose [1] socket for ssccn2-dom3 domain ssccn2-dom4 : desired socket count [min: 1, max: 1. default: 1] : 1 you chose [1] socket for ssccn2-dom4 domain New Configuration in progress after Socket count selection: +-------------------------+----------+----------+-----------+ DOMAIN SOCKETS MEM_GB TYPE +-------------------------+----------+----------+-----------+ primary 1 256 Dedicated ssccn2-dom1 1 256 Dedicated ssccn2-dom2 2 512 Dedicated ssccn2-dom3 1 256 Dedicated ssccn2-dom4 1 256 Dedicated *ssccn2-dom5 0.250 64 Root +-------------------------+----------+----------+-----------+ unallocated or parked 1.750 448 - +-------------------------+----------+----------+-----------+ The following domains will be stopped and restarted: ssccn2-dom2 This configuration requires rebooting the control domain. Do you want to proceed? Y/N : y IMPORTANT NOTE: +----------------------------------------------------------------------------+ After the reboot, osc-setcoremem attempts to complete CPU, memory re-configuration 168 Oracle SuperCluster T5-8 2014년 10월

CPU/메모리 할당 변경(소켓 세분성) Please check syslog and the state of all domains before using the system. eg., dmesg grep osc-setcoremem ; ldm list grep -v active ; date +----------------------------------------------------------------------------+ All activity is being recorded in log file: /opt/oracle.supercluster/osc-setcoremem/log/osc-setcoremem_activity_10-29-2014_16:15:44.log Please wait while osc-setcoremem is setting up the new CPU, memory configuration. It may take a while. Please be patient and do not interrupt. 0% 10 20 30 40 50 60 70 80 90 100% ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- *=====*=====*=====*=====*=====*=====*=====*=====*=====*=====* Broadcast Message from root (pts/1) on etc27dbadm0201 Wed Oct 29 16:21:19... THE SYSTEM etc27dbadm0201 IS BEING SHUT DOWN NOW!!! Log off now or risk your files being damaged Task complete with no errors. 4. 시스템 로그 및 모든 논리적 도메인의 상태를 보고 일반 작업을 수행하기 전에 활성 상태인지 확인합니다. 예: # dmesg grep osc-setcoremem Oct 29 16:27:59 etc27dbadm0201 root[2870]: [ID 702911 user.alert] osc-setcoremem: core, memory re-configuration complete. system can be used for regular work. 5. 새로운 리소스 할당을 확인합니다. 리소스 할당을 확인하고 발생 가능한 osc-setcoremem 오류를 여러 가지 방법으로 확인할 수 있습니다. 6. 현재 도메인 구성 표시(osc-setcoremem) [163] 현재 도메인 구성 표시(ldm) [164] osc-setcoremem 로그 파일 액세스 [178] 다른 컴퓨팅 노드에서 리소스 할당을 변경해야 할 경우 이 절차를 반복합니다. 관련 정보 지원되는 도메인 구성 [159] CPU 및 메모리 할당 계획 [160] 현재 도메인 구성 표시(osc-setcoremem) [163] 현재 도메인 구성 표시(ldm) [164] osc-setcoremem 로그 파일 액세스 [178] 시스템 유지 관리 169

CPU/메모리 할당 변경(코어 세분성) CPU/메모리 할당 변경(코어 세분성) 각 컴퓨팅 노드에서 이 절차를 수행하면 코어 레벨에서 CPU 및 메모리 리소스 할당을 변경할 수 있습니다. 참고 - 이 절차를 수행할 수 있는지 확인하려면 지원되는 도메인 구성 [159]을 참조하십 시오. 이 도구는 다음과 같이 항목을 변경합니다. 루트 도메인을 자동으로 검색합니다. 모든 도메인의 최소 및 최대 리소스를 계산하고 사용자가 유효한 수량만 선택할 수 있게 해줍니다. 사용자의 코어 할당에 따라 선택할 수 있는 메모리 용량을 제공합니다. 사용자가 선택한 항목에 따라 도메인 리소스를 수정합니다. (필요한 경우) 비기본 도메인을 중지합니다. (필요한 경우) 기본 도메인을 새로운 리소스로 재부트합니다. (필요한 경우) 새 리소스로 비기본 도메인을 가져옵니다. 이 절차의 예제에서는 SuperCluster T5-8 컴퓨팅 노드를 보여줍니다. 이 절차의 개념은 다 른 SuperCluster 모델에도 적용됩니다. 이 표에서는 이 예제의 할당 계획을 보여줍니다(CPU 및 메모리 할당 계획 [160] 참조). 도메인 도메인 유형 이전 코어 수 코어 이후 1. 170 이전 메모리 (GB) 이후 메모리 (GB) primary 전용 16 16 256 256 ssccn2-dom1 전용 16 22 256 384 ssccn2-dom2 전용 32 32 512 512 ssccn2-dom3 전용 16 8 256 64 ssccn2-dom4 전용 16 18 256 320 ssccn2-dom5 루트 N/A N/A N/A N/A 할당되지 않음 28 28 448 448 총 할당된 리소스 124 124 1536 1536 컴퓨팅 노드의 컨트롤 도메인에 수퍼 유저로 로그인합니다. Oracle SuperCluster T5-8 2014년 10월

CPU/메모리 할당 변경(코어 세분성) 2. ldm bind 명령을 사용하여 비활성 도메인을 활성화합니다. 비활성 도메인이 존재할 경우 도구가 계속되지 않습니다. 3. osc-setcoremem을 실행하여 리소스를 재구성합니다. 프롬프트가 표시되면 응답합니다. 기본값을 선택하려면 Enter를 누릅니다. # /opt/oracle.supercluster/bin/osc-setcoremem osc-setcoremem v1.0 built on Oct 29 2014 10:21:05 Current Configuration: Full-Rack T5-8 SuperCluster +-------------------------+-------+--------+-----------+--- MINIMUM ----+ DOMAIN CORES MEM_GB TYPE CORES MEM_GB +-------------------------+-------+--------+-----------+-------+--------+ primary 16 256 Dedicated 9 64 ssccn2-dom1 16 256 Dedicated 4 32 ssccn2-dom2 32 512 Dedicated 4 32 ssccn2-dom3 16 256 Dedicated 4 32 ssccn2-dom4 16 256 Dedicated 4 32 ssccn2-dom5 4 64 Root 4 64 +-------------------------+-------+--------+-----------+-------+--------+ unallocated or parked 28 448 - -- -- +-------------------------+-------+--------+-----------+-------+--------+ [Note] Following domains will be skipped in this session. Root Domains -----------ssccn2-dom5 CPU allocation preference: 1. Socket level 2. Core level In case of Socket level granularity, proportional memory capacity is automatically selected for you. Choose Socket or Core level [S or C] C Step 1 of 2: Core count selection primary : desired number of cores [min: 9, max: 80. default: 16] : <Enter> you chose [16] cores for primary domain ssccn2-dom1 : desired number of cores [min: 4, max: 68. default: 16] : 22 you chose [22] cores for ssccn2-dom1 domain ssccn2-dom2 : desired number of cores [min: 4, max: 50. default: 32] : <Enter> you chose [32] cores for ssccn2-dom2 domain 시스템 유지 관리 171

CPU/메모리 할당 변경(코어 세분성) ssccn2-dom3 : desired number of cores [min: 4, max: 22. default: 16] : 8 you chose [8] cores for ssccn2-dom3 domain ssccn2-dom4 : desired number of cores [min: 4, max: 18. default: 16] : 18 you chose [18] cores for ssccn2-dom4 domain New Configuration in progress after Core count selection: +-------------------------+-------+--------+-----------+--- MINIMUM ----+ DOMAIN CORES MEM_GB TYPE CORES MEM_GB +-------------------------+-------+--------+-----------+-------+--------+ primary 16 256 Dedicated 9 64 ssccn2-dom1 22 256 Dedicated 4 96 ssccn2-dom2 32 512 Dedicated 4 128 ssccn2-dom3 8 256 Dedicated 4 32 ssccn2-dom4 18 256 Dedicated 4 80 *ssccn2-dom5 4 64 Root 4 64 +-------------------------+-------+--------+-----------+-------+--------+ unallocated or parked 28 448 - -- -- +-------------------------+-------+--------+-----------+-------+--------+ Step 2 of 2: Memory selection primary : desired memory capacity in GB (must be 16 GB aligned) [min: 64, max: 1200. default: 256] : <Enter> you chose [256 GB] memory for primary domain ssccn2-dom1 : desired memory capacity in GB (must be 16 GB aligned) [min: 96, max: 1040. default: 352] : 384 you chose [384 GB] memory for ssccn2-dom1 domain ssccn2-dom2 : desired memory capacity in GB (must be 16 GB aligned) [min: 128, max: 784. default: 512] : <Enter> you chose [512 GB] memory for ssccn2-dom2 domain ssccn2-dom3 : desired memory capacity in GB (must be 16 GB aligned) [min: 32, max: 304. default: 128] : 64 you chose [64 GB] memory for ssccn2-dom3 domain ssccn2-dom4 : desired memory capacity in GB (must be 16 GB aligned) [min: 80, max: 320. default: 288] : 320 you chose [320 GB] memory for ssccn2-dom4 domain New Configuration in progress after Memory selection: +-------------------------+-------+--------+-----------+--- MINIMUM ----+ DOMAIN CORES MEM_GB TYPE CORES MEM_GB +-------------------------+-------+--------+-----------+-------+--------+ primary 16 256 Dedicated 9 64 ssccn2-dom1 22 384 Dedicated 4 96 ssccn2-dom2 32 512 Dedicated 4 128 ssccn2-dom3 8 64 Dedicated 4 32 ssccn2-dom4 18 320 Dedicated 4 80 *ssccn2-dom5 4 64 Root 4 64 +-------------------------+-------+--------+-----------+-------+--------+ unallocated or parked 28 448 - -- -- +-------------------------+-------+--------+-----------+-------+--------+ The following domains will be stopped and restarted: 172 Oracle SuperCluster T5-8 2014년 10월

코어 및 메모리 보관 ssccn2-dom4 ssccn2-dom1 ssccn2-dom3 This configuration does not require rebooting the control domain. Do you want to proceed? Y/N : y All activity is being recorded in log file: /opt/oracle.supercluster/osc-setcoremem/log/osc-setcoremem_activity_10-29-2014_16:58:54.log Please wait while osc-setcoremem is setting up the new CPU, memory configuration. It may take a while. Please be patient and do not interrupt. 0% 10 20 30 40 50 60 70 80 90 100% ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- *=====*=====*=====*=====*=====*=====*=====*=====*=====*=====* Task complete with no errors. This concludes socket/core, memory reconfiguration. You can continue using the system. 4. 새로운 리소스 할당을 확인합니다. 리소스 할당을 확인하고 발생 가능한 osc-setcoremem 오류를 여러 가지 방법으로 확인할 수 있습니다. 5. 현재 도메인 구성 표시(osc-setcoremem) [163] 현재 도메인 구성 표시(ldm) [164] osc-setcoremem 로그 파일 액세스 [178] 다른 컴퓨팅 노드에서 리소스 할당을 변경해야 할 경우 이 절차를 반복합니다. 관련 정보 지원되는 도메인 구성 [159] CPU 및 메모리 할당 계획 [160] 현재 도메인 구성 표시(osc-setcoremem) [163] 현재 도메인 구성 표시(ldm) [164] osc-setcoremem 로그 파일 액세스 [178] 코어 및 메모리 보관 각 컴퓨팅 노드에서 이 절차를 수행하면 전용 도메인에서 논리적 CPU 및 메모리 저장소로 CPU 및 메모리 리소스를 이동하여 이러한 리소스를 I/O 도메인에서 사용할 수 있도록 설정 할 수 있습니다. 시스템 유지 관리 173

코어 및 메모리 보관 코어 및 메모리를 보관할 때는 주의해서 계획해야 합니다. 리소스를 보관하고 I/O 도메인을 만든 다음에는 리소스를 다시 전용 도메인으로 이동할 수 없습니다. 참고 - 이 절차를 수행할 수 있는지 확인하려면 지원되는 도메인 구성 [159]을 참조하십 시오. 이 절차의 예제에서는 SuperCluster T5-8 풀 랙을 보여줍니다. 이 절차의 개념은 다른 SuperCluster 모델에도 적용됩니다. 다음은 리소스가 보관(할당 취소)될 수 있도록 primary, ssccn2-dom2, ssccn2-dom4의 리소스 를 줄이는 계획에 대한 예입니다. 유휴 리소스는 나중에 I/O 도메인에서 사용할 수 있습니다. 이 표에서는 할당 계획을 보여줍니다(CPU 및 메모리 할당 계획 [160] 참조). 도메인 도메인 유형 이전 코어 수 코어 이후 이전 메모리 (GB) 메모리 primary 전용 32 16 512 256 ssccn2-dom1 전용 16 16 256 256 ssccn2-dom2 전용 16 8 256 64 ssccn2-dom3 전용 16 16 256 256 ssccn2-dom4 전용 16 4 256 64 ssccn2-dom5 루트 N/A N/A N/A N/A 할당되지 않은 리소스 28 64 448 1088 총 리소스 124 124 1984 1984 1. 컴퓨팅 노드의 컨트롤 도메인에 수퍼 유저로 로그인합니다. 2. ldm bind 명령을 사용하여 비활성 도메인을 활성화합니다. 비활성 도메인이 존재할 경우 도구가 계속되지 않습니다. 3. osc-setcoremem을 실행하여 리소스 할당을 변경합니다. 이 예제에서는 일부 리소스가 할당되지 않은 상태로 남고 보관됩니다. 프롬프트가 표시되면 응답합니다. 기본값을 선택하려면 Enter를 누릅니다. # /opt/oracle.supercluster/bin/osc-setcoremem osc-setcoremem 174 이후(GB) Oracle SuperCluster T5-8 2014년 10월

코어 및 메모리 보관 v1.0 built on Oct 29 2014 10:21:05 Current Configuration: Full-Rack T5-8 SuperCluster +-------------------------+-------+--------+-----------+--- MINIMUM ----+ DOMAIN CORES MEM_GB TYPE CORES MEM_GB +-------------------------+-------+--------+-----------+-------+--------+ primary 32 512 Dedicated 9 64 ssccn2-dom1 16 256 Dedicated 4 32 ssccn2-dom2 16 256 Dedicated 4 32 ssccn2-dom3 16 256 Dedicated 4 32 ssccn2-dom4 16 256 Dedicated 4 32 ssccn2-dom5 4 64 Root 4 64 +-------------------------+-------+--------+-----------+-------+--------+ unallocated or parked 28 448 - -- -- +-------------------------+-------+--------+-----------+-------+--------+ [Note] Following domains will be skipped in this session. Root Domains -----------ssccn2-dom5 CPU allocation preference: 1. Socket level 2. Core level In case of Socket level granularity, proportional memory capacity is automatically selected for you. Choose Socket or Core level [S or C] C Step 1 of 2: Core count selection primary : desired number of cores [min: 9, max: 80. default: 32] : 16 you chose [16] cores for primary domain ssccn2-dom1 : desired number of cores [min: 4, max: 68. default: 16] : <Enter> you chose [16] cores for ssccn2-dom1 domain ssccn2-dom2 : desired number of cores [min: 4, max: 56. default: 16] : 8 you chose [8] cores for ssccn2-dom2 domain ssccn2-dom3 : desired number of cores [min: 4, max: 52. default: 16] : <Enter> you chose [16] cores for ssccn2-dom3 domain ssccn2-dom4 : desired number of cores [min: 4, max: 40. default: 16] : 4 you chose [4] cores for ssccn2-dom4 domain New Configuration in progress after Core count selection: +-------------------------+-------+--------+-----------+--- MINIMUM ----+ DOMAIN CORES MEM_GB TYPE CORES MEM_GB +-------------------------+-------+--------+-----------+-------+--------+ 시스템 유지 관리 175

코어 및 메모리 보관 primary 16 512 Dedicated 9 64 ssccn2-dom1 16 256 Dedicated 4 64 ssccn2-dom2 8 256 Dedicated 4 32 ssccn2-dom3 16 256 Dedicated 4 64 ssccn2-dom4 4 256 Dedicated 4 32 *ssccn2-dom5 4 64 Root 4 64 +-------------------------+-------+--------+-----------+-------+--------+ unallocated or parked 64 448 - -- -- +-------------------------+-------+--------+-----------+-------+--------+ Step 2 of 2: Memory selection primary : desired memory capacity in GB (must be 16 GB aligned) [min: 64, max: 1344. default: 256] : <Enter> you chose [256 GB] memory for primary domain ssccn2-dom1 : desired memory capacity in GB (must be 16 GB aligned) [min: 64, max: 1152. default: 256] : <Enter> you chose [256 GB] memory for ssccn2-dom1 domain ssccn2-dom2 : desired memory capacity in GB (must be 16 GB aligned) [min: 32, max: 928. default: 128] : 64 you chose [64 GB] memory for ssccn2-dom2 domain ssccn2-dom3 : desired memory capacity in GB (must be 16 GB aligned) [min: 64, max: 928. default: 256] : <Enter> you chose [256 GB] memory for ssccn2-dom3 domain ssccn2-dom4 : desired memory capacity in GB (must be 16 GB aligned) [min: 32, max: 704. default: 64] : <Enter> you chose [64 GB] memory for ssccn2-dom4 domain New Configuration in progress after Memory selection: +-------------------------+-------+--------+-----------+--- MINIMUM ----+ DOMAIN CORES MEM_GB TYPE CORES MEM_GB +-------------------------+-------+--------+-----------+-------+--------+ primary 16 256 Dedicated 9 64 ssccn2-dom1 16 256 Dedicated 4 64 ssccn2-dom2 8 64 Dedicated 4 32 ssccn2-dom3 16 256 Dedicated 4 64 ssccn2-dom4 4 64 Dedicated 4 32 *ssccn2-dom5 4 64 Root 4 64 +-------------------------+-------+--------+-----------+-------+--------+ unallocated or parked 64 1088 - -- -- +-------------------------+-------+--------+-----------+-------+--------+ The following domains will be stopped and restarted: ssccn2-dom4 ssccn2-dom2 This configuration requires rebooting the control domain. Do you want to proceed? Y/N : Y IMPORTANT NOTE: +----------------------------------------------------------------------------+ After the reboot, osc-setcoremem attempts to complete CPU, memory re-configuration Please check syslog and the state of all domains before using the system. eg., dmesg grep osc-setcoremem ; ldm list grep -v active ; date 176 Oracle SuperCluster T5-8 2014년 10월

코어 및 메모리 보관 +----------------------------------------------------------------------------+ All activity is being recorded in log file: /opt/oracle.supercluster/osc-setcoremem/log/osc-setcoremem_activity_10-29-2014_17:29:41.log Please wait while osc-setcoremem is setting up the new CPU, memory configuration. It may take a while. Please be patient and do not interrupt. 0% 10 20 30 40 50 60 70 80 90 100% ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- *=====*=====*=====*=====*=====*=====*=====*=====*=====*=====* Broadcast Message from root (pts/1) on etc27dbadm0201 Wed Oct 29 17:31:48... THE SYSTEM etc27dbadm0201 IS BEING SHUT DOWN NOW!!! Log off now or risk your files being damaged Task complete with no errors. When the system is back online, check the log file to ensure that all re-configuration steps were successful. # tail -20 /opt/oracle.supercluster/osc-setcoremem/log/osc-setcoremem_activity_10-29-2014_17:29:41.log Task complete with no errors. ::Post-reboot activity:: Please wait while osc-setcoremem is setting up the new CPU, memory configuration. It may take a while. Please be patient and do not interrupt. Executing ldm commands.. 0% 10 20 30 40 50 60 70 80 90 100% ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- *=====*=====*=====*=====*=====*=====*=====*=====*=====*=====* Task complete with no errors. This concludes socket/core, memory reconfiguration. You can continue using the system. 4. 도구에서 재부트가 필요한 것으로 나타나면 시스템 재부트 후 컴퓨팅 노드의 컨트롤 도메인 에서 root로 로그인합니다. 5. 새로운 리소스 할당을 확인합니다. 리소스 할당을 확인하고 발생 가능한 osc-setcoremem 오류를 여러 가지 방법으로 확인할 수 있습니다. 6. 현재 도메인 구성 표시(osc-setcoremem) [163] 현재 도메인 구성 표시(ldm) [164] osc-setcoremem 로그 파일 액세스 [178] 유휴 코어를 확인합니다. 이 예제에서는 이러한 도메인에서 64개 코어가 보관됩니다. 시스템 유지 관리 177

osc-setcoremem 로그 파일 액세스 리소스 할당 전에는 28개 코어가 보관되어 있었습니다. 이러한 코어는 루트 도메인이 생성될 때 논리적 CPU 저장소에 배치됩니다. 36개 코어는 ssccn2-dom1, ssccn2-dom3 및 ssccn2-dom5에서 보관됩니다. # ldm list-devices -p core grep cid wc -l 64 7. 유휴 메모리를 확인합니다. 이 예제에서는 메모리가 보관됩니다. 루트 도메인에서 2 x 224 메모리 블록이 보관됩니다. 다른 메모리 블록은 전용 도메인에서 보관됩니다. 메모리를 모두 더하면 약 1088GB가 됩니다. # ldm list-devices memory MEMORY PA SIZE 0x30000000 15616M 0x2400000000 114176M 0x82000000000 128G 0x181000000000 192G 0x281000000000 192G 0x300000000000 224G 0x380000000000 224G 8. 다른 컴퓨팅 노드에서 리소스 할당을 변경해야 할 경우 이 절차를 반복합니다. 관련 정보 지원되는 도메인 구성 [159] CPU 및 메모리 할당 계획 [160] 현재 도메인 구성 표시(osc-setcoremem) [163] 현재 도메인 구성 표시(ldm) [164] osc-setcoremem 로그 파일 액세스 [178] osc-setcoremem 로그 파일 액세스 osc-setcoremem 명령은 각 세션에 대해 시간 기록이 표시된 로그 파일을 만듭니다. 178 1. 컴퓨팅 노드의 컨트롤 도메인에 수퍼 유저로 로그인합니다. 2. 디렉토리를 로그 파일 디렉토리로 변경하고 컨텐츠를 나열합니다. Oracle SuperCluster T5-8 2014년 10월

osc-setcoremem 로그 파일 액세스 # cd /opt/oracle.supercluster/osc-setcoremem/log # ls 3. 원하는 텍스트 판독기를 사용하여 로그 파일의 컨텐츠를 확인합니다. # more log_file_name 예: # cat /opt/oracle.supercluster/osc-setcoremem/log/osc-setcoremem_activity_10-29-2014_16\:58\:54.log #./osc-setcoremem osc-setcoremem v1.0 built on Oct 29 2014 10:21:05 Current Configuration: Full-Rack T5-8 SuperCluster +-------------------------+-------+--------+-----------+--- MINIMUM ----+ DOMAIN CORES MEM_GB TYPE CORES MEM_GB +-------------------------+-------+--------+-----------+-------+--------+ primary 16 256 Dedicated 9 64 ssccn2-dom1 16 256 Dedicated 4 32 ssccn2-dom2 32 512 Dedicated 4 32 ssccn2-dom3 16 256 Dedicated 4 32 ssccn2-dom4 16 256 Dedicated 4 32 ssccn2-dom5 4 64 Root 4 64 +-------------------------+-------+--------+-----------+-------+--------+ unallocated or parked 28 448 - -- -- +-------------------------+-------+--------+-----------+-------+--------+ [Note] Following domains will be skipped in this session. Root Domains -----------ssccn2-dom5 CPU allocation preference: 1. Socket level 2. Core level In case of Socket level granularity, proportional memory capacity is automatically selected for you. Choose Socket or Core level [S or C] user input: 'C' Step 1 of 2: Core count selection 시스템 유지 관리 179

osc-setcoremem 로그 파일 액세스 primary : desired number of cores [min: 9, max: 80. default: 16] : user input (desired cores): '' you chose [16] cores for primary domain ssccn2-dom1 : desired number of cores [min: 4, max: 68. default: 16] : user input (desired cores): '22' you chose [22] cores for ssccn2-dom1 domain ssccn2-dom2 : desired number of cores [min: 4, max: 50. default: 32] : user input (desired cores): '' you chose [32] cores for ssccn2-dom2 domain ssccn2-dom3 : desired number of cores [min: 4, max: 22. default: 16] : user input (desired cores): '8' you chose [8] cores for ssccn2-dom3 domain ssccn2-dom4 : desired number of cores [min: 4, max: 18. default: 16] : user input (desired cores): '18' you chose [18] cores for ssccn2-dom4 domain New Configuration in progress after Core count selection: +-------------------------+-------+--------+-----------+--- MINIMUM ----+ DOMAIN CORES MEM_GB TYPE CORES MEM_GB +-------------------------+-------+--------+-----------+-------+--------+ primary 16 256 Dedicated 9 64 ssccn2-dom1 22 256 Dedicated 4 96 ssccn2-dom2 32 512 Dedicated 4 128 ssccn2-dom3 8 256 Dedicated 4 32 ssccn2-dom4 18 256 Dedicated 4 80 *ssccn2-dom5 4 64 Root 4 64 +-------------------------+-------+--------+-----------+-------+--------+ unallocated or parked 28 448 - -- -- +-------------------------+-------+--------+-----------+-------+--------+ Step 2 of 2: Memory selection primary : desired memory capacity in GB (must be 16 GB aligned) [min: 64, max: 1200. default: 256] : user input (desired memory): '' GB you chose [256 GB] memory for primary domain ssccn2-dom1 : desired memory capacity in GB (must be 16 GB aligned) [min: 96, max: 1040. default: 352] : user input (desired memory): '384' GB you chose [384 GB] memory for ssccn2-dom1 domain ssccn2-dom2 : desired memory capacity in GB (must be 16 GB aligned) [min: 128, max: 784. default: 512] : user input (desired memory): '' GB you chose [512 GB] memory for ssccn2-dom2 domain ssccn2-dom3 : desired memory capacity in GB (must be 16 GB aligned) [min: 32, max: 304. default: 128] : user input (desired memory): '64' GB you chose [64 GB] memory for ssccn2-dom3 domain ssccn2-dom4 : desired memory capacity in GB (must be 16 GB aligned) [min: 80, max: 320. default: 288] : user input (desired memory): '320' GB you chose [320 GB] memory for ssccn2-dom4 domain New Configuration in progress after Memory selection: +-------------------------+-------+--------+-----------+--- MINIMUM ----+ DOMAIN CORES MEM_GB TYPE CORES MEM_GB +-------------------------+-------+--------+-----------+-------+--------+ primary 16 256 Dedicated 9 64 ssccn2-dom1 22 384 Dedicated 4 96 ssccn2-dom2 32 512 Dedicated 4 128 ssccn2-dom3 8 64 Dedicated 4 32 ssccn2-dom4 18 320 Dedicated 4 80 180 Oracle SuperCluster T5-8 2014년 10월

SP 구성 보기 *ssccn2-dom5 4 64 Root 4 64 +-------------------------+-------+--------+-----------+-------+--------+ unallocated or parked 28 448 - -- -- +-------------------------+-------+--------+-----------+-------+--------+ The following domains will be stopped and restarted: ssccn2-dom4 ssccn2-dom1 ssccn2-dom3 This configuration does not require rebooting the control domain. Do you want to proceed? Y/N : user input: 'y' Please wait while osc-setcoremem is setting up the new CPU, memory configuration. It may take a while. Please be patient and do not interrupt. Executing ldm commands.. 0% 10 20 30 40 50 60 70 80 90 100% ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- *=====*=====*=====*=====*=====*=====*=====*=====*=====*=====* Task complete with no errors. This concludes socket/core, memory reconfiguration. You can continue using the system. 관련 정보 SP 구성 보기 [181] 이전 CPU/메모리 구성으로 되돌리기 [183] CPU/메모리 구성 제거 [184] SP 구성 보기 osc-setcoremem 명령을 사용하여 리소스를 재할당할 때는 osc-setcoremem이 새 구성을 다 음 형식으로 SP(서비스 프로세서)에 저장합니다. CM_dom1_dom2_dom3_..._TimeStamp 설명: CM_ 초기 설치 이후에 생성된 코어/메모리 구성을 나타냅니다. domx - 다음과 같은 명명법에 따라 표시됩니다. xc 또는 xs 코어(C) 또는 소켓(S)의 숫자(x)로 표시되는 CPU 리소스 시스템 유지 관리 181

SP 구성 보기 xg 또는 xt 기가바이트(G) 또는 테라바이트(T) 수(x)로 표시되는 메모리 리소스 TimeStamp MMDDYYYYHHMM 형식 다음 파일 이름 예제... CM_2S1T_1S512G_3S1536G_082020141354...는 2014년 8월 20일, 13:54분에 생성된 구성을 나타내며, 다음 리소스가 포함된 3개의 도메인을 포함합니다. 2개 소켓, 1TB 메모리 1개 소켓, 512GB 메모리 3개 소켓, 1536GB 메모리 리소스 할당에 대해 자세히 알아보려면 SP 구성 시간 기록을 사용하여 해당 osc-setcoremem 로그 파일을 찾아서 볼 수 있습니다. 1. 컴퓨팅 노드의 컨트롤 도메인에 수퍼 유저로 로그인합니다. 2. SP 구성을 표시합니다. 예: 비사용자 정의 CPU/메모리 구성을 나타내는 출력: V_B4_4_1_20140804141204라는 파일은 시스템이 설치될 때 생성된 초기 리소스 구성 파 일입니다. # ldm list-config factory-default V_B4_4_1_20140804141204 after_install_backup [next poweron] 3개의 추가 CPU/메모리 구성을 나타내는 출력: # ldm list-config factory-default V_B4_4_1_20140804141204 after_install_backup CM_2S1T_1S512G_3S1536G_082020141354 CM_2S1T_1S512G_3S1536G_082120140256 CM_1S512G_1S512G_4S2T_082120141521 [next poweron] 3. 해당 로그 파일을 확인합니다. # more /opt/oracle.supercluster/osc-setcoremem/log/osc-setcoremem_activity_08-21-2014_15:21*.log 182 Oracle SuperCluster T5-8 2014년 10월

이전 CPU/메모리 구성으로 되돌리기 관련 정보 osc-setcoremem 로그 파일 액세스 [178] 이전 CPU/메모리 구성으로 되돌리기 [183] CPU/메모리 구성 제거 [184] 이전 CPU/메모리 구성으로 되돌리기 컴퓨팅 노드를 이전 CPU/메모리 구성으로 되돌리려면 이 절차를 사용하십시오. 클러스터의 각 멤버에서 이 절차를 수행해야 합니다. 변경 사항이 모든 클러스터 멤버에 자동으로 전파되 는 것이 아닙니다. 참고 - 이 절차를 수행할 수 있는지 확인하려면 지원되는 도메인 구성 [159]을 참조하십 시오. 1. 컴퓨팅 노드의 컨트롤 도메인에 수퍼 유저로 로그인합니다. 2. 이전 구성을 나열합니다. 참고 - 로그 파일에서 이전 구성을 볼 수도 있습니다. osc-setcoremem 로그 파일 액세 스 [178]를 참조하십시오. # ldm list-config factory-default V_B4_4_1_20140804141204 after_install_backup CM_2S1T_1S512G_3S1536G_082020141354 CM_2S1T_1S512G_3S1536G_082120140256 CM_1S512G_1S512G_4S2T_082120140321 [next poweron] SP 구성 파일에 대한 자세한 내용은 SP 구성 보기 [181]를 참조하십시오. 3. 이전 구성으로 되돌립니다. # ldm set-config CM_2S1T_1S512G_3S1536G_082020141354 4. 모든 도메인을 정지한 후 기본 도메인을 정지합니다. 5. 서비스 프로세서에서 시스템을 다시 시작합니다. 시스템 유지 관리 183

CPU/메모리 구성 제거 # #. -> cd /SP -> stop /SYS Are you sure you want to stop /SYS (y/n)? y Stopping /SYS -> start /SYS Are you sure you want to start /SYS (y/n)? y Starting /SYS 6. 모든 도메인과 영역을 부트합니다. 관련 정보 osc-setcoremem 로그 파일 액세스 [178] SP 구성 보기 [181] CPU/메모리 구성 제거 [184] CPU/메모리 구성 제거 컴퓨팅 노드의 서비스 프로세서에는 제한된 메모리 양이 포함됩니다. 서비스 프로세서에 메 모리가 부족하여 새 구성을 만들 수 없는 경우, 이 절차에 따라 사용되지 않는 구성을 삭제하 십시오. 1. 모든 현재 구성을 나열합니다. # ldm list-config factory-default V_B4_4_1_20140804141204 after_install_backup CM_2S1T_1S512G_3S1536G_082020141354 CM_2S1T_1S512G_3S1536G_082120140256 CM_1S512G_1S512G_4S2T_082120140321 [next poweron] 2. 제거해도 안전한 구성을 확인합니다. [current] 또는 [next poweron]으로 표시되지 않을 경우 CM_ 또는 _ML 문자열이 포함된 모 든 구성은 제거해도 안전합니다. 3. 구성을 제거합니다. 예: # ldm remove-spconfig CM_2S1T_1S512G_3S1536G_082020141354 184 Oracle SuperCluster T5-8 2014년 10월

CPU 및 메모리 할당 구성(레거시 setcoremem) 관련 정보 osc-setcoremem 로그 파일 액세스 [178] SP 구성 보기 [181] 이전 CPU/메모리 구성으로 되돌리기 [183] CPU 및 메모리 할당 구성(레거시 setcoremem) 다음 항목에서는 setcoremem 유틸리티를 사용하여 CPU 및 메모리 리소스를 구성하는 방법 을 설명합니다. CPU/메모리 도구 개요(setcoremem) [185] CPU/메모리 할당(setcoremem) [186] 사용자 정의 구성과 사전 정의된 할당 비교(setcoremem) [188] 풀 랙 구성에 대한 사용자 정의 CPU/메모리 할당(setcoremem) [189] CPU/메모리 할당 변경(setcoremem) [191] 사용자 정의 구성으로 리소스 변경 예(setcoremem) [194] 이전 CPU/메모리 구성으로 되돌아가기(setcoremem) [197] CPU/메모리 구성 제거(setcoremem) [198] CPU/메모리 도구 개요(setcoremem) SuperCluster v.1.x 소프트웨어 시스템에서는 이 레거시 setcoremem 유틸리티만 사용할 수 있습니다. SuperCluster v.2.x 소프트웨어가 포함된 시스템에서는 이 레거시 유틸리티 또는 새로운 osc-setcoremem 유틸리티를 사용할 수 있습니다( CPU 및 메모리 리소스 구성(oscsetcoremem) [157] 참조). 시스템에 SuperClsuter v.2.x 소프트웨어가 포함되었고 레거시 명령을 사용하도록 선택한 경우에는 해당 SuperCluster 플랫폼에 맞는 명령 이름을 사용합니다. SPARC SuperCluster T4-4 setcoremem-t4 Oracle SuperCluster T5-8 setcoremem-t5 Oracle SuperCluster M6-32 setcoremem-m6 SuperCluster 소프트웨어 버전을 식별하려면 SuperCluster 소프트웨어의 버전 식 별 [137]을 참조하십시오. 시스템의 컴퓨팅 노드 CPU 및 메모리 리소스는 처음에 설치 중 할당되고 구성에 따라 정의됩 니다. 도메인의 각 루트 컴플렉스 쌍에 하나의 소켓이 지정되고 동일 비율로 메모리가 지정됩 니다. 이 지정 전략은 NUMA 동작을 최소화하고 제공된 모든 구성에서 최상의 CPU 및 메모 리 지정 성능을 제공합니다. 시스템 유지 관리 185

CPU 및 메모리 할당 구성(레거시 setcoremem) 리소스 할당 방법을 변경하려면 CPU/메모리 도구(setcoremem)를 사용합니다. 이 도구를 사 용하면 소켓 레벨에서 대부분의 구성에 대한 CPU 및 메모리 지정을 변경할 수 있습니다(메 모리가 동일 비율로 지정됨). 또한 8코어 CPU 세분성과 128GB 메모리 세분성까지 세부 지 정 전략으로 시스템을 구성하고 CPU 및 메모리를 독립적으로 지정할 수 있습니다. 이 초기 할당은 로컬 그룹 유사성을 가능한 한 보존하여 NUMA 효과를 최소화하도록 디자인 되었기 때문에 최적의 성능을 제공합니다. 소켓 세분성에서 다른 사전 정의된 할당도 성능을 위해 가능한 한 NUMA 동작을 최소화합니다. 세분화되고 사용자 정의 가능한 전략을 통해서 는 NUMA 동작을 최소화하는 대신 최적의 유연성을 제공해서 일관된 성능을 위해 모든 로컬 그룹 간에 코어 및 메모리가 고르게 분포되도록 할 수 있습니다. 참고 - CPU/메모리 도구는 현재 도메인에 대한 할당만 수정할 수 있으며, 이 도구를 사용해서 도메인 수를 수정할 수는 없습니다. CPU/메모리 할당(setcoremem) 이 절에서는 Oracle SuperCluster T5-8에서 지원되는 CPU/메모리 구성에 대해 설명합니 다. 이 구성은 데이터베이스 도메인 또는 응용 프로그램 도메인이나 Oracle Solaris 11 및 Oracle Solaris 10 부트 환경에 관계없이 적용됩니다. 이 구성에는 다음과 같은 정책 규칙이 적용됩니다. 가장 큰 도메인이 항상 첫번째 도메인을 배치되고, 두번째로 큰 도메인이 마지막 도메인 으로 배치되며, 구성은 일반적으로 외부에서 내부로, 왼쪽에서 오른쪽으로 생성됩니다. 이 전략은 내부 디스크 및 네트워크 포트가 항상 가장 큰 도메인에 캡슐화되도록 보장합 니다. 도메인은 1, 2, 4 또는 8개의 루트 컴플렉스 쌍만 포함할 수 있습니다. 컨트롤 도메인은 항상 Oracle Solaris 11을 실행해야 합니다. 컴퓨팅 노드에 대해 최대 사용 가능한 코어 수 미만 및 최대 사용 가능한 메모리 미만을 할당 할 수 있습니다. 사용되지 않은 코어는 유휴 코어로 간주되며 라이센스 목적상 집계되지 않 습니다. 그러나 유휴 코어는 사용할 수 없으며 특히 낭비가 심합니다. 대부분의 상황에서 더 좋은 대안은 다른 도메인에 코어를 지정하는 것입니다. 표 12 186 하프 랙 CPU/메모리 할당 구성 레이아웃 이름 소켓 할당/메모리 설명 H1-1 H1_1_1 4 사전 설치된 기본값 H2-1 H2_1_1 2:2 사전 설치된 기본값 H2_1_2 1:3 Oracle SuperCluster T5-8 2014년 10월

CPU 및 메모리 할당 구성(레거시 setcoremem) 구성 H3-1 H4-1 레이아웃 이름 소켓 할당/메모리 설명 H2_1_3 3:1 H2_1_4 슬림:라지 4개 코어:n-4개 코어 H3_1_1 2:1:1 사전 설치된 기본값 H3_1_2 1:2:1 H3_1_3 1:1:2 H4_1_1 1:1:1:1 사전 설치된 기본값 표 13 풀 랙 CPU/메모리 할당 구성 레이아웃 이름 소켓 할당/메모리 설명 F1-1 F1_1_1 8 사전 설치된 기본값 F2-1 F2_1_1 4:4 사전 설치된 기본값 F2_1_2 2:6 F2_1_3 6:2 F2_1_4 1:7 F2_1_5 7:1 F3_1_1 4:2:2 F3_1_2 2:4:2 F3_1_3 2:2:4 F3_1_4 6:1:1 F3_1_5 5:2:1 F3_1_6 5:1:2 F4_1_1 2:2:2:2 F4_1_2 1:2:2:3 F4_1_3 3:1:2:2 F4_1_4 3:2:1:2 F4_1_5 3:2:2:1 F4_2_1 4:1:1:2 F3-1 F4-1 F4-2 사전 설치된 기본값 사전 설치된 기본값 사전 설치된 기본값 시스템 유지 관리 187

CPU 및 메모리 할당 구성(레거시 setcoremem) 구성 레이아웃 이름 소켓 할당/메모리 F4_2_2 3:1:1:3 F4_2_3 2:1:1:4 F4_2_4 5:1:1:1 F5_1_1 2:2:1:1:2 F5_1_2 1:2:1:2:2 F5_1_3 2:2:1:2:1 F5_1_4 2:1:2:1:2 F5_2_1 4:1:1:1:1 F5_2_2 3:1:1:1:2 F5_2_3 2:1:1:2:2 F5_2_4 2:1:1:1:3 F5_2_5 2:2:1:1:2 F6_1_1 2:1:1:1:1:2 F6_1_2 3:1:1:1:1:1 F6_1_3 1:1:1:1:1:3 F7-1 F7_1_1 2:1:1:1:1:1:1 사전 설치된 기본값 F8-1 F8_1_1 1:1:1:1:1:1:1:1 사전 설치된 기본값 F5-1 F5-2 F6-1 설명 사전 설치된 기본값 사전 설치된 기본값 사전 설치된 기본값 사용자 정의 구성과 사전 정의된 할당 비교(setcoremem) CPU/메모리 할당을 변경하는 도구(setcoremem)를 실행하면 현재 구성이 확인되고 리소스 할당을 위해 사전 정의된 구성 또는 사용자 정의 구성을 선택할 수 있는 옵션이 표시됩니다. 사전 정의된 할당은 성능을 위해 가능한 한 NUMA 동작을 최소화합니다. 사용자 정의 구성 을 통해서는 NUMA 동작을 최소화하는 대신 최적의 유연성을 제공해서 일관된 성능을 위해 모든 로컬 그룹 간에 코어 및 메모리가 고르게 분포되도록 할 수 있습니다. 사전 정의된 구성 옵션을 선택할 경우 현재 시스템 레이아웃을 기반으로 사용 가능한 모든 사 전 정의된 구성 옵션이 도구에 제공됩니다. 일부 레이아웃에는 구성 옵션이 하나뿐입니다. 이 경우에는 사전 정의된 구성 옵션이 도구에서 제공되지 않습니다. 레이아웃 정보는 CPU/메 모리 할당(setcoremem) [186]을 참조하십시오. 188 Oracle SuperCluster T5-8 2014년 10월

CPU 및 메모리 할당 구성(레거시 setcoremem) CPU/메모리 구성을 사용자 정의하도록 선택한 경우 이 도구를 통해 각 도메인에 대해 특정 CPU 코어 수 및 메모리 크기를 할당할 수 있습니다. 각 도메인에 대한 작업을 진행할 때 이 도구는 리소스 할당을 추적하고 사용자가 선택한 항목이 유효한지 확인합니다. 풀 랙 구성에 대한 사용자 정의 CPU/메모리 할당 (setcoremem) SuperCluster T5-8 풀 랙에서 사용자 정의 CPU/메모리 구성을 만들 때 이 도구 (setcoremem)는 스크립트 실행 중에 각 도메인에 대해 계산된 코어 및 메모리 옵션을 제공하 고, 모든 도메인을 진행하면서 옵션을 조정합니다. 이러한 옵션은 성능을 염두에 두고 도구에 서 선택되었으며, 균형적이지 않은 시스템이 생성되는 것을 방지합니다. 이 도구는 시스템에 있는 도메인 수에 관계없이 전체 시스템을 두 개의 절반으로 논리적으로 나눠서 코어 및 메모리 옵션을 생성합니다. 각 절반 부분에는 64개 코어 및 1TB 메모리를 사 용할 수 있고, 해당 절반 부분의 모든 도메인에 분배할 수 있습니다. 지정된 절반에서 남은 코 어 및 메모리는 불균형 시스템 생성 방지 방식에 따라 다른 절반 부분에 할당할 수 없습니다. 하나의 도메인은 최소한 다음과 같이 구성되어야 합니다. 도메인의 IB HCA 수가 2개 이하인 경우 4개 코어 및 64GB 메모리 도메인의 IB HCA 수가 2개를 초과할 경우 8개 코어 및 128GB 메모리 참고 - 최소 요구 사항이 만족된 다음에는 4개 코어 청크로 코어를 할당하거나 보관하고, 64GB 청크로 메모리를 할당할 수 있습니다. 예를 들어, 아래 설명된 F2-1 구성에는 시스템의 각 절반에 하나씩 2개의 도메인이 있고, 각 도메인은 64개 코어 및 1TB 메모리를 포함합니다. setcoremem은 이 예제에서 각 절반당 도 메인이 하나만 있기 때문에 코어 및 메모리를 재할당할 수 없으며, 시스템의 절반에 있는 코 어 및 메모리를 다른 절반에 지정할 수 없습니다. 하지만 이 구성에서는 필요에 따라 4개 단 위로 코어를 보관할 수 있습니다. Domain 1 = 64 cores and 1 TB memory Domain 2 = 64 cores and 1 TB memory F5-1 구성에서는 시스템의 절반에 2개 도메인이 있고 시스템의 다른 절반에는 3개 도메인이 있습니다. 각 절반에는 64개 코어와 1TB 메모리가 포함됩니다. 시스템의 각 절반에 여러 개 시스템 유지 관리 189

CPU 및 메모리 할당 구성(레거시 setcoremem) 의 도메인이 포함되기 때문에, setcoremem은 최소 도메인 요구 사항이 충족되는 한 해당 절 반 부분 내에서 각 도메인 사이에 코어 및 메모리를 재할당할 수 있습니다. 따라서 이러한 각 도메인에는 최소한 4개 코어와 64GB 메모리가 필요합니다. 그 결과 56개 코어 및 896GB 메모리를 보관하거나 도메인 1 또는 도메인 2에 할당할 수 있으며, 48개 코어 및 832GB를 보관하거나 도메인 3, 도메인 4 또는 도메인 5에 할당할 수 있습니다. 남은 코어는 4개 코어 청크로 할당할 수 있으며, 남은 메모리는 64GB 청크로 할당할 수 있습니다. Domain 1 + 2 = 64 cores and 1 TB memory Domain 3 + 4 + 5 = 64 cores and 1 TB memory 아래 그림은 모든 다중 도메인 풀 랙 구성을 보여주며, 여기서 각 도메인은 녹색 상자로 표시 되고, 시스템은 점선을 따라 절반으로 나뉩니다. 위의 규칙 및 예제에 따라 사용자의 구성을 계획하십시오. 190 Oracle SuperCluster T5-8 2014년 10월

CPU/메모리 할당 변경(setcoremem) CPU/메모리 할당 변경(setcoremem) 해당 CPU 및 메모리 리소스 할당을 변경하려면 컴퓨팅 노드에서 이 절차를 수행하십시오. 조정하려는 각 컴퓨팅 노드에서 이 작업을 수행합니다. 도구에서 다음 순서로 변경합니다. 도메인 리소스 수정 비기본 도메인 중지 기본 도메인을 새 리소스를 사용하여 재부트 새 리소스를 사용하여 비기본 도메인 가져오기 시스템 유지 관리 191

CPU/메모리 할당 변경(setcoremem) 이 절차에서는 현재 구성을 사전 정의된 구성으로 변경하는 방법에 대해 설명합니다. 이 절차 다음의 예에서는 사용자 정의 구성으로의 변경 방법에 대해 설명합니다. 1. 컴퓨팅 노드에서 컨트롤 도메인에 root로 로그인합니다. 2. ldm bind 명령을 사용하여 비활성 도메인을 활성화합니다. 비활성 도메인이 존재할 경우 도구가 계속되지 않습니다. 3. setcoremem -s 0을 실행하여 새 CPU 및 메모리 할당을 입력합니다. 참고 - 시스템에 SuperClsuter v.2.x 소프트웨어가 있고 setcoremem 유틸리티를 사용하도록 선택할 경우에는 해당 SuperCluster 플랫폼에 맞는 명령 이름을 사용합니다(setcorememt4, setcoremem-t5 또는 setcoremem-m6). CPU/메모리 도구 개요(setcoremem) [185]를 참조하십시오. setcoremem 실행은 3단계 프로세스입니다. setcoremem -s 0을 실행하면 시스템이 현재 CPU 및 메모리 할당을 다시 보고하고 이러한 할당을 변경할 수 있습니다. setcoremem -s 1을 실행하면 시스템에 초기 변경 사항이 적용되고, 기본 도메인을 제외한 모든 도메인이 중 지되며, 적합한 리소스가 기본 도메인에 할당됩니다. 마지막으로 setcoremem -s 2를 실행하 면 도메인이 다시 시작되고 새로운 리소스 할당을 사용하여 부트됩니다. 주의 - setcoremem -s 0 명령을 사용하여 변경 사항을 구현하려면 setcoremem -s 1 명령을 실행해야 합니다. 그렇지 않으면 시스템이 불안정 상태로 남습니다. # /opt/oracle.supercluster/bin/setcoremem -s 0 Info: A log of the activities is being recorded in /opt/oracle.supercluster/setcoremem/log/modlocality.log Info: Found an 8 Socket T5-8 system Info: The "current" or "next poweron" SP-Config is F3_1_2 Info: Found 3 Domains including primary DOMAIN ====== primary ssccn2-dom1 ssccn2-dom2 CORES ===== 32 64 32 Memory(GB) ========== 512 1023 512 Info: With this configuration adjustment tool, existing domains can be re-configured Info: with new CPU-core count and memory size. Info: This resource adjustment tool cannot be used to modify the number of domains Info: or alter the IO layout This system can be reconfigured to allow you maximum flexibility (1) or choose from a list of pre-defined configuration (2). Which action do you require?: 192 Oracle SuperCluster T5-8 2014년 10월

CPU/메모리 할당 변경(setcoremem) 1) Maximum Flexibility (minimum of 8-cores per domain) 2) Pre-defined Configuration Layout (minimum of 16-cores per domain) 0) Exit Please Select an Option: 2 Info: This compute node is currently configured with Layout [F3_1_2] The following Pre-defined layout options are available for this configuration. Please see the Oracle SuperCluster documentation for more details of these configuration layouts : [ primary] [ 64 C/1024 G] [ 32 C/ 512 G] [ 32 C/ 512 G] [ 96 C/1536 G] [ 80 C/1280 G] [ 80 C/1280 G] [ ssccn2-dom1] [ 32 C/ 512 G] [ 64 C/1024 G] [ 32 C/ 512 G] [ 16 C/ 256 G] [ 32 C/ 512 G] [ 16 C/ 256 G] [ ssccn2-dom2] [ 32 C/ 512 G] [ 32 C/ 512 G] [ 64 C/1024 G] [ 16 C/ 256 G] [ 16 C/ 256 G] [ 32 C/ 512 G] Options==> [(1) F3_1_1] [(2) F3_1_2] [(3) F3_1_3] [(4) F3_1_4] [(5) F3_1_5] [(6) F3_1_6] Please Select an Option [1, 2, 3, 4, 5, 6] (0 to Quit): 3 Do you wish to continue with these changes? (y,n default: n) y Please Execute /opt/oracle.supercluster/bin/setcoremem -s 1 and follow the instructions there NOTE: Execution of above command will cause all However, the only part of your license document info However, the only part of your license document info However, the only part of your license document info domains in this system that we need for SuperCluster is Appendix A, the third-party license that we need for SuperCluster is Appendix A, the third-party license that we need for SuperCluster is Appendix A, the third-party license 4. 모든 응용 프로그램, 영역 및 도메인(기본 도메인 제외)을 정상적으로 종료합니다. 5. setcoremem -s 1을 실행하여 기본 도메인의 구성을 변경합니다. 참고 - 시스템에 SuperClsuter v.2.x 소프트웨어가 있으면 해당 SuperCluster 플랫폼에 맞는 명령 이름을 사용합니다(setcoremem-t4, setcoremem-t5 또는 setcoremem-m6). CPU/메모 리 도구 개요(setcoremem) [185]를 참조하십시오. 참고 - 이 단계 중 활성 도메인(기본 도메인 제외)은 강제로 닫힙니다. # /opt/oracle.supercluster/bin/setcoremem -s 1 시스템 유지 관리 193

CPU/메모리 할당 변경(setcoremem) Info: A log of the activities is being recorded in /opt/oracle.supercluster/setcoremem/log/ modlocality.log Info: Found an 8 Socket T5-8 system Info: Executing step 1 - Please do not interrupt until this step is complete Info: Done with step 1 - system reboot is required Info: After reboot, Please run setcoremem -s 2 6. 시스템을 재부트합니다. 7. 컴퓨팅 노드에 다시 로그인하고 setcoremem -s 2를 실행하여 새로운 리소스 할당을 사용해 서 도메인을 재부트합니다. 참고 - 시스템에 SuperClsuter v.2.x 소프트웨어가 있으면 해당 SuperCluster 플랫폼에 맞는 명령 이름을 사용합니다(setcoremem-t4, setcoremem-t5 또는 setcoremem-m6). CPU/메모 리 도구 개요(setcoremem) [185]를 참조하십시오. # /opt/oracle.supercluster/bin/setcoremem -s 2 Info: A log of the activities is being recorded in /opt/oracle.supercluster/setcoremem/log/ modlocality.log Info: Found an 8 Socket T5-8 system Info: Executing step 2 - Please do not interrupt until this step is complete Info: Done with step 2 Info: CPU and Memory configuration successfully changed 사용자 정의 구성으로 리소스 변경 예(setcoremem) 예 1 CPU/메모리 리소스를 사용자 정의 구성으로 변경 이 예에서는 CPU/메모리 리소스를 사전 정의된 구성 중 하나가 아니라 사용자 정의 구성으로 변경하는 방법 을 보여줍니다. # /opt/oracle.supercluster/bin/setcoremem -s 0 Info: A log of the activities is being recorded in /opt/oracle.supercluster/setcoremem/log/modlocality.log Info: Found an 8 Socket T5-8 system 194 Oracle SuperCluster T5-8 2014년 10월

CPU/메모리 할당 변경(setcoremem) Info: The "current" or "next poweron" SP-Config is F3_1_6 Info: Found 3 Domains including primary DOMAIN ====== primary ssccn2-dom1 ssccn2-dom2 CORES ===== 80 16 32 Memory(GB) ========== 1280 256 512 Info: With this configuration adjustment tool, existing domains can be re-configured Info: with new CPU-core count and memory size. Info: This resource adjustment tool cannot be used to modify the number of domains Info: or alter the IO layout This system can be reconfigured to allow you maximum flexibility (1) or choose from a list of pre-defined configuration (2). Which action do you require?: 1) Maximum Flexibility (minimum of 8-cores per domain) 2) Pre-defined Configuration Layout (minimum of 16-cores per domain) 0) Exit Please Select an Option: 1 Info: With this configuration adjustment tool, existing domains can be re-configured Info: with new CPU-core count and memory size. Info: Info: Info: Info: The minimum in multiple The minimum in multiple number of Cores for a domain is 8. Adjustments are allowed of 8 cores. amount of Memory for a domain is 128 GB, Adjustments are allowed of 128 GB. Info: Info: Info: Info: Info: Info: Parking cores (for license purposes) ==================================== 'Parked' cores are cores that are not assigned to any domain and are therefore not counted for license purposes. Parked cores are unusable and essentially wasted. A better alternative in most situations is to avoid unwanted license charges by assigning cores to a different domain. Info: This resource adjustment tool cannot be used to modify the number of domains. Do you want to reconfigure cpu and memory for all 3 domains? (y,n default: n) y DOMAIN CORES-Cur/New Mem(GB)-Cur/New ====== ============= ================== primary 80/0 1280/0 ssccn2-dom1 16/0 256/0 ssccn2-dom2 32/0 512/0 Enter 0 as the value for Core or Memory if you wish to abort Valid Core Options are 0, 8, 16, 24, 32, 40, 48, 56, 64, 72, 80, 88, However, the only part of your license document that we need for SuperCluster is Appendix A, the third-party license info For [primary] Enter the number of Cores between 8-112: 8 Valid Memory Options are 0, 128, 256, 384, 512, 640, 768, 896, 1024, 시스템 유지 관리 195

CPU/메모리 할당 변경(setcoremem) However, the only part of your license document that we need for SuperCluster is Appendix A, the third-party license info For [primary] Enter Memory size in GB between 128-1792: 1792 DOMAIN CORES-Cur/New Mem(GB)-Cur/New ====== ============= ================== primary 80/8 1280/1792 ssccn2-dom1 16/0 256/0 ssccn2-dom2 32/0 512/0 Enter 0 as the value for Core or Memory if you wish to abort Valid Core Options are 0, 8, 16, 24, 32, 40, 48, 56, 64, 72, 80, 88, However, the only part of your license document that we need for SuperCluster is Appendix A, the third-party license infofor [ssccn2-dom1 ] Enter the number of Cores between 8-112: 112 DOMAIN CORES-Cur/New Mem(GB)-Cur/New ====== ============= ================== primary 80/8 1280/1792 ssccn2-dom1 16/112 256/128 ssccn2-dom2 32/0 512/0 Enter 0 as the value for Core or Memory if you wish to abort Valid Core Options are 0, 8 For [ssccn2-dom2] Enter the number of Cores between 8-8: 8 Valid Memory Options are 0, 128 For [ssccn2-dom2 ] Enter the number of Cores between 8-112: 112 DOMAIN CORES-Cur/New Mem(GB)-Cur/New ====== ============= ================== primary 80/8 1280/1792 ssccn2-dom1 16/112 256/128 ssccn2-dom2 32/2 512/128 [0 Cores] and [0 GB] of Memory will be parked Do you wish to continue with these changes? (y,n default: n) y Please Execute /opt/oracle.supercluster/bin/setcoremem -s 1 and follow the instructions there NOTE: Execution of above command will cause all domains in this system to be halted and will require a reboot of this domain. Please enusre that you have stopped all applications in all domains on this system, before proceeding with the above command # /opt/oracle.supercluster/bin/setcoremem -s 1 Info: A log of the activities is being recorded in /opt/oracle.supercluster/setcoremem/log/modlocality.log Info: Found an 8 Socket T5-8 system Info: Executing step 1 - Please do not interrupt until this step is complete Info: Done with step 1 - system reboot is required Info: After reboot, Please run setcoremem -s 2 # reboot # /opt/oracle.supercluster/bin/setcoremem -s 2 Info: A log of the activities is being recorded in /opt/oracle.supercluster/setcoremem/log/modlocality.log 196 Oracle SuperCluster T5-8 2014년 10월

이전 CPU/메모리 구성으로 되돌아가기(setcoremem) Info: Found an 8 Socket T5-8 system Info: Executing step 2 - Please do not interrupt until this step is complete Info: Done with step 2 Info: CPU and Memory configuration successfully changed 이전 CPU/메모리 구성으로 되돌아가기(setcoremem) 컴퓨팅 노드를 이전 CPU/메모리 구성으로 되돌리려면 이 절차를 사용하십시오. 클러스터의 각 멤버에 이 절차를 수행해야 합니다. 이 도구는 모든 클러스터 멤버에 변경 사항을 자동으 로 전달하지 않습니다. 1. 이전 구성을 나열합니다. 다음 위치의 로그 파일에서 이전 구성을 볼 수도 있습니다. /opt/oracle.supercluster/setcoremem/log $ ssh root@hostname-app1 Password: Last login: Mon Jul 11 1:53:50 2012 Oracle Corporation SunOS 5.11 11.0 # ldm ls-confg factory-default F5_2_1 F5_2_1_vdisks F5_2_1_vdisks_ML04302013074043 F5_2_1_vdisks_ML05162013132920 F5_2_1_vdisks_ML06052013143721 [current] May 2012 이 예제에서 F5_2_1은 처음에 설치된 구성입니다. 나머지 구성은 고객이 만든 것이며 이름 지 정 형식으로 식별할 수 있습니다. ML은 Modified Layout(수정된 레이아웃)의 약자이며 숫 자 문자열은 구성이 만들어진 로컬 날짜 및 시간(MMDDYYYYHHMISS)을 나타냅니다. 따 라서 F5_2_1_vdisks_ML10182012201150은 2012년 10월 18일 오후 8시 11분 50초에 만든 레이아웃을 고객이 수정한 것입니다. 2. 이전 구성으로 되돌립니다. # ldm set-config layout6 3. 모든 도메인을 정지한 후 기본 도메인을 정지합니다. 4. 서비스 프로세서에서 시스템을 다시 시작합니다. 시스템 유지 관리 197

CPU/메모리 구성 제거(setcoremem) # #. -> cd /SP -> stop /SYS Are you sure you want to stop /SYS (y/n)? y Stopping /SYS -> start /SYS Are you sure you want to start /SYS (y/n)? y Starting /SYS 5. 모든 도메인과 영역을 부트합니다. CPU/메모리 구성 제거(setcoremem) 컴퓨팅 노드의 시스템 컨트롤러에는 제한된 양의 메모리가 포함됩니다. 시스템 컨트롤러에 메모리가 부족하여 새 구성을 만들 수 없는 경우, 이 절차에 따라 사용되지 않는 구성을 삭제 하십시오. 1. 모든 현재 구성을 나열합니다. # ldm list-spconfg factory-default F8_1_1 F8_1_1-vdisk F8_1_1-vdisk_ML05292013222149 F8_1_1-vdisk_ML05292013222842 F8_1_1-vdisk_ML06122013144157 [current] 2. 제거해도 안전한 구성을 확인합니다. [current] 또는 [next poweron]으로 표시되지 않은 한 _ML 문자열이 포함된 모든 구성은 제 거해도 안전합니다. 3. 구성을 제거합니다. # ldm remove-spconfig <config_name> Capacity-on-Demand Capacity-on-Demand를 제공하는 시스템에서는 ssc_control 유틸리티를 사용하여 연산 서버의 많은 코어를 논리적으로 사용 또는 사용 안함으로 설정할 수 있습니다. 이 유틸리티 198 Oracle SuperCluster T5-8 2014년 10월

CPU/메모리 구성 제거(setcoremem) 를 사용하면 필요에 따라 시스템에서 연산 서버의 CPU 처리 능력을 늘리고 처리 능력이 필 요하지 않으면 줄일 수 있습니다. 예를 들어, 한 회사에서 대부분의 시간 중에는 각 Oracle SuperCluster T5-8 컴퓨팅 노드에서 32개 코어 중 24개(75%)를 실행하고, 분기 말에는 보 고서 및 질의 실행을 위해 다른 8개의 코어를 사용으로 설정할 수 있습니다. 분기 말 처리가 완료되면 다시 이 8개 코어를 사용 안함으로 설정할 수 있습니다. 스크립트를 실행한 후 서버 를 다시 시작할 필요는 없습니다. Capacity-on-Demand는 다음 스크립트를 사용해서 관리할 수 있습니다. ssc_control { -capacity_on_demand -cod } { display enable disable } 이 유틸리티는 각 Oracle SuperCluster T5-8 컴퓨팅 노드의 컨트롤 도메인에서 실행해야 합니다. 특정 노드를 컨트롤 도메인으로 설정하려면 사용자가 컨트롤 도메인에 있는 경우 "LDom 컨트롤"을 지정하는 virtinfo 셸 명령을 사용합니다. 예: $ /usr/sbin/virtinfo Domain role: LDoms control I/O service root 다음 표에서는 ssc_control 유틸리티에 사용되는 매개변수에 대해 설명합니다. 매개변수 설명 display 각 도메인에서 사용 중인 CPU와 예비 CPU 수를 표시합니다. enable 추가 요구 시 용량을 위해 예약된 예비 CPU를 사용으로 설정합니다. disable 예비 CPU를 사용 안함으로 설정합니다. 참고 - 고객이 도메인 내에서 Oracle Solaris CPU 리소스 컨트롤(pools 또는 psets) 또는 프 로세서 바인딩을 사용하는 경우 Capacity-on-Demand를 사용으로 설정한 후 기존 작업 부하에서 새로 대기된 코어를 사용할 수 있도록 하려면 이러한 컨트롤을 조정해야 할 수 있 습니다. 이 작업은 고객의 책임입니다. 마찬가지로, Capacity-on-Demand를 사용 안함으 로 설정하려면 먼저 리소스 풀 또는 psets에서 Capacity-on-Demand 코어를 제거해야 할 수 있습니다. 이 작업도 고객의 책임입니다. 기존 CPU 리소스 컨트롤로 인해 Capacity-onDemand가 사용 안함으로 설정되지 않으면 ssc_control 유틸리티에서 이에 대한 알림이 표 시되고 모든 예비 코어가 사용으로 설정된 상태로 유지됩니다. 이 경우 추가 Capacity-onDemand 작업 부담이 발생할 수 있습니다. Oracle Solaris CPU 리소스 컨트롤에 대한 참조 는 pooladm(1m), poolcfg(1m), psrset(1m) 및 pbind(1m) 매뉴얼 페이지를 참조하십시오. 시스템 유지 관리 199

200 Oracle SuperCluster T5-8 2014년 10월

시스템 모니터링 다음 항목은 Oracle SuperCluster T5-8에 대한 모니터링 옵션에 대해 설명합니다. 자동 서비스 요청을 사용하여 시스템 모니터 [201] OCM을 사용하여 시스템 모니터링 [219] 시스템 요구 사항 [224] 자동 서비스 요청을 사용하여 시스템 모니터 다음 항목은 Oracle ASR(자동 서비스 요청)을 사용하여 시스템을 모니터하는 방법에 대해 설명합니다. ASR 개요 [201] ASR 구성 준비 [202] ASR Manager 구성 요소 설치 [204] ASR Manager 확인 [206] Exadata Storage Server에 대한 SNMP 트랩 대상 구성 [207] ZFS Storage Appliance에 ASR 구성 [209] SPARC T5-8 서버에 ASR 구성(Oracle ILOM) [211] SPARC T5-8 서버에 ASR 구성(Oracle Solaris 11) [213] Oracle SuperCluster T5-8 자산에 대해 ASR 활성화 승인 및 확인 [217] ASR 개요 자동 서비스 요청(ASR)은 특정 Oracle SuperCluster T5-8 하드웨어 결함이 발생하는 경우 서비스 요청을 자동으로 열도록 설계되었습니다. 이 기능을 사용으로 설정하려면 시스템 구 성 요소가 ASR Manager 소프트웨어에 원격으로 측정한 하드웨어 결함을 전송하도록 구성 해야 합니다. ASR Manager는 시스템에 대한 연결 및 HTTPS 또는 HTTPS 프록시를 사용하 는 아웃바운드 인터넷 연결이 있는 서버에 설치해야 합니다. 하드웨어 문제가 감지되면 ASR Manager는 Oracle 지원 서비스에 서비스 요청을 제출합니 다. 여러 경우 Oracle 지원 서비스는 데이터베이스/시스템 관리자가 문제가 있는지 알아채기 도 전에 문제를 해결하기 위한 작업을 시작할 수 있습니다. 시스템 모니터링 201

자동 서비스 요청을 사용하여 시스템 모니터 ASR을 사용하기 전에 다음 사항을 설정하십시오. 시스템에 대한 Oracle Premier Support 또는 Oracle/Sun 제한적 보증 Oracle SuperCluster T5-8 기술 담당자 Oracle SuperCluster T5-8 부품에 대한 유효한 운송 주소 전자 메일 메시지가 자동 서비스 요청에 대한 MOS(My Oracle Support) 전자 메일 계정 및 활성화된 자산에 대한 기술 담당자에게 전송되어 이들에게 서버 요청 생성을 알립니다. 참고 - 가입자가 설정되지 않은 경우 후속 자동 서비스 요청 활성화가 실패합니다. ASR을 사용하는 경우 다음 정보를 고려하십시오. ASR은 구성 요소 결함에만 적용할 수 있습니다. 디스크, 팬 및 전원 공급 장치와 같은 가 장 일반적인 구성 요소는 처리되지만 모든 구성 요소 오류가 처리되는 것은 아닙니다. 자세한 내용은 다음을 참조하십시오. http://www.oracle.com/asr 이 페이지에서 Documentation 링크를 누른 다음 페이지 아래에서 ASR Fault Coverage Information 절을 참조하십시오. ASR이 고객 데이터 센터에서 SMTP 및 SNMP 경고와 같은 다른 모니터링 방식을 대체 하는 것은 아닙니다. 대체 하드웨어의 배송을 빠르게 하고 간소화하는 보조 방식입니다. 높은 우선 순위 시스템의 작동 중지 시간 이벤트에 ASR을 사용해서는 안됩니다. 높은 우선 순위 이벤트의 경우 Oracle 지원 서비스에 직접 문의하십시오. 서비스 요청이 자동으로 기록되지 않을 수도 있습니다. 이런 경우는 신뢰할 수 없는 성 질의 SNMP 프로토콜 또는 ASR Manager에 대한 연결 오류로 인해 발생할 수 있습니 다. 고객이 시스템에 결함이 없는지 계속 모니터링하여 서비스 요청이 자동으로 기록되 었다는 알림을 받지 못하는 경우 Oracle 지원 서비스에 문의하는 것이 좋습니다. 작은 정보 - ASR에 대한 자세한 내용은 Oracle 자동 서비스 요청 웹 페이지(http:// www.oracle.com/asr)를 참조하십시오. ASR 구성 준비 시스템에 ASR을 설치하고 구성하기 전에 사용자의 환경이 지원되고 준비되었는지 확인합니 다. 202 ASR 환경 준비 [203] 소프트웨어 요구 사항(ASR Manager) [203] 소프트웨어 요구 사항(Oracle SuperCluster T5-8) [203] Oracle SuperCluster T5-8 2014년 10월

ASR 환경 준비 ASR 환경 준비 시작하기 전에 1. ASR을 설치하기 전에 다음 조건이 충족되었는지 확인하십시오. http://support.oracle.com에서 MOS(My Oracle Support) 계정을 만듭니다. 다음 사항이 올바르게 설정되었는지 확인합니다. 2. 시스템에 대한 Oracle Premier Support 또는 Oracle/Sun 제한적 보증 Oracle SuperCluster T5-8 기술 담당자 Oracle SuperCluster T5-8 부품에 대한 유효한 운송 주소 ASR Manager로 사용할 시스템을 식별하고 보고합니다. 자세한 내용은 다음을 참조하십시오. http://www.oracle.com/asr additional details(추가 세부 정보)를 누른 다음 Hardware and Network Configuration Recommendations(하드웨어 및 네트워크 구성 권장 사항)를 누릅니다. 3. ASR 자산을 식별하고 확인합니다. 4. HTTPS를 사용하는 인터넷 연결을 확인합니다. 데이터 센터로 특정 포트를 열어야 할 수도 있습니다. 자세한 내용은 다음 위치에서 Oracle ASR Security Whitepaper를 참조하십시오. http://docs.oracle.com/cd/e37710_01/index.htm Oracle ASR user documentation 링크를 누릅니다. 5. 다음 문서에서 필요한 정보를 제공합니다. Oracle SuperCluster T5-8 현장 점검 목록 Oracle SuperCluster T5-8 구성 워크시트 소프트웨어 요구 사항(ASR Manager) 소프트웨어를 설치하여 ASR Manager를 설정하려면 루트 액세스가 필요합니다. ASR Manager, 버전 3.6 이상 Oracle Solaris 전용 Oracle STB(Services Tool Bundle) 소프트웨어 요구 사항(Oracle SuperCluster T5-8) 소프트웨어를 설치하여 ASR Manager를 설정하려면 루트 액세스가 필요합니다. 시스템 모니터링 203

OASM(Oracle Automated Service Manager) 패키지 설치 운영 체제: Oracle Linux 5.3 이상 또는 Oracle Solaris 10 Update 10(10u10) + 패치 이상 Java 버전: JRE/JDK 6.2.28 이상 데이터베이스 서버: Exadata 소프트웨어 11.2.3.1 이상 Exadata Storage Server: Exadata Storage Server 소프트웨어 11.2.0.3 DB 및 번들 패치 1 이상 ZFS 저장소 컨트롤러: 펌웨어 버전 AK2011.1.0 이상 ASR Manager 구성 요소 설치 ASR Manager로 지정된 외부 시스템에 ASR Manager 구성 요소를 설치하려면 다음 절 차를 수행하십시오. ASR 환경 준비 [203]에 나열된 요구 사항을 준수한다면 기존 ASR Manager를 사용할 수 있습니다. OASM(Oracle Automated Service Manager) 패키지 설치 [204] Oracle Solaris 전용 STB(Service Tools Bundle) 설치 [204] Oracle ASR(자동 서비스 요청) 패키지 설치 [205] ASR Manager 등록 [205] OASM(Oracle Automated Service Manager) 패키지 설치 1. 버전 1.3.1 이상이 있는지 확인합니다(필요한 경우 OASM 다운로드). 루트로: 2. Oracle Solaris: pkginfo -l SUNWsasm Oracle Linux: rpm -q SUNWsasm OASM 패키지를 설치합니다. 루트로: Oracle Solaris: pkgadd -d SUNWsasm.version-number.pkg Oracle Linux: rpm -i SUNWsasm.version-number.rpm Oracle Solaris 전용 STB(Service Tools Bundle) 설치 1. 필요한 경우 다음 위치에서 Services Tools Bundle을 다운로드합니다. http://www.oracle.com/asr Download(다운로드) 링크를 누릅니다. 204 Oracle SuperCluster T5-8 2014년 10월

Oracle ASR(자동 서비스 요청) 패키지 설치 2. STB 번들의 압축을 풀고 설치 스크립트(install_stb.sh)를 실행합니다. 설치의 일부로 다음 사항을 선택합니다. "install" 대신 I를 입력합니다 기존 SNEEP 패키지를 대체하려면 Y를 입력합니다 기존 서비스 태그 패키지를 대체하려면 Y를 입력합니다 참고 - Doc ID 1153444.1을 참조하여 My Oracle Support에서 최신 STB 번들을 다운로드 하십시오(로그인 필요). https://support.oracle.com 3. SNEEP가 제대로 설치되었는지 확인합니다. sneep -a 4. 서비스 태그가 시스템 속성을 제대로 보고하는지 확인합니다. stclient -E 일련 번호가 표시되지 않으면 일련 번호를 수동으로 등록합니다. sneep -s serial-number Oracle ASR(자동 서비스 요청) 패키지 설치 1. ASR 패키지를 다운로드하고 압축을 풉니다. 루트로: 2. Oracle Solaris: pkgadd -d SUNWswasr.version-number.pkg Oracle Linux: rpm -i SUNWswasr.version-number.rpm asr 명령을 PATH에 추가합니다. 필요한 경우 루트의.profile,.cshrc,.kshrc 또는.bashrc로 업데이트합니다. PATH=$PATH:/opt/SUNWswasr/bin export PATH ASR Manager 등록 시작하기 전에 1. ASR Manager를 등록할 때, 필요한 경우 정보 및 프록시 서버에 MOS 단일 사인 온을 입력 하라는 메시지가 표시됩니다. ASR Manager 시스템의 루트로 다음을 입력합니다. 시스템 모니터링 205

ASR Manager 확인 # asr register 2. "1" 또는 "alternate URL for Managed OPS use only"를 입력합니다. 1) transport.oracle.com 3. 인터넷에 액세스하기 위해 프록시 서버를 사용하는 경우 프록시 서버 정보를 입력합니다. 다음과 같이 화면이 출력됩니다. Proxy server name:? <proxy server name> Proxy port number:? <proxy port number> Proxy authentication; if authentication is not required, enter -. Proxy user: <proxy user name> Proxy password: <proxy password> If this is an NTLM type proxy, enter the information below. Otherwise, enter NTLM Domain: [?] <NTLM domain name> Enter the host the NTLM authentication request is originating from. Usually this is the hostname of the SASM server. NTLM Host: [?] <NTLM host name> NTLM support is not bundled with SASM but may be added now. 1) Download jcifs from http://jcifs.samba.org/ 2) Extract contents and locate the jcifs-*.jar file 3) Enter full path to this file below jcifs jar file: [?] <full path of jcifs jar file> Note: These properties are stored in the /var/opt/sunwsasm/configuration/config.ini file. You can update these properties if needed and then restart SASM. 4. 메시지가 표시되면 MOS(My Oracle Support) 사용자 이름 및 암호를 입력합니다. ASR에 서 로그인을 검증합니다. 검증되면 등록이 완료됩니다. 주: 암호는 저장되지 않습니다. MOS 전자 메일 주소는 ASR 문제 및 서비스 요청(Service Request, SR) 생성 알림으로부터 출력 결과를 수신합니다. ASR Manager 확인 1. ASR Manager에서 올바른 버전의 ASR Manager가 있는지 확인합니다. # asr show_rules_version 버전이 3.6 이상인지 확인해야 합니다. 2. 등록 상태를 확인합니다. # asr show_reg_status 206 Oracle SuperCluster T5-8 2014년 10월

Exadata Storage Server에 대한 SNMP 트랩 대상 구성 3. 연결을 테스트하여 ASR에서 전송 서버에 정보를 보낼 수 있는지 확인합니다. # asr test_connection Exadata Storage Server에 대한 SNMP 트랩 대상 구성 참고 - 이 절에서 여러 라인에 걸쳐 있는 명령을 복사하고 붙여넣으려고 하지 마십시오. 명령 을 제대로 입력하려면 여러 라인에 걸쳐 있는 명령은 수동으로 입력합니다. 각 Exadata Storage Server에서 다음 단계를 완료하십시오. 1. Exadata Storage Server에 celladmin으로 로그인합니다. 2. Exadata Storage Server에서 SNMP 트랩 대상을 추가합니다. # cellcli -e alter cell snmpsubscriber=(host ='ASR-Manager-name-or-IPaddress',port=162,community=public,type=asr) ASR-Manager-name-or-IP-address 항목을 작은 따옴표로 묶어야 합니다. 다음은 위의 명 령에 대한 요소 정의입니다. 3. host='asr-manager-name-or-ip-address' ASR Manager 호스트 이름은 현장에 DNS가 사용으로 설정된 경우 사용할 수 있습니다. DNS가 실행 중이 아닌 경우 IP 주소 가 선호되지만, /etc/hosts 파일에 항목이 추가된 경우 ASR Manager 호스트 이름을 사용할 수 있습니다. type=asr ASR Manager가 특수 유형의 SNMP 가입자가 되도록 표시합니다. community=public 커뮤니티 문자열의 필수 값입니다. 이 값은 고객 네트워크 요구 사항에 따라 다른 문자열로 수정할 수 있습니다. port=162 SNMP 포트입니다. 이 포트 값은 고객에 종속됩니다. 이 값은 네트워크 요 구 사항에 따라 다른 포트로 구성하거나, 또는 관리 환경에서 ASR가 올바르게 작동하려 면 값을 변경해야 할 수도 있습니다. Oracle ILOM 자동 활성화가 발생했는지(네트워크와 Oracle ILOM이 올바르게 설정되었는 지) 검증합니다. # asr list_asset 다음은 예제 출력입니다. IP_ADDRESS ---------10.60.40.105 10.60.40.106 10.60.40.107 10.60.40.117 HOST_NAME --------ssc1cel01 ssc1cel02 ssc1cel03 ssc1cel01-ilom SERIAL_NUMBER ------------1234FMM0CA 1235FMM0CA 1236FMM0CA 1234FMM0CA ASR --Enabled Enabled Enabled Enabled PROTOCOL -------SNMP SNMP SNMP SNMP,HTTP SOURCE ----ILOM ILOM ILOM EXADATA-SW 시스템 모니터링 207

Exadata Storage Server에 대한 SNMP 트랩 대상 구성 10.60.40.118 10.60.40.119 ssc1cel02-ilom 1235FMM0CA ssc1cel03-ilom 1236FMM0CA 4. Enabled Enabled SNMP,HTTP EXADATA-SW SNMP,HTTP EXADATA-SW Exadata Storage Server용 Oracle ILOM이 모두 목록에 있으면 5단계로 이동합니다. Oracle ILOM이 목록에 없으면 4단계로 이동합니다. ASR Manager에서 Exadata Storage Server의 Oracle ILOM을 활성화합니다. # asr activate_asset -i ILOM-IP-address 또는 # asr activate_asset -h ILOM-hostname 참고 - 마지막 단계가 실패하는 경우 Oracle ILOM의 포트 6481이 열려 있는지 확인합니다. 포트 6481이 열려 있는데도 여전히 이 단계가 실패하면 ASR 지원에 문의하십시오. 5. ASR 지원의 Exadata OS 측을 활성화합니다. # asr activate_exadata -i host-management-ip-address -h host-management-hostname -l ILOM-IP-address 또는 # asr activate_exadata -i host-management-ip-address -h host-management-hostname -n ILOM-hostname 6. ASR Manager에서 모든 Exadata Storage Server가 보이는지 검증합니다. # asr list_asset 다음 출력 예에 표시된 것처럼 목록에 참조된 Oracle ILOM 및 호스트가 동일한 일련 번호와 함께 표시되어야 합니다. IP_ADDRESS ---------10.60.40.105 10.60.40.106 10.60.40.107 10.60.40.117 10.60.40.118 10.60.40.119 HOST_NAME --------ssc1cel01 ssc1cel02 ssc1cel03 ssc1cel01-ilom ssc1cel02-ilom ssc1cel03-ilom 7. SERIAL_NUMBER ------------1234FMM0CA 1235FMM0CA 1236FMM0CA 1234FMM0CA 1235FMM0CA 1236FMM0CA ASR --Enabled Enabled Enabled Enabled Enabled Enabled PROTOCOL -------SNMP SNMP SNMP SNMP,HTTP SNMP,HTTP SNMP,HTTP SOURCE ----ILOM ILOM ILOM EXADATA-SW EXADATA-SW EXADATA-SW Exadata Storage Server에서 구성을 검증합니다. # cellcli -e list cell attributes snmpsubscriber 8. Exadata Storage Server에서 SNMP 구성을 검증합니다. # cellcli -e alter cell validate snmp type=asr 208 Oracle SuperCluster T5-8 2014년 10월

ZFS Storage Appliance에 ASR 구성 MOS 담당자가 확인용 전자 메일을 받습니다. 9. Oracle SuperCluster T5-8의 모든 Exadata Storage Server에 대해 이러한 지침을 반복합 니다. 10. Oracle SuperCluster T5-8의 모든 Exadata Storage Server에 대해 이러한 지침을 완료했 으면 MOS에서 Exadata Storage Server에 대한 접점을 승인하고 확인합니다. 해당 지침은 Oracle SuperCluster T5-8 자산에 대해 ASR 활성화 승인 및 확인 [217]을 참조하십시오. 프로세스에 대한 자세한 내용은 ASR MOS 5.3+ 활성화 프로세스(Doc ID 1329200.1)를 참조하십시오. ZFS Storage Appliance에 ASR 구성 시스템에 포함된 ZFS Storage Appliance를 활성화하려면 각 ZFS 저장소 컨트롤러에서 다 음 단계를 수행합니다. 1. 웹 브라우저에서 다음과 같이 ZFS 저장소 컨트롤러의 호스트 관리 포트에 지정한 IP 주소 또 는 호스트 이름을 입력합니다. https://storage-controller-ipaddress:215 또는 https://storage-controller-hostname:215 로그인 화면이 나타납니다. 2. Username(사용자 이름) 필드에 root를 입력하고 이 로그인 화면에 root 암호를 입력한 다 음 Enter 키를 누릅니다. 3. Configuration(구성) 탭을 누르고 SERVICES(서비스)를 누른 다음 왼쪽 탐색 창에서 Services(서비스)를 눌러 서비스 목록을 표시합니다. 4. 다음 그림에 표시된 것처럼 화면을 아래로 스크롤하여 Phone Home(집 전화)을 누릅니다. 시스템 모니터링 209

ZFS Storage Appliance에 ASR 구성 Phone Home(집 전화)을 누르면 다음 그림에 표시된 것처럼 Phone Home(집 전화) 페이 지가 표시됩니다. 210 Oracle SuperCluster T5-8 2014년 10월

SPARC T5-8 서버에 ASR 구성(Oracle ILOM) 5. 저장소 어플라이언스에서 인터넷 연결에 웹 프록시를 사용하는 경우 Use web proxy(웹 프 록시 사용) 옵션을 선택하고 다음 정보를 입력합니다. Host:port(호스트:포트) 필드에서 웹 프록시 서버의 호스트 이름 및 포트를 입력하고 완 료합니다. Username(사용자 이름) 필드에 웹 프록시 서버에 액세스하기 위한 사용자 이름을 입 력합니다. Password(암호) 필드에 암호를 입력합니다. 6. 등록 섹션에서 연필 아이콘을 누릅니다. Privacy Statement(개인 정보 보호 정책)이 표시됩니다. OK(확인)를 누르고 My Oracle Support 및 암호 섹션을 채운 다음 OK(확인)를 누릅니다. 7. 계정이 확인되면 Sun Inventory and Enable Phone Home(Sun Inventory 및 집 전화 사 용) 옵션을 선택합니다. 8. 정보를 입력한 다음 APPLY(적용)를 누릅니다. 9. Service Enable / Disable(서비스 사용/사용 안함) 팝업이 나타나면 Enable(사용) 옵션을 선 택합니다. 10. 시스템의 모든 ZFS Storage Appliance에 대해 이러한 지침을 반복합니다. 11. 시스템의 모든 ZFS Storage Appliance에 대해 이러한 지침을 완료하면 MOS에서 ZFS Storage Appliance에 대한 접점을 승인하고 확인합니다. 해당 지침은 Oracle SuperCluster T5-8 자산에 대해 ASR 활성화 승인 및 확인 [217]을 참조하십시오. 프로세스에 대한 자세한 내용은 ASR MOS 5.3+ 활성화 프로세스(Doc ID 1329200.1)를 참조하십시오. SPARC T5-8 서버에 ASR 구성(Oracle ILOM) 참고 - 이 절에서 여러 라인에 걸쳐 있는 명령을 복사하고 붙여넣으려고 하지 마십시오. 명령 을 제대로 입력하려면 여러 라인에 걸쳐 있는 명령은 수동으로 입력합니다. SPARC T5-8 서버에 Oracle ILOM을 구성하려면 각 SPARC T5-8 서버에서 다음 단계를 수 행하십시오. 1. SPARC T5-8 서버 Oracle ILOM에 로그인합니다. 시스템 모니터링 211

SPARC T5-8 서버에 ASR 구성(Oracle ILOM) 2. 사용 가능한 규칙이 표시됩니다. # show /SP/alertmgmt/rules 다음과 유사한 사용 가능한 규칙이 나열됩니다. 1 2 3... 15 3. 규칙이 현재 사용 중인지 확인하려면 해당 규칙 중 하나를 선택하고 다음 명령을 입력합니다. # show /SP/alertmgmt/rules/rule-number 예를 들면 다음과 같습니다. # show /SP/alertmgmt/rules/1 다음과 유사한 출력이 표시되는 경우 Properties: type = snmptrap level = minor destination = 10.60.10.243 destination_port = 0 community_or_username = public snmp_version = 2c testrule = (Cannot show property) 이 규칙은 현재 사용 중이므로 이 연습 문제에 사용되지 않습니다. 표시된 대상 주소는 이 경우 ASR Manager의 IP 주소입니다. 위의 예와 유사한 출력이 표시되는 경우 다른 규칙을 선택하고 show /SP/alertmgmt/rules/rule-number 명령을 다시 입력합니다. 이 번에는 목록에서 다른 규칙을 사용합니다. 다음과 유사한 출력이 표시되는 경우 Properties: type = snmptrap level = disable destination = 0.0.0.0 destination_port = 0 community_or_username = public snmp_version = 1 212 Oracle SuperCluster T5-8 2014년 10월

SPARC T5-8 서버에 ASR 구성(Oracle ILOM) testrule = (Cannot show property) 이 규칙은 현재 사용되지 않으므로 이 예에 사용될 수 있습니다. 4. 사용되지 않는 규칙을 사용하여 다음 명령을 입력합니다. # set /SP/alertmgmt/rules/unused-rule-number type=snmptrap level=minor destination=ipaddress-of-asr-manager snmp_version=2c community_or_username=public 5. ASR Manager 서버에 로그인합니다. 6. SPARC T5-8 서버에 대한 Oracle ILOM을 활성화합니다. asr> activate_asset -i ILOM-IP-address 7. Oracle SuperCluster T5-8의 모든 SPARC T5-8 서버에 대한 Oracle ILOM에서 이러한 지 침을 반복합니다. 8. Oracle SuperCluster T5-8의 모든 SPARC T5-8 서버에 대해 이러한 지침을 완료했으면 MOS에서 SPARC T5-8 서버에 대한 접점을 승인하고 확인합니다. 해당 지침은 Oracle SuperCluster T5-8 자산에 대해 ASR 활성화 승인 및 확인 [217]을 참조하십시오. 프로세스에 대한 자세한 내용은 ASR MOS 5.3+ 활성화 프로세스(Doc ID 1329200.1)를 참조하십시오. SPARC T5-8 서버에 ASR 구성(Oracle Solaris 11) 참고 - 이 절에서 여러 라인에 걸쳐 있는 명령을 복사하고 붙여넣으려고 하지 마십시오. 명령 을 제대로 입력하려면 여러 라인에 걸쳐 있는 명령은 수동으로 입력합니다. Oracle Solaris 11에는 ASR Manager에 대한 HTTP를 통해 xml을 사용하여 ASR 결함 이벤 트 및 원격 측정을 Oracle에 보내는 기능이 포함되어 있습니다. 이 기능을 사용으로 설정하려면 ASR Manager에서 asr enable_http_receiver 명령을 사 용합니다. 네트워크 환경에 적합하고 다른 네트워크 환경 서비스와 충돌하지 않는 HTTP 수 신기용 포트를 선택합니다. 다음 작업을 수행하십시오. ASR Manager에서 HTTP 수신기 사용 [214] ASR Manager에서 HTTPS 사용(선택 사항) [214] ASR Manager에서 Oracle Solaris 11 또는 데이터베이스 도메인에 SPARC T5-8 서버 등록 [215] 시스템 모니터링 213

ASR Manager에서 HTTP 수신기 사용 ASR Manager에서 HTTP 수신기 사용 Oracle Solaris 11 ASR 자산에 대해 HTTP 수신기를 사용으로 설정하려면 ASR Manager에 서 이 절차를 수행하십시오. 1. root로 ASR Manager 시스템에 로그인합니다. 2. 기존 설정을 확인합니다. # asr show_http_receiver 3. HTTP 수신기를 사용으로 설정합니다. # asr enable_http_receiver -p port-number 여기서 port-number는 HTTP 트래픽에 지정하는 포트입니다. 참고 - HTTP 수신기를 사용 안함으로 설정해야 하는 경우 asr disable_http_receiver를 실 행합니다. 4. 업데이트된 구성을 확인합니다. # asr show_http_receiver 5. HTTP 수신기가 작동되어 실행 중인지 확인합니다. 브라우저에서 http://asr-manager-name:port-number/asr로 이동합니다. HTTP 수신기가 작동되어 실행 중인지 나타내는 메시지가 표시됩니다. ASR Manager에서 HTTPS 사용(선택 사항) 보안 목적을 위해 HTTPS를 사용해야 하는 경우 ASR Manager HTTP 수신기에 대해 HTTPS/SSL을 설정할 수 있습니다. Jetty에 대해 HTTPs/SSL을 사용으로 설정하는 세부 단계 는 다음 사이트에 설명되어 있습니다. http://docs.codehaus.org/display/jetty/how+to+configure+ssl 1. 신뢰할만한 기관의 SSL 인증서가 키 저장소에 로드되면 /var/opt/sunwsasm/ configuration/jetty/jetty.xml의 <Call name="addconnector"> 섹션 아래에 다음 SSL 커 넥터를 추가합니다. <Call name= addconnector > <Arg> <New class= org.mortbay.jetty.security.sslsocketconnector > 214 Oracle SuperCluster T5-8 2014년 10월

ASR Manager에서 Oracle Solaris 11 또는 데이터베이스 도메인에 SPARC T5-8 서버 등록 <Set <Set <Set <Set <Set <Set <Set </New> </Arg> </Call> name= Port >443</Set> name= maxidletime >30000</Set> name= keystore >path-to-keystore</set> name= password >password</set> name= keypassword key-password</set> name= truststore >path-to-keystore</set> name= trustpassword trust-password</set> 위의 암호가 다음과 같이 일반 텍스트이거나 애매할 수 있습니다. java -classpath lib/jetty-6.1.7.jar:lib/jetty-util-6.1.7.jar org.mortbay.jetty.security.password plaintext-password 그런 다음 OBF:(OBF: 부분 포함)로 시작하는 출력 라인을 이 jetty.xml 구성 파일로 복사하 여 붙여넣습니다. 2. OASM을 다시 시작합니다. Oracle Solaris를 실행 중인 시스템에서 다음을 입력합니다. # svcadm restart sasm Oracle Linux를 실행 중인 시스템에서 다음을 입력합니다. # /opt/sunwsasm/bin/sasm stop-instance # /opt/sunwsasm/bin/sasm start-instance 3. 브라우저에서 다음 URL에 액세스하여 SSL 설정을 확인합니다. https://asr-manager-name/asr ASR Manager에서 Oracle Solaris 11 또는 데이터베이스 도메인에 SPARC T5-8 서버 등록 ASR Manager에서 Oracle Solaris 11 또는 데이터베이스 도메인에 SPARC T5-8 서버를 등 록하려면 이 절차를 따르십시오. 1. SPARC T5-8 서버에 root로 로그인합니다. 2. asr-notify 서비스가 작동 중인지 확인합니다. # svcs asr-notify 다음 메시지가 표시되는 경우: svcs: Pattern asr-notify' doesn't match any instances 그런 다음 asr-notify 서비스가 설치되었는지 확인합니다. 시스템 모니터링 215

ASR Manager에서 Oracle Solaris 11 또는 데이터베이스 도메인에 SPARC T5-8 서버 등록 # pkg list asr-notify 다음 메시지가 표시되는 경우: pkg list: no packages matching asr-modify' installed 그런 다음 asr-notify 서비스를 설치합니다. # pkg install system/fault-management/asr-notify svcs asr-notify 명령을 다시 입력하여 asr-notify 서비스가 작동 중인지 확인합니다. 다음 메시지가 표시되는 경우: # svcs asr-notify STATE online STIME 16:06:05 FMRI svc:/system/fm/asr-notify:default 그런 다음 asr-notify 서비스가 설치되었고 제대로 작동 중입니다. 3. ASR Manager에 등록하려면 다음을 실행합니다. # asradm register -e http://asr-manager-host:port-number/asr 예를 들면 다음과 같습니다. # asradm register -e http://asrmanager1.mycompany.com:8777/asr Oracle Support 계정 이름과 암호를 묻는 화면이 표시되어야 합니다. Oracle Support 계정 이름과 암호를 입력한 후에 등록이 완료되었다고 알리는 통지가 표시되어야 합니다. Enter Orcle SSO User Name: Enter password: Registration complete. 4. 다음 명령을 실행합니다. # asradm list 화면 출력은 다음과 유사해야 합니다. PROPERTY VALUE Status Successfully Registered with ASR manager System Id system-identification-number Asset Id asset-identification-number User username Endpoint URL http://asr-manager-host:port-number/asr 위의 명령에 대한 결과가 성공적이면 ASR Manager 등록이 완료된 것입니다. 5. 216 시스템에서 Oracle Solaris 11 또는 데이터베이스 도메인의 모든 SPARC T5-8 서버마다 이 러한 지침을 반복합니다. Oracle SuperCluster T5-8 2014년 10월

Oracle SuperCluster T5-8 자산에 대해 ASR 활성화 승인 및 확인 6. 시스템의 모든 SPARC T5-8 서버에 대해 이러한 지침을 완료했으면 MOS에서 SPARC T5-8 에 대한 접점을 승인하고 확인합니다. 해당 지침은 Oracle SuperCluster T5-8 자산에 대해 ASR 활성화 승인 및 확인 [217]을 참조하십시오. 프로세스에 대한 자세한 내용은 ASR MOS 5.3+ 활성화 프로세스(Doc ID 1329200.1)를 참조하십시오. Oracle SuperCluster T5-8 자산에 대해 ASR 활성화 승 인 및 확인 1. ASR Manager가 실행 중인 독립 실행형 시스템에서 다음 명령을 실행하여 시스템 자산의 상태를 확인합니다. list_asset 이 명령은 SPARC T5-8 서버, Exadata Storage Server 및 ZFS 저장소 컨트롤러를 포함하여 Oracle SuperCluster T5-8의 ASR 자산을 나열합니다. 2. My Oracle Support(https://support.oracle.com)에 로그인합니다. 3. My Oracle Support Dashboard(대시보드)의 메뉴에서 More(자세히)... 탭을 누른 다음 Settings(설정)를 누릅니다. 4. 창의 왼쪽에 있는 Settings(설정) 창에서 Administrative(관리) 하위 메뉴 아래에 있는 Pending ASR Activations(보류 중인 ASR 활성화)를 선택합니다. 승인을 기다리는 정규화된 모든 ASR 자산의 전체 목록이 표시됩니다. 시스템 모니터링 217

Oracle SuperCluster T5-8 자산에 대해 ASR 활성화 승인 및 확인 참고 - 기본적으로 관련된 모든 지원 식별자가 표시됩니다. 이 자산 목록이 긴 경우 한 개의 지 원 식별자에 연결된 자산만 표시되도록 표시를 제한할 수 있습니다. 또한 자산의 일련 번호를 검색할 수 있습니다. 참고 - 시스템의 각 구성 요소에 대해 각 일련 번호와 연결된 두 개의 호스트 이름이 표시됩니 다. Oracle ILOM 호스트 이름만 보이는 경우 해당 구성 요소에 대해 ASR을 활성화하지 않 은 것입니다. 각 일련 번호와 연결된 세 개 이상의 호스트 이름이 보이는 경우 ASR에 대한 도움을 요청해야 할 수 있습니다. 이렇게 하려면 "Problem Category(문제 범주)"를 "My Auto Service Request (ASR) Installation and Configuration Issues(내 - 자동 서비스 요 청(ASR) 설치 및 구성 문제)"로 설정하여 하드웨어 SR을 엽니다. 5. 자산의 일련 번호를 누릅니다. 자산에 대해 누락된 정보가 필요한 경우 정보 팝업이 필요한 정보를 나타냅니다. ASR Activation(ASR 활성화) 창이 표시되고 다음 그림처럼 보입니다. 참고 - 활성화 요청이 자산의 ASR 소프트웨어에서 Oracle로 전송되면 ASR 호스트 이름이 업 데이트됩니다. (예: ASR Manager의 asr activate_asset 명령에서) ASR 자산 활성화의 필수 필드는 다음과 같습니다. 218 Contact Name(연락처 이름): 지원 식별자에 연결된 이름만 선택할 수 있습니다. 사용 가능한 이름 목록을 보려면 드롭다운 메뉴를 누릅니다. Oracle SuperCluster T5-8 2014년 10월

OCM을 사용하여 시스템 모니터링 연락처에는 자산의 지원 식별자에 대한 "SR 만들기" 권한이 있어야 합니다. Street Address 1(거리 주소 1): 자산에 대한 거리 주소를 입력합니다. 참고 - 기본적으로 관련된 모든 지원 식별자가 표시됩니다. 이 자산 목록이 긴 경우 한 개의 지 원 식별자에 연결된 자산만 표시되도록 표시를 제한할 수 있습니다. 또한 자산의 일련 번호를 검색할 수 있습니다. Country(국가): 드롭 다운 메뉴에서 자산의 국가 위치를 선택합니다. ZIP/Postal Code(우편 번호): 자산의 위치에 대한 우편 번호를 입력합니다. 우편 번호가 없는 경우 "-"를 삽입합니다. Distribution Email List(배포 전자 메일 목록): 모든 ASR 메일 알림을 받는 전자 메일 주소를 추가할 수 있습니다. 쉼표를 사용하여 여러 전자 메일 주소를 구분합니다. 예를 들면 다음과 같습니다. asr-notifications-1@mycompany.com, asr-notifications-2@mycompany.com 제공된 경우 ASR은 연락처의 전자 메일 주소 및 배포 전자 메일 목록으로 전자 메일을 보냅니다. 이 기능은 사용자의 조직에 ASR에서 만든 서비스 요청에 대해 알아야 하는 팀이 있는 경우 유용합니다. 6. ASR 활성화를 완료하려면 "Approve(승인)" 버튼을 누릅니다. 참고 - 서비스 요청 자동 생성이 작동하려면 시스템 자산이 My Oracle Support에서 활성 ASR 상태에 있어야 합니다. 7. ASR이 전송 서버에 정보를 전송할 수 있는지 확인하려면 다음을 실행합니다. # asradm send test email-address@company.com 이 명령은 전자 메일 주소로 테스트 경고 전자 메일을 보냅니다. OCM을 사용하여 시스템 모니터링 다음 항목은 OCM으로 시스템을 모니터하는 방법을 설명합니다. OCM 개요 [220] SPARC T5-8 서버에 Oracle Configuration Manager 설치 [220] 시스템 모니터링 219

SPARC T5-8 서버에 Oracle Configuration Manager 설치 OCM 개요 OCM(Oracle Configuration Manager)은 구성 정보를 수집하여 Oracle 저장소에 업로드 합니다. 구성 정보가 매일 업로드되면 Oracle 지원 서비스에서 데이터를 분석하여 더 나은 서비스를 제공할 수 있습니다. 서비스 요청이 기록될 때 구성 데이터는 서비스 요청과 연결됩 니다. 다음은 Oracle Configuration Manager의 몇 가지 이점입니다. 문제 해결 시간 감소 사전에 문제 방지 모범 사례 및 Oracle 기술 자료에 대한 액세스 개선 고객의 비즈니스 요구에 대한 이해 향상 일관된 응답 및 서비스 Oracle Configuration Manager 소프트웨어가 호스트의 각 ORACLE_HOME 디렉토리에 설치 되어 구성됩니다. 클러스터링된 데이터베이스의 경우 Oracle Configuration Manager에 대해 한 개의 인스턴스만 구성됩니다. 구성 스크립트가 호스트의 모든 데이터베이스에서 실 행됩니다. Oracle Configuration Manager는 데이터를 수집한 다음 중앙 집중화된 Oracle 저장소에 보냅니다. 자세한 내용은 다음을 참조하십시오. Oracle Configuration Manager Installation and Administration Guide Oracle Configuration Manager Collection Overview SPARC T5-8 서버에 Oracle Configuration Manager 설치 참고 - 이 절에서 여러 라인에 걸쳐 있는 명령을 복사하고 붙여넣으려고 하지 마십시오. 명령 을 제대로 입력하려면 여러 라인에 걸쳐 있는 명령은 수동으로 입력합니다. 1. 논리적 도메인에 root로 로그인합니다. 응용 프로그램 도메인의 경우 해당 도메인에 지정된 IP 주소 또는 호스트 이름을 사용하 여 1GbE 호스트 관리 네트워크를 통해 로그인합니다. 예를 들면 다음과 같습니다. ssh -l root ssc0101-mgmt 데이터베이스 도메인의 경우 SPARC T5-8 서버에 지정된 IP 주소 또는 호스트 이름을 사용하여 1GbE 호스트 관리 네트워크를 통해 로그인합니다. 예를 들면 다음과 같습니 다. ssh -l root ssc01db01 220 Oracle SuperCluster T5-8 2014년 10월

SPARC T5-8 서버에 Oracle Configuration Manager 설치 2. Oracle Configuration Manager가 설치된 디렉토리를 찾습니다. 응용 프로그램 도메인의 경우 Oracle Configuration Manager가 다음 디렉토리에 설 치되어야 합니다. /opt/ocm 데이터베이스 도메인의 경우 Oracle Configuration Manager가 다음 디렉토리에 설치 되어야 합니다. /usr/lib/ocm Oracle Configuration Manager가 해당 디렉토리 중 하나에 설치되지 않은 경우 Oracle Configuration Manager가 설치된 위치로 디렉토리를 변경합니다. Oracle Configuration Manager가 설치된 디렉토리는 이러한 절차의 나머지에 대해 ocminstall-dir로 참조됩니다. 3. 디렉토리를 다음으로 변경합니다. /ocm-install-dir/ccr/bin 4. emccr 파일을 찾습니다. 5. 이 디렉토리에 emccr 파일이 있으면 Oracle Configuration Manager가 SPARC T5-8 서버에 이미 설치되어 구성된 것입니다. 이 경우 이러한 지침을 진행하지 마십시오. 이 디렉토리에 emccr 파일이 없으면 Oracle Configuration Manager가 SPARC T5-8 서버에 설치되지 않은 것입니다. 다음 단계를 진행합니다. 다음 명령을 입력하여 SPARC T5-8 서버에서 Oracle Configuration Manager를 구성합니 다. /ocm-install-dir/ccr/bin/configccr 6. Oracle Configuration Manager의 적절한 필드에 다음 정보를 입력합니다. 전자 메일 주소/사용자 이름 암호(선택 사항) 이렇게 하면 SPARC T5-8 서버에 Oracle Configuration Manager가 설치됩니다. 7. 데이터베이스 도메인에 로그인되어 있거나 응용 프로그램 도메인에서 데이터베이스를 실행 중인 경우 다음 데이터베이스의 데이터 모임을 사용합니다. /ocm-install-dir/ccr/admin/scripts/installccrsql.sh collectconfig -s $SID -r SYS XML 파일이 /ocm-install-dir/ccr/hosts/sparc-t5-8-server/state/review에 생성되 어야 합니다. XML 파일이 이 디렉토리에 생성되었으면 다음 단계를 진행합니다. 시스템 모니터링 221

SPARC T5-8 서버에 Oracle Configuration Manager 설치 8. XML 파일이 이 디렉토리에 생성되지 않았으면 Oracle에 문의하여 이 문제에 대한 지원 을 요청합니다. 다음과 같이 수집을 수행합니다. ORACLE_HOME/ccr/bin/emCCR collect 9. 10. My Oracle Support에 로그인합니다. 홈 페이지에서 Dashboard(대시보드) 페이지의 맨 위 오른쪽에 있는 Customize(사용자 정 의) 페이지 링크를 선택합니다. Targets(대상) 버튼을 대시보드 위에서 왼쪽으로 드래그합니다. 11. 222 화면의 맨 위 오른쪽의 대상 검색 창에서 시스템을 검색합니다. Oracle SuperCluster T5-8 2014년 10월

SPARC T5-8 서버에 Oracle Configuration Manager 설치 12. 시스템의 정보를 가져오려면 시스템을 두 번 누릅니다. 시스템 모니터링 223

EM Exadata 플러그인을 사용하여 시스템 모니터링 EM Exadata 플러그인을 사용하여 시스템 모니터링 Oracle SuperCluster 1.1부터는 아래 참고에 설명된 지원되는 구성에서만 Oracle Enterprise Manager Exadata 12.1.0.3 플러그인을 사용하여 클러스터의 모든 Exadata 관련 소프트웨어와 하드웨어 구성 요소를 모니터할 수 있습니다. 시스템 요구 사항 [224] EM Exadata 플러그인에 알려진 문제 [225] 시스템 요구 사항 Control LDOM 전용 환경에서 데이터베이스 도메인을 포함하고 소프트웨어 버전이 1.1 이 상인 시스템만 지원됩니다. 이전 버전의 시스템은 October 2012 QMU 릴리스로 업데이 트할 경우 호환 가능합니다. 시스템에 설치된 compmon pkg의 버전을 확인하여 이 요구 사항 을 확인할 수 있습니다. pkg info compmon 또는 pkg list compmon 명령을 사용하여 검사 224 Oracle SuperCluster T5-8 2014년 10월

EM Exadata 플러그인을 사용하여 시스템 모니터링 하면 됩니다. 다음 최소 버전의 compmon이 설치되어야 합니다. pkg://exa-family/system/ platform/exadata/compmon@0.5.11,5.11-0.1.0.11:20120726t024158z 참고 - Oracle SuperCluster 소프트웨어 버전 2.x에서는 compmon 명령 이름이 osc- compmon으로 변경되었습니다. Oracle SuperCluster v2.x 릴리스 번들을 사용하여 SuperCluster가 설치된 경우 새 이름을 사용하십시오. SuperCluster 소프트웨어의 버전 식 별 [137]을 참조하십시오. EM Exadata 플러그인에 알려진 문제 Exadata 플러그인 12.1.0.3에 번들로 포함된 필수 조건 검사 스크립트 exadatadiscoveryprecheck.pl이 catalog.xml 파일을 지원하지 않습니다. 다음 설명 서의 Discovery Precheck Script 절에 설명된 대로 My Oracle Support에서 최신 exadatadiscoveryprecheck.pl 파일을 다운로드하십시오. Oracle Enterprise Manager Exadata Management Getting Started Guide (docs.oracle.com/cd/e24628_01/doc.121/e27442/title.htm) Enterprise Manager 관리 서버 환경에서 여러 데이터베이스 클러스터가 동일한 Exadata Storage 서버를 공유하는 경우 첫번째 DB 시스템 대상과 모든 구성 요소를 검색하고 모니터할 수 있습니다. 그러나 동일한 Exadata Storage 서버를 공유하는 추 가 DB 시스템 대상의 경우 Oracle Exadata Storage Server 그리드 시스템과 Oracle Database Exadata Storage Server System에 Exadata Storage 서버 멤버가 없습니 다. 이들이 이미 모니터되었기 때문입니다. 시스템에 설치된 perfquery 명령이 버전 1.5.8 이상인 경우, 컴퓨팅 노드용 호스트 대상의 HCA Port Errors 측정 단위에서 대부분의 열이 비어 있는 상황에서 버그(ID 15919339)가 발생합니다. HCA 포트에서 오류가 발생할 경우 Enterprise Manager 에 보고되지 않습니다. 버전을 확인하려면 다음 명령을 실행합니다. perfquery -V 시스템 모니터링 225

226 Oracle SuperCluster T5-8 2014년 10월

Exalogic 소프트웨어 구성 이 절에서는 Oracle SuperCluster T5-8에서 Exalogic 소프트웨어를 사용하는 방법에 대해 다룹니다. Exalogic 소프트웨어 개요 [227] Exalogic 소프트웨어 필수 조건 [227] 도메인 레벨 향상된 기능 사용 [228] 클러스터 레벨 세션 복제 향상된 기능 사용 [229] Dept1_Cluster1에 대해 GridLink 데이터 소스 구성 [232] Dept1_Cluster1에 대해 SDP 사용 JDBC 드라이버 구성 [236] Exalogic 연결에 대해 SDP InfiniBand 리스너 구성 [238] Exalogic 소프트웨어 개요 Oracle EECS(Exalogic Elastic Cloud Software)에는 입력/출력, 스레드 관리 및 요청 처리 효율성을 높이기 위한 Oracle SuperCluster T5-8 성능 최적화 기능이 포함되어 있습니다. 추가 최적화 기능에는 보다 효율적인 입력/출력을 제공하는 줄어든 버퍼 복사가 포함됩니다. 끝으로, 지연 역직렬화를 통해 세션 복제 성능 및 CPU 사용률이 향상되므로 세션이 업데이 트될 때마다 추가 작업을 수행할 필요가 없습니다. 이러한 추가 작업은 서버가 실패할 경우에 만 필요합니다. 서버 간 통신을 더욱 향상시켜 주는 클러스터 전체 최적화를 사용하도록 WebLogic Server 클러스터를 구성할 수 있습니다. 첫번째 최적화의 경우 여러 복제 채널을 사용할 수 있으므로 WebLogic Server 클러스터 노드 간 네트워크 처리량이 향상됩니다. 두번째 클러스터 최적 화의 경우 Sockets Direct Protocol에 대한 InfiniBand 지원을 제공하므로, 네트워크 트래픽 이 TCP 스택을 우회할 때 CPU 사용률이 줄어듭니다. Exalogic 소프트웨어 필수 조건 다음은 시스템에 Exalogic 소프트웨어 제품을 구성하기 위한 필수 조건입니다. Oracle Exalogic Enterprise Deployment Guide의 Chapter 3, Network, Storage, and Database Preconfiguration (http://docs.oracle.com/cd/e18476_01/ Exalogic 소프트웨어 구성 227

도메인 레벨 향상된 기능 사용 doc.220/e18479/toc.htm)에 설명된 내용에 따라, 데이터베이스, 저장소, 네트워크를 비롯한 환경을 사전 구성합니다. Oracle Exalogic 도메인은 Oracle Exalogic Enterprise Deployment Guide의 Chapter 5, Configuration Oracle Fusion Middleware (http://docs.oracle.com/ cd/e18476_01/doc.220/e18479/toc.htm)에 설명된 내용에 따라 구성되어 있습니 다. 도메인 레벨 향상된 기능 사용 도메인 레벨의 향상된 기능을 사용으로 설정하려면 다음 단계를 수행하십시오. 1. Oracle WebLogic Server 관리 콘솔에 로그인합니다. 2. 왼쪽 탐색 창에서 Domainname 을 선택합니다. Settings for Domainname(Domainname에 대한 설정) 화면이 표시됩니다. General(일 반) 탭을 누릅니다. 3. 도메인 홈 페이지에서 Enable Exalogic Optimizations(Exalogic 최적화 사용)를 선택하고 Save(저장)를 누릅니다. 4. 변경 사항을 활성화합니다. 5. 도메인을 중지했다가 시작합니다. Enable Exalogic Optimizations(Exalogic 최적화 사용) 설정은 다음 표에 설명된 개별 기 능을 한번에 사용으로 설정합니다. 시작 옵션은 각 기능을 개별적으로 사용 및 사용 안함으로 설정하는 방법을 나타냅니다. 기능 분산 읽기 설명 네트워크 처리량이 높은 환경에서 I/O 중 효율성을 높입니다. 시작 옵션 -Dweblogic.ScatteredReadsEnabled=true/false MBean KernelMBean.setScatteredReadsEnabled 설명 네트워크 처리량이 높은 환경에서 I/O 중 효율성을 높입니다. 시작 옵션 -Dweblogic.GatheredWritesEnabled=true/false MBean KernelMBean.setGatheredWritesEnabled 모아 쓰기 지연 역직렬화 228 Oracle SuperCluster T5-8 2014년 10월

클러스터 레벨 세션 복제 향상된 기능 사용 기능 설명 세션 복제를 통해 효율성을 높입니다. 시작 옵션 -Dweblogic.replication.enableLazyDeserialization=true/false MBean ClusterMBean.setSessionLazyDeserializationEnabled 참고 - 최적화를 사용으로 설정하면 다음과 같은 메시지가 표시될 수 있습니다. java.io.ioexception: Broken pipe. 저장소 페일오버가 발생하는 경우에도 동일한 메시지 가 표시될 수 있습니다. 어떤 경우든지 이 오류 메시지를 무시해도 됩니다. 클러스터 레벨 세션 복제 향상된 기능 사용 나중에 웹 응용 프로그램을 배포할 WebLogic 클러스터의 관리 대상 서버에 대해 세션 복제 향상된 기능을 사용으로 설정할 수 있습니다. 참고 - Coherence*web을 사용 중인 경우에는 이 세션 복제 향상된 기능이 적용되지 않습 니다. Oracle Fusion Middleware Exalogic Enterprise Deployment Guide 의 Chapter 8, Deploying a Sample Web Application to and Oracle WebLogic Cluster (http:// docs.oracle.com/cd/e18476_01/doc.220/e18479/deploy.htm)에 설명된 것과 같이 dizzyworld.ear 응용 프로그램을 사용하는 경우 이 단계를 건너뛰십시오. Dept1_Cluster1에 대해 세션 복제 향상된 기능을 사용으로 설정하려면 다음 단계를 수행하 십시오. 1. Oracle Fusion Middleware Exalogic Enterprise Deployment Guide의 Section 5.16 Starting Managed Servers on ComputeNode1 and ComputeNode2 (http:// docs.oracle.com/cd/e18476_01/doc.220/e18479/create_domain.htm#babegafb) 에 설명된 것과 같이, Dept1_Cluster1 클러스터의 관리 대상 서버가 작동되어 실행 중인지 확인합니다. 2. 관리 대상 서버(예: WLS1)에 대한 복제 포트를 설정하려면 다음 단계를 완료하십시오. a. Domain Structure(도메인 구조) 아래에서 Environment(환경) 및 Servers(서버)를 누 릅니다. Summary of Servers(서버 요약) 페이지가 표시됩니다. b. 서버 목록에서 WLS1 을 누릅니다. Exalogic 소프트웨어 구성 229

클러스터 레벨 세션 복제 향상된 기능 사용 Settings for WLS1(WLS1에 대한 설정)이 표시됩니다. c. Cluster(클러스터) 탭을 누릅니다. d. Replication Ports(복제 포트) 필드에 여러 복제 채널을 구성하는 데 사용할 포트 범위 를 입력합니다. 예를 들어, Dept_1_Cluster1에서 관리 대상 서버의 복제 채널은 7005~7015의 포트 에서 수신할 수 있습니다. 이 포트 범위를 지정하려면 7005-7015를 입력합니다. 3. 다음과 같이 클러스터의 관리 대상 서버(예: WLS1)마다 사용자 정의 네트워크 채널을 만듭 니다. a. Oracle WebLogic Server 관리 콘솔에 로그인합니다. b. 아직 로그인하지 않은 경우 변경 센터에서 Lock & Edit(잠금 및 편집)를 누릅니다. c. 콘솔 왼쪽에서 Environment(환경)를 확장하고 Servers(서버)를 선택합니다. Summary of Servers(서버 요약) 페이지가 표시됩니다. d. Servers(서버) 테이블에서 WLS1 관리 대상 서버 인스턴스를 누릅니다. e. Protocols(프로토콜)를 선택한 후 Channels(채널)를 선택합니다. f. New(새로 만들기)를 누릅니다. g. 새 네트워크 채널 이름으로 ReplicationChannel을 입력하고 프로토콜로 t3을 선택한 후 Next(다음)를 누릅니다. h. 다음 정보를 입력합니다. 수신 주소: 10.0.0.1 참고 - 이 주소는 WLS1에 지정된 유동 IP입니다. 수신 포트: 7005 230 i. Next(다음)를 누르고 Network Channel Properties(네트워크 채널 속성) 페이지에서 Enabled(사용) 및 Outbound Enabled(아웃바운드 사용)를 선택합니다. j. Finish(완료)를 누릅니다. Oracle SuperCluster T5-8 2014년 10월

클러스터 레벨 세션 복제 향상된 기능 사용 k. Network Channels(네트워크 채널) 테이블에서 WLS1 관리 대상 서버용으로 만든 네 트워크 채널인 ReplicationChannel을 선택합니다. l. Advanced(고급)를 확장하고 Enable SDP Protocol(SDP 프로토콜 사용)을 선택합니 다. m. Save(저장)를 누릅니다. n. 이러한 변경 사항을 활성화하려면 관리 콘솔의 변경 센터에서 Activate Changes(변경 사항 활성화)를 누릅니다. 위 단계를 반복하여 Dept1_Cluster1 클러스터의 나머지 관리 대상 서버마다 네트워크 채널을 만들어야 합니다. 다음 표에 설명된 필수 등록 정보를 입력합니다. Dept1_Cluster1에 포함 된 관리 대상 서버 이름 프로토콜 수신 주소 수신 포트 추가 채널 포트 WLS2 ReplicationChannel t3 10.0.0.2 7005 7006-7014 WLS3 ReplicationChannel t3 10.0.0.3 7005 7006-7014 WLS4 ReplicationChannel t3 10.0.0.4 7005 7006-7014 WLS5 ReplicationChannel t3 10.0.0.5 7005 7006-7014 WLS6 ReplicationChannel t3 10.0.0.6 7005 7006-7014 WLS7 ReplicationChannel t3 10.0.0.7 7005 7006-7014 WLS8 ReplicationChannel t3 10.0.0.8 7005 7006-7014 4. 클러스터 내의 관리 대상 서버마다 네트워크 채널을 만든 후 Environment(환경) > Clusters(클러스터)를 누릅니다. Summary of Clusters(클러스터 요약) 페이지가 표시됩니 다. 5. Dept1_Cluster1(나중에 웹 응용 프로그램을 배치할 예제 클러스터)을 누릅니다. Settings for Dept1_Cluster1(Dept1_Cluster1에 대한 설정) 페이지가 표시됩니다. 6. Replication(복제) 탭을 누릅니다. 7. Replication Channel(복제 채널) 필드에서 ReplicationChannel이 복제 트래픽에 사용할 채널의 이름으로 설정되었는지 확인합니다. 8. Advanced(고급) 섹션에서 Enable One Way RMI for Replication(복제에 단방향 RMI 사 용) 옵션을 선택합니다. 9. Save(저장)를 누릅니다. Exalogic 소프트웨어 구성 231

Dept1_Cluster1에 대해 GridLink 데이터 소스 구성 10. 변경 사항을 활성화하고 관리 대상 서버를 다시 시작합니다. 11. 다음과 같이 텍스트 편집기를 사용해서 base_domain의 bin 디렉토리에 있는 startweblogic.sh 스크립트에 시스템 등록 정보 -Djava.net.preferIPv4Stack=true를 수동 으로 추가합니다. a. startweblogic.sh 스크립트에서 다음 라인을 찾습니다.. ${DOMAIN_HOME}/bin/setDomainEnv.sh $* b. 위 항목 바로 뒤에 다음 등록 정보를 추가합니다. JAVA_OPTIONS="${JAVA_OPTIONS} -Djava.net.preferIPv4Stack=true" c. 12. 파일을 저장한 다음 닫습니다. 다음과 같이 관리 대상 서버를 모두 다시 시작합니다. a. 관리 콘솔에서 Environment(환경) > Servers(서버)를 누릅니다. Summary of Servers(서버 요약) 페이지가 표시됩니다. b. WLS1을 눌러서 관리 대상 서버(예: WLS1)를 선택합니다. Settings for WLS1(WLS1 에 대한 설정) 페이지가 표시됩니다. c. Control(제어) 탭을 누릅니다. Server Status(서버 상태) 테이블에서 WLS1 을 선택합 니다. Start(시작)를 누릅니다. d. WebLogic 클러스터의 관리 대상 서버마다 이 단계를 반복합니다. 참고 - 수신 포트가 여러 개 열렸는지 확인하려면 명령줄에서 netstat -na 명령을 실행하거 나 관리 대상 서버 로그를 확인하면 됩니다. Dept1_Cluster1에 대해 GridLink 데이터 소스 구성 Oracle WebLogic Server와 Oracle RAC 클러스터를 대상으로 하는 서비스 간의 JDBC 연결에 대한 GridLink 데이터 소스를 만들어야 합니다. 이 데이터 소스는 ONS(Oracle Notification Service)를 사용하여 Oracle RAC 인스턴스의 상태 변경에 순응적으로 응답합 니다. 이 항목에서 설명하는 내용은 다음과 같습니다. 232 GridLink 데이터 소스 [233] Dept1_Cluster1에 GridLink 데이터 소스 만들기 [234] Oracle SuperCluster T5-8 2014년 10월

Dept1_Cluster1에 대해 GridLink 데이터 소스 구성 GridLink 데이터 소스 GridLink 데이터 소스는 일반 데이터 소스 기능과 다음과 같은 Oracle RAC 지원을 포함하 고 있습니다. 신속한 연결 페일오버 [233] 런타임 연결 로드 균형 조정 [233] XA 유사성 [234] SCAN 주소 [234] Oracle Wallet을 사용한 보안 통신 [234] 신속한 연결 페일오버 GridLink 데이터 소스는 신속한 연결 페일오버를 사용하여 다음을 수행합니다. 신속한 오류 감지 기능 제공 잘못된 연결 중단 및 연결 풀에서 제거 계획된/계획되지 않은 Oracle RAC 노드 장애 시 정상 종료 수행. 이 데이터 소스를 사 용하여 연결을 종료하기 전에 진행 중인 트랜잭션을 완료할 수 있습니다. 새 요청은 활 성 Oracle RAC 노드로 로드 균형이 조정됩니다. 새 노드 추가와 같이 토폴로지의 변경 사항에 맞게 조정 런타임 작업 요청을 모든 활성 Oracle RAC 인스턴스에 분배 다음 위치에서 Oracle Database JDBC Developer's Guide and Reference의 Fast Connection Failover를 참조하십시오. http://docs.oracle.com/cd/b19306_01/ java.102/b14355/fstconfo.htm. 런타임 연결 로드 균형 조정 WebLogic Server는 런타임 연결 로드 균형 조정을 통해 다음을 수행할 수 있습니다. CPU, 가용성, 응답 시간 등의 백엔드 노드 기능에 따라 작업 분배 조정 Oracle RAC 토폴로지의 변경 사항에 맞춰 반응 고성능 및 확장성을 위해 풀링된 연결 관리 FAN(Fast Application Notification)이 사용으로 설정되지 않은 경우, GridLink 데이터 소 스는 라운드 로빈 방식의 로드 균형 조정 알고리즘을 사용하여 연결을 Oracle RAC 노드에 할당합니다. Exalogic 소프트웨어 구성 233

Dept1_Cluster1에 GridLink 데이터 소스 만들기 XA 유사성 전역 트랜잭션에 대한 XA 유사성은 Oracle RAC 클러스터에서 수행되는 전역 트랜잭션에 대한 모든 데이터베이스 작업이 동일한 Oracle RAC 인스턴스로 전달되도록 합니다. XA 트 랜잭션에 대한 첫번째 연결의 경우 RCLB를 사용하여 로드 균형이 조정되며 유사성 컨텍스 트에 지정됩니다. 이후 모든 연결 요청은 첫번째 연결의 유사성 컨텍스트를 사용하여 동일한 Oracle RAC 인스턴스로 전달됩니다. SCAN 주소 SCAN(Oracle Single Client Access Name) 주소는 WebLogic 콘솔에서 TNS 리스너 및 ONS 리스너 모두에 대해 호스트와 포트를 지정하는 데 사용할 수 있습니다. Oracle RAC 노 드를 추가하거나 제거하는 경우 SCAN 주소가 포함된 GridLink 데이터 소스는 변경하지 않 아도 됩니다. 사용 환경에 알맞게 구성된 SCAN URL은 네트워크 관리자에게 문의하십시오. 자세한 내용은 http://www.oracle.com/technetwork/database/clustering/overview/ scan-129069.pdf를 참조하십시오. Oracle Wallet을 사용한 보안 통신 Oracle Wallet을 사용하여 ONS 리스너와의 보안 통신을 구성할 수 있습니다. Dept1_Cluster1에 GridLink 데이터 소스 만들기 1. Oracle WebLogic Server 관리 콘솔에 로그인합니다. 2. 아직 로그인하지 않은 경우 관리 콘솔의 변경 센터에서 Lock & Edit(잠금 및 편집)를 누릅니 다. 3. Domain Structure(도메인 구조) 트리에서 Services(서비스)를 확장한 후 Data Sources(데 이터 소스)를 선택합니다. 4. Summary of Data Sources(데이터 소스 요약) 페이지에서 New(새로 만들기)를 누르고 GridLink Data Source(GridLink 데이터 소스)를 선택합니다. Create a New JDBC GridLink Data Source(새 JDBC GridLink 데이터 소스 생성) 페이지 가 표시됩니다. 5. 다음 정보를 입력합니다. 234 Name(이름) 필드에 데이터 소스에 대한 논리적 이름을 입력합니다 예: gridlink. JNDI 이름을 입력합니다 예: jdbc/gridlink. Oracle SuperCluster T5-8 2014년 10월

Dept1_Cluster1에 GridLink 데이터 소스 만들기 Next(다음)를 누릅니다. 6. Transaction Options(트랜잭션 옵션) 페이지에서 Supports Global Transactions(전역 트 랜잭션 지원)를 선택 해제하고 Next(다음)를 누릅니다. 7. Enter individual listener information(개별 리스너 정보 입력)을 선택하고 Next(다음)를 누릅니다. 8. 다음 연결 등록 정보를 입력합니다. Service Name(서비스 이름): Service Name(서비스 이름) 필드에 Oracle RAC 서비스의 이름을 입력합니다. 예를 들어 Service Name(서비스 이름)에 myservice를 입력합니다. 참고 - Oracle RAC 서비스 이름은 데이터베이스에 정의되어 있으며 고정된 이름이 아닙니 다. Host Name(호스트 이름) - 데이터베이스를 호스트하는 서버의 DNS 이름이나 IP 주소 를 입력합니다. Oracle GridLink 서비스-인스턴스 연결의 경우, 이 이름은 지정된 다중 데이터 소스의 각 데이터 소스에서 동일해야 합니다. Port(포트) - 데이터베이스 서버가 연결 요청을 수신하는 포트를 입력합니다. Database User Name(데이터베이스 사용자 이름): 데이터베이스 사용자 이름을 입력 합니다. 예: mydatabase. Password(암호): 암호를 입력합니다 예: mypassword1. 암호를 확인하고 Next(다음)를 누릅니다. 작은 정보 - 자세한 내용은 Oracle Fusion Middleware Oracle WebLogic Server 관리 콘솔 온라인 도움말을 참조하십시오. 콘솔에서 자동으로 완전한 JDBC URL을 생성합니다. 예를 들면 다음과 같습니다. jdbc:oracle:thin:@(description=(address_list=(address=(protocol=tcp) (HOST=left)(PORT=1234))(ADDRESS=(PROTOCOL=TCP)(HOST=right) (PORT=1234))(ADDRESS=(PROTOCOL=TCP)(HOST=center)(PORT=1234))) (CONNECT_DATA=(SERVICE_NAME=myService))) 9. Test GridLink Database Connection(GridLink 데이터베이스 접속 테스트) 페이지에서 연 결 매개변수를 검토하고 Test All Listeners(모든 리스너 테스트)를 누릅니다. Oracle WebLogic에서 관리 서버에서 데이터베이스로의 연결을 만들려고 시도합니다. 연결 테스트 결과는 페이지 맨 위에 표시됩니다. 테스트가 실패한 경우 구성 오류를 수정한 다음 테스트를 재시도해야 합니다. Next(다음)를 누릅니다. Exalogic 소프트웨어 구성 235

Dept1_Cluster1에 대해 SDP 사용 JDBC 드라이버 구성 10. ONS Client Configuration(ONS 클라이언트 구성) 페이지에서 다음을 수행합니다. 11. Fan Enabled(FAN 사용)를 선택하여 Oracle FAN 이벤트에 가입하고 처리합니다. ONS 호스트 및 포트에 ONS 기반 FAN 이벤트를 수신하는 데 필요한 ONS 데몬 수신 주 소와 포트를 쉼표로 구분하여 입력합니다. SCAN(Single Client Access Name) 주소를 사용하여 FAN 알림에 액세스할 수 있습니다. Next(다음)를 누릅니다. Test ONS client configuration(ons 클라이언트 구성 테스트) 페이지에서 연결 매개변수 를 검토하고 Test All ONS Nodes(모든 ONS 노드 테스트)를 누릅니다. Next(다음)를 누릅니다. 12. Select Targets(대상 선택) 페이지에서 대상으로 Dept1_Cluster1을 선택하고 클러스터의 모든 서버를 선택합니다. 13. Finish(완료)를 누릅니다. 14. Activate Changes(변경 내용 활성화)를 누릅니다. 15. 이제 클러스터에 대해 SDP 사용 JDBC 드라이버를 구성해야 합니다. 지침은 Dept1_Cluster1에 대해 SDP 사용 JDBC 드라이버 구성 [236]의 내용을 참조하십시오. Dept1_Cluster1에 대해 SDP 사용 JDBC 드라이버 구성 Dept1_Cluster1 클러스터에 대해 SDP 사용 JDBC 드라이버를 구성해야 합니다. 이 절은 다음 항목으로 구성됩니다. 데이터베이스에서 Infiniband를 지원하도록 구성 [236] JDBC에 대한 SDP 지원 사용 [237] Oracle Solaris에서 netstat를 사용하여 SDP 소켓 모니터링 [238] 데이터베이스에서 Infiniband를 지원하도록 구성 다음 위치에 있는 Oracle Database Net Services Administrator's Guide의 " Configuring SDP Protocol Support for Infinband Network Communication to the Database Server" 절에 설명된 것과 같이, JDBC에 대한 SDP 지원을 사용으로 설정하려면 먼저 InfiniBand를 지원하도록 데이터베이스를 구성해야 합니다. http://download.oracle.com/docs/cd/b28359_01/network.111/b28316/ performance.htm#i1008413 프로토콜을 SDP로 설정하십시오. 236 Oracle SuperCluster T5-8 2014년 10월

JDBC에 대한 SDP 지원 사용 JDBC에 대한 SDP 지원 사용 다음 단계를 수행하십시오. 1. Oracle Fusion Middleware Exalogic Enterprise Deployment Guide의 Section 7.6 Configuring Grid Link Data Source for Dept1_Cluster1 (http://docs.oracle.com/ cd/e18476_01/doc.220/e18479/optimization.htm#babhedi)에 설명된 내용에 따라, ComputeNode1 및 ComputeNode2에 JDBC 연결에 대한 GridLink 데이터 소스를 만들 었는지 확인합니다. 다음 예에 표시된 것과 같이, 콘솔에서 자동으로 완전한 JDBC URL을 생성합니다. jdbc:oracle:thin:@(description=(address=(protocol=tcp)(host=192.x.x.x)(port=1522)) (CONNECT_DATA=(SERVICE_NAME=myservice))) 2. JDBC URL에서 TCP 프로토콜을 SDP 프로토콜로 바꿉니다. 예를 들면 다음과 같습니다. jdbc:oracle:thin:@(description=(address=(protocol=sdp)(host=192.x.x.x)(port=1522)) (CONNECT_DATA=(SERVICE_NAME=myservice))) 3. 다음과 같이 텍스트 편집기를 사용해서 base_domain의 bin 디렉토리에 있는 startweblogic.sh 스크립트에 시스템 등록 정보 -Djava.net.preferIPv4Stack=true를 수동 으로 추가합니다. a. startweblogic.sh 스크립트에서 다음 라인을 찾습니다.. ${DOMAIN_HOME}/bin/setDomainEnv.sh $* b. 위 항목 바로 뒤에 다음 등록 정보를 추가합니다. JAVA_OPTIONS="${JAVA_OPTIONS} -Djava.net.preferIPv4Stack=true -Doracle.net.SDP=true" c. 4. 파일을 저장한 다음 닫습니다. 다음과 같이 관리 대상 서버를 다시 시작합니다. a. 관리 콘솔에서 Environment(환경) > Servers(서버)를 누릅니다. Summary of Servers(서버 요약) 페이지가 표시됩니다. b. WLS1을 눌러서 관리 대상 서버(예: WLS1)를 선택합니다. Settings for WLS1(WLS1 에 대한 설정) 페이지가 표시됩니다. c. Control(제어) 탭을 누릅니다. Server Status(서버 상태) 테이블에서 WLS1 을 선택합 니다. Start(시작)를 누릅니다. Exalogic 소프트웨어 구성 237

Oracle Solaris에서 netstat를 사용하여 SDP 소켓 모니터링 Oracle Solaris에서 netstat를 사용하여 SDP 소켓 모니 터링 시스템에서 Oracle Exalogic Elastic Cloud Software를 포함하는 Oracle Solaris 11을 실 행 중인 응용 프로그램 도메인에 netstat 명령을 실행하여 SDP 소켓을 모니터할 수 있습니 다. 이러한 Oracle Solaris 11을 실행 중인 응용 프로그램 도메인과 데이터베이스 도메인에 netstat 명령을 실행하여 Oracle Solaris 11을 실행 중인 응용 프로그램 도메인과 데이터베 이스 도메인 사이의 SDP 트래픽을 모니터합니다. 운영 체제에 root로 로그인한 후 명령줄에서 다음 명령을 실행합니다. # netstat -f sdp -s l 이 명령은 다음 샘플 출력과 같이, 모든 SDP 소켓의 상태(설정됨 여부)를 표시합니다. SDP SDP sdpactiveopens sdpprfails sdpoutsegs sdpindatabytes sdpoutdatabytes = 66357 sdpcurrestab = 0 sdprejects =39985638793 =9450383834191 =6228930927986 sdpactiveopens sdpprfails sdpinsegs sdpoutsegs sdpindatabytes sdpoutdatabytes = 0 = 0 = 14547 = 14525 =3537194 =2470907 sdpcurrestab sdprejects = = = = 748 0 0 0 Exalogic 연결에 대해 SDP InfiniBand 리스너 구성 이 절은 시스템의 데이터베이스 도메인에 Oracle Exalogic Elastic Cloud Software를 연결 한 사용자를 대상으로 합니다. InfiniBand 네트워크에 SDP 리스너를 만드는 방법에 대해 설 명합니다. 시스템에서 SDP 지원 데이터 소스를 사용하는 각 데이터베이스 도메인에서 다음 작업을 수행합니다. InfiniBand 네트워크에 SDP 리스너 만들기 [238] InfiniBand 네트워크에 SDP 리스너 만들기 Oracle RAC 11g 릴리스 2는 여러 네트워크에서 클라이언트 연결을 지원하며, 이들이 연 결되어 있는 네트워크 내에 클라이언트 연결의 로드 균형 조정 및 페일오버를 제공합니다. Infiniband 네트워크로 들어오는 Oracle Exalogic Elastic Cloud Software 연결에 대해 리 스너를 추가하려면 먼저 가상 IP 주소를 사용하여 Infiniband 네트워크에 대한 네트워크 리 소스를 추가하십시오. 238 Oracle SuperCluster T5-8 2014년 10월

InfiniBand 네트워크에 SDP 리스너 만들기 참고 - 이 예제는 2개의 데이터베이스 도메인을 나열합니다. 시스템의 데이터베이스 도메인 이 2개보다 많은 경우 클러스터의 각 데이터베이스 도메인마다 데이터베이스 도메인 관련 라 인을 반복해야 합니다. 1. 클러스터의 각 데이터베이스 도메인에서 /etc/hosts를 편집하여 InfiniBand 네트워크에 사 용할 가상 IP 주소를 추가합니다. 해당 IP를 사용하고 있지 않은지 확인합니다. 예를 들면 다 음과 같습니다. # Added for Listener over IB 192.168.10.21 ssc01db01-ibvip.mycompany.com ssc01db01-ibvip 192.168.10.22 ssc01db02-ibvip.mycompany.com ssc01db02-ibvip 2. 데이터베이스 도메인 중 하나에서 root 사용자로 로그인하여 다음 예에서와 같이 InfiniBand 네트워크에 대한 네트워크 리소스를 만듭니다. # /u01/app/grid/product/11.2.0.2/bin/srvctl add network -k 2 -S 192.168.10.0/255.255.255.0/bondib0 3. 다음 명령 중 하나를 실행하여 네트워크가 올바르게 추가되었는지 검증합니다. # /u01/app/grid/product/11.2.0.2/bin/crsctl stat res -t grep net ora.net1.network ora.net2.network -- Output indicating new Network resource 또는 # /u01/app/grid/product/11.2.0.2/bin/srvctl config network -k 2 Network exists: 2/192.168.10.0/255.255.255.0/bondib0, type static -- Output indicating Network resource on the 192.168.10.0 subnet 4. 클러스터 내의 노드마다 2단계에서 만든 네트워크 가상 IP 주소를 추가합니다. srvctl add vip -n ssc01db01 -A ssc01db01-ibvip/255.255.255.0/bondib0 -k 2 srvctl add vip -n ssc01db02 -A ssc01db02-ibvip/255.255.255.0/bondib0 -k 2 5. "oracle" 사용자(Grid Infrastructure 홈의 소유자)로, 3단계에서 만든 VIP 주소를 수신할 리 스너를 추가합니다. srvctl add listener -l LISTENER_IB -k 2 -p TCP:1522,/SDP:1522 6. 중간 계층에서의 연결을 허용할 데이터베이스마다 여러 네트워크(이더넷 및 InfiniBand) 에서 로드 균형 조정 및 페일오버를 허용하도록 listener_networks init 매개변수를 수정 합니다. 초기화 매개변수에 전체 tnsnames 구문을 입력하거나, $ORACLE_HOME/network/ admin 디렉토리에 있는 tnsnames.ora에 항목을 만들 수 있습니다. TNSNAMES.ORA 항목 Exalogic 소프트웨어 구성 239

InfiniBand 네트워크에 SDP 리스너 만들기 은 GRID_HOME에 있어야 합니다. 다음 예에서는 먼저 tnsnames.ora를 업데이트합니다. 클러스터의 각 데이터베이스 도메인에서 해당 데이터베이스 도메인에 맞는 올바른 IP 주소를 사용하여 이 단계를 완료합니다. LISTENER_IBREMOTE 는 클러스터에 속한 다른 모든 데이 터베이스 도메인을 나열해야 합니다. DBM_IB 는 클러스터의 모든 데이터베이스 도메인을 나열해야 합니다. 참고 - TNSNAMES 항목은 시작 시 데이터베이스 인스턴스에 의해서만 읽힙니다. init.ora 매개변수에서 참조하는 항목(LISTENER_NETWORKS)을 수정할 경우 인스턴스를 다시 시작 하거나 ALTER SYSTEM SET LISTENER_NETWORKS 명령을 실행하여 인스턴스가 수정 사 항을 적용해야 합니다. (DESCRIPTION = DBM = (ADDRESS = (PROTOCOL = TCP)(HOST = ssc01-scan)(port = 1521)) (CONNECT_DATA = (SERVER = DEDICATED) (SERVICE_NAME = dbm) )) DBM_IB = (DESCRIPTION = (LOAD_BALANCE=on) (ADDRESS = (PROTOCOL = TCP)(HOST = ssc01db01-ibvip)(port = 1522)) (ADDRESS = (PROTOCOL = TCP)(HOST = ssc01db02-ibvip)(port = 1522)) (CONNECT_DATA = (SERVER = DEDICATED) (SERVICE_NAME = dbm) )) LISTENER_IBREMOTE = (DESCRIPTION = (ADDRESS_LIST = (ADDRESS = (PROTOCOL = TCP)(HOST = ssc01db02-ibvip.mycompany.com)(port = 1522)) )) LISTENER_IBLOCAL = (DESCRIPTION = (ADDRESS_LIST = (ADDRESS = (PROTOCOL = TCP)(HOST = ssc01db01-ibvip.mycompany.com)(port = 1522)) (ADDRESS = (PROTOCOL = SDP)(HOST = ssc01db01-ibvip.mycompany.com)(port = 1522)) )) LISTENER_IPLOCAL = (DESCRIPTION = (ADDRESS_LIST = (ADDRESS = (PROTOCOL = TCP)(HOST = ssc0101-vip.mycompany.com)(port = 1521)) )) LISTENER_IPREMOTE = (DESCRIPTION = (ADDRESS_LIST = 240 Oracle SuperCluster T5-8 2014년 10월

InfiniBand 네트워크에 SDP 리스너 만들기 (ADDRESS = (PROTOCOL = TCP)(HOST = ssc01-scan.mycompany.com)(port = 1521)) )) 7. listener_networks init 매개변수를 수정합니다. 데이터베이스 인스턴스에 sysdba로 연결합 니다. SQLPLUS> alter system set listener_networks='((name=network2) (LOCAL_LISTENER=LISTENER_IBLOCAL)(REMOTE_LISTENER=LISTENER_IBREMOTE))', '((NAME=network1)(LOCAL_LISTENER=LISTENER_IPLOCAL)(REMOTE_LISTENER=LISTENER_IPREMOTE))' scope=both; 8. 7단계에서 수정한 내용이 적용되도록 LISTENER_IB를 중지했다가 시작합니다. srvctl stop listener -l LISTENER_IB srvctl start listener -l LISTENER_IB Exalogic 소프트웨어 구성 241

242 Oracle SuperCluster T5-8 2014년 10월

내부 케이블 연결 이해 다음 항목은 Oracle SuperCluster T5-8에 대한 케이블 레이아웃을 보여줍니다. 커넥터 위치 [243] InfiniBand 패브릭 연결 식별 [250] 이더넷 관리 스위치 연결 [253] ZFS Storage Appliance 연결 [255] 단상 PDU 케이블 연결 [256] 3상 PDU 케이블 연결 [257] 커넥터 위치 Oracle SuperCluster T5-8에서 IB(InfiniBand) 패브릭은 아래에 나열된 IB 스위치와 서버를 함께 연결합니다. IB 케이블에 대한 자세한 내용은 InfiniBand 패브릭 연결 식 별 [250]을 참조하십시오. 또한 이더넷 관리 스위치도 아래에 나열된 서버에 연결됩니다. 1Gb/s Cat 5E 케이블 연결에 대한 자세한 내용은 이더넷 관리 스위치 연결 [253]를 참조하십시오. 이 절에는 다음 그림이 있습니다. Sun Datacenter InfiniBand Switch 36(그림 25. Sun Datacenter InfiniBand Switch 36 ): IB 스파인 스위치(슬롯 U1) IB 리프 스위치 번호 1(슬롯 U26) IB 리프 스위치 번호 2(슬롯 U32) SPARC T5-8 서버(그림 26. SPARC T5-8 서버 카드 위치(풀 랙), 그림 27. SPARC T5-8 서버 카드 위치(하프 랙) 및 그림 28. SPARC T5-8 서버의 NET MGT 및 NET0-3 포트 위치 ): SPARC T5-8 번호 1(슬롯 10) SPARC T5-8 번호 2(슬롯 18) ZFS 저장소 컨트롤러(그림 29. ZFS 저장소 컨트롤러 ): ZFS 저장소 컨트롤러 번호 1(슬롯 33) 내부 케이블 연결 이해 243

커넥터 위치 ZFS 저장소 컨트롤러 번호 2(슬롯 34) Exadata Storage Server(그림 30. Exadata Storage Server ): Exadata Storage Server 1(슬롯 2) Exadata Storage Server 2(슬롯 4) Exadata Storage Server 3(슬롯 6) Exadata Storage Server 4(슬롯 8) Exadata Storage Server 번호 5(슬롯 35)(풀 랙만 해당) Exadata Storage Server 번호 6(슬롯 37)(풀 랙만 해당) Exadata Storage Server 번호 7(슬롯 39)(풀 랙만 해당) Exadata Storage Server 번호 8(슬롯 41)(풀 랙만 해당) 이더넷 관리 스위치(그림 31. 이더넷 관리 스위치(Cisco Catalyst 4948 이더넷 스위 치) ) PDU 회로 차단기 및 AC 소켓(그림 32. PDU 회로 차단기 및 AC 소켓 ) 그림 25 Sun Datacenter InfiniBand Switch 36 그림 범례 1 2 3 244 NET MGT 0 및 NET MGT 1 포트 InfiniBand 포트 0A-17A(위쪽 포트) InfiniBand 포트 0B-17B(아래쪽 포트) Oracle SuperCluster T5-8 2014년 10월

커넥터 위치 그림 26 SPARC T5-8 서버 카드 위치(풀 랙) 그림 범례 1 2 이중 포트 10GbE 네트워크 인터페이스 카드, 10GbE 클라이언트 액세스 네트워크 연결용 이중 포트 InfiniBand 호스트 채널 어댑터, InfiniBand 네트워크 연결용 내부 케이블 연결 이해 245

커넥터 위치 그림 27 SPARC T5-8 서버 카드 위치(하프 랙) 그림 범례 1 2 246 이중 포트 10GbE 네트워크 인터페이스 카드, 10GbE 클라이언트 액세스 네트워크 연결용 이중 포트 InfiniBand 호스트 채널 어댑터, InfiniBand 네트워크 연결용 Oracle SuperCluster T5-8 2014년 10월

커넥터 위치 그림 28 SPARC T5-8 서버의 NET MGT 및 NET0-3 포트 위치 그림 범례 1 2 NET MGT 포트, Oracle ILOM 관리 네트워크 연결용 NET0-NET3 포트, 1GbE 호스트 관리 네트워크 연결용 그림 29 ZFS 저장소 컨트롤러 그림 범례 1 2 3 4 5 6 7 8 전원 공급 장치 1 전원 공급 장치 2 시스템 상태 LED 직렬 관리 포트 서비스 프로세서 네트워크 관리 포트 기가비트 이더넷 포트 NET 0, 1, 2, 3 USB 포트 0, 1 HD15 비디오 커넥터 내부 케이블 연결 이해 247

커넥터 위치 그림 30 Exadata Storage Server 그림 범례 1 2 3 4 5 6 7 8 전원 공급 장치 1 전원 공급 장치 2 시스템 상태 LED 직렬 관리 포트 서비스 프로세서 네트워크 관리 포트 기가비트 이더넷 포트 NET 0, 1, 2, 3 USB 포트 0, 1 HD15 비디오 커넥터 그림 31 이더넷 관리 스위치(Cisco Catalyst 4948 이더넷 스위치) 그림 범례 1 2 3 4 5 6 248 표시기 및 재설정 스위치 포트 1-16, 10/100/1000BASE-T 이더넷 포트 17-32, 10/100/1000BASE-T 이더넷 포트 33-48, 10/100/1000BASE-T 이더넷 CON(위쪽), MGT(아래쪽) 포트 45-48, 10 기가비트 이더넷 Oracle SuperCluster T5-8 2014년 10월

커넥터 위치 그림 32 PDU 회로 차단기 및 AC 소켓 그림 범례 1 2 PDU A PDU B 내부 케이블 연결 이해 249

InfiniBand 패브릭 연결 식별 InfiniBand 패브릭 연결 식별 이 항목에서는 다음과 같은 IB(InfiniBand) 연결을 보여줍니다. 참고 - 1Gb/s 이더넷의 경우 이더넷 관리 스위치 연결 [253]를 참조하십시오. IB 스파인 스위치 [250] IB 리프 스위치 번호 1 [250] IB 리프 스위치 번호 2 [252] IB 스파인 스위치 스파인 스위치 포트 대상 장치 장치 위치 장치 포트 U1 1B 리프 스위치 1 U26 8B U1 0B 리프 스위치 2 U32 8B IB 리프 스위치 번호 1 250 리프 스위치 1 포트 대상 장치 장치 위치 장치 포트 U26 0A T5-8 번호 2 U18 PCIE-16 P2 U26 0B T5-8 번호 2(풀 랙) U18 PCIE-15 P2 U26 1A T5-8 번호 2 U18 PCIE-8 P2 U26 1B T5-8 번호 2(풀 랙) U18 PCIE-7 P2 U26 2A U26 2B U26 3A ZFS 저장소 컨트롤러 번호 2 U34 PCIE-0 P1 U26 3B T5-8 번호 2(풀 랙) U18 PCIE-12 P2 U26 4A T5-8 번호 2 U18 PCIE-11 P2 U26 4B T5-8 번호 2(풀 랙) U18 PCIE-4 P2 U26 5A T5-8 번호 2 U18 PCIE-3 P2 U26 5B T5-8 번호 1 U10 PCIE-16 P1 Oracle SuperCluster T5-8 2014년 10월

InfiniBand 패브릭 연결 식별 리프 스위치 1 포트 대상 장치 장치 위치 장치 포트 U26 6A T5-8 번호 1(풀 랙) U10 PCIE-15 P1 U26 6B T5-8 번호 1 U10 PCIE-8 P1 U26 7A T5-8 번호 1(풀 랙) U10 PCIE-7 P1 U26 7B Exadata Storage Server 번호 8(풀 랙) U41 PCIE-3 P2 U26 8A IB 리프 스위치 2 U32 8A U26 8B IB 스파인 스위치 U1 1B U26 9A IB 리프 스위치 2 U32 9B U26 9B IB 리프 스위치 2 U32 9A U26 10A IB 리프 스위치 2 U32 10B U26 10B IB 리프 스위치 2 U32 10A U26 11A IB 리프 스위치 2 U32 11B U26 11B IB 리프 스위치 2 U32 11A U26 12A Exadata Storage Server 번호 7(풀 랙) U39 PCIE-3 P1 U26 12B T5-8 번호 1(풀 랙) U10 PCIE-12 P1 U26 13A T5-8 번호 1 U10 PCIE-11 P1 U26 13B T5-8 번호 1(풀 랙) U10 PCIE-4 P1 U26 14A T5-8 번호 1 U10 PCIE-3 P1 U26 14B ZFS 저장소 컨트롤러 번호 1 U33 PCIE-0 P1 U26 15A Exadata Storage Server 번호 6(풀 랙) U37 PCIE-3 P2 U26 15B Exadata Storage Server 번호 5(풀 랙) U35 PCIE-3 P2 U26 16A Exadata Storage Server 번호 4 U8 PCIE-3 P2 U26 16B Exadata Storage Server 번호 3 U6 PCIE-3 P1 U26 17A Exadata Storage Server 번호 2 U4 PCIE-3 P1 U26 17B Exadata Storage Server 번호 1 U2 PCIE-3 P1 내부 케이블 연결 이해 251

InfiniBand 패브릭 연결 식별 IB 리프 스위치 번호 2 252 리프 스위치 2 포트 대상 장치 장치 위치 장치 포트 U32 0A T5-8 번호 2 U18 PCIE-16 P1 U32 0B T5-8 번호 2(풀 랙) U18 PCIE-15 P1 U32 1A T5-8 번호 2 U18 PCIE-8 P1 U32 1B T5-8 번호 2(풀 랙) U18 PCIE-7 P1 U32 2A U32 2B U32 3A ZFS 저장소 컨트롤러 번호 2 U34 PCIE-0 P2 U32 3B T5-8 번호 2(풀 랙) U18 PCIE-12 P1 U32 4A T5-8 번호 2 U18 PCIE-11 P1 U32 4B T5-8 번호 2(풀 랙) U18 PCIE-4 P1 U32 5A T5-8 번호 2 U18 PCIE-3 P1 U32 5B T5-8 번호 1 U10 PCIE-16 P2 U32 6A T5-8 번호 1(풀 랙) U10 PCIE-15 P2 U32 6B T5-8 번호 1 U10 PCIE-8 P2 U32 7A T5-8 번호 1(풀 랙) U10 PCIE-7 P2 U32 7B Exadata Storage Server 번호 8(풀 랙) U41 PCIE 3 P1 U32 8A IB 리프 스위치 1 U26 8A U32 8B IB 스파인 스위치 U1 0B U32 9A IB 리프 스위치 1 U26 9B U32 9B IB 리프 스위치 1 U26 9A U32 10A IB 리프 스위치 1 U26 10B U32 10B IB 리프 스위치 1 U26 10A U32 11A IB 리프 스위치 1 U26 11B U32 11B IB 리프 스위치 1 U26 11A U32 12A Exadata Storage Server 번호 7(풀 랙) U39 PCIE 3 P2 U32 12B T5-8 번호 1(풀 랙) U10 PCIE-12 P2 U32 13A T5-8 번호 1 U10 PCIE-11 P2 Oracle SuperCluster T5-8 2014년 10월

이더넷 관리 스위치 연결 리프 스위치 2 포트 대상 장치 장치 위치 장치 포트 U32 13B T5-8 번호 1(풀 랙) U10 PCIE-4 P2 U32 14A T5-8 번호 1 U10 PCIE-3 P2 U32 14B ZFS 저장소 컨트롤러 번호 1 U33 PCIE-0 P2 U32 15A Exadata Storage Server 번호 6(풀 랙) U37 PCIE 3 P1 U32 15B Exadata Storage Server 번호 5(풀 랙) U35 PCIE 3 P1 U32 16A Exadata Storage Server 번호 4 U8 PCIE 3 P1 U32 16B Exadata Storage Server 번호 3 U6 PCIE-3 P2 U32 17A Exadata Storage Server 번호 2 U4 PCIE-3 P2 U32 17B Exadata Storage Server 번호 1 U2 PCIE-3 P2 이더넷 관리 스위치 연결 이더넷 관리 스위치(Cisco Catalyst 4948 10 기가비트 이더넷 스위치, 그림 31. 이더넷 관리 스위치(Cisco Catalyst 4948 이더넷 스위치) )는 위치 U27의 Oracle SuperCluster T5-8에 있습니다. 이더넷 관리 스위치는 다음 표에 나열된 포트를 통해 SPARC T5-8 서버, ZFS 저장소 컨트롤 러, Exadata Storage Server 및 PDU에 연결됩니다. 다음 표에는 이더넷 관리 스위치용 케이블이 나열되어 있습니다. 참고 - 이더넷 관리 스위치 포트 번호 45, 46, 47 및 48은 항목 4(10BASE-T/100BASE- TX/1000BASE-T 이더넷) 및 항목 6(1000BASE-X 이더넷) 간에 공유됩니다. 참고 - 이더넷 관리 스위치 포트 1, 2, 3 및 4는 이 때 사용되지 않습니다. 이더넷 스 위치 포트 대상 장치 장치 위치 장치 포트 케이블 1 내부 케이블 연결 이해 253

이더넷 관리 스위치 연결 이더넷 스 위치 포트 대상 장치 장치 위치 장치 포트 케이블 2 3 4 5 6 7 8 9 10 11 Exadata Storage Server 번호 8(풀 랙) U41 NET 0 검은색, 10피트 12 Exadata Storage Server 번호 8(풀 랙) U41 NET MGT 빨간색, 10피트 13 Exadata Storage Server 번호 7(풀 랙) U39 NET-0 검은색, 10피트 14 Exadata Storage Server 번호 7(풀 랙) U39 NET MGT 빨간색, 10피트 15 PDU-A PDU-A NET MGT 흰색, 1m 16 T5-8 번호 2 U18 NET-1 검은색, 10피트 17 T5-8 번호 2 U18 NET-0 검은색, 10피트 18 T5-8 번호 2 U18 NET MGT 빨간색, 10피트 19 PDU-B PDU-B NET MGT 흰색, 1m 20 T5-8 번호 2 U18 NET-2 검은색, 10피트 21 T5-8 번호 1 U10 NET-0 검은색, 10피트 22 T5-8 번호 1 U10 NET MGT 빨간색, 10피트 23 ZFS 저장소 컨트롤러 번호 2 U34 NET-1 파란색, 10피트 24 T5-8 번호 2 U18 NET-3 검은색, 10피트 25 ZFS 저장소 컨트롤러 번호 2 U34 NET-0 파란색, 10피트 26 T5-8 번호 1 U10 NET-1 검은색, 10피트 27 ZFS 저장소 컨트롤러 번호 2 U34 NET-2 파란색, 10피트 28 T5-8 번호 1 U10 NET-2 검은색, 10피트 29 ZFS 저장소 컨트롤러 번호 1 U33 NET-1 파란색, 10피트 30 T5-8 번호 1 U10 NET-3 검은색, 10피트 31 ZFS 저장소 컨트롤러 번호 1 U33 NET-0 파란색, 10피트 254 Oracle SuperCluster T5-8 2014년 10월

ZFS Storage Appliance 연결 이더넷 스 위치 포트 대상 장치 장치 위치 장치 포트 케이블 32 ZFS 저장소 컨트롤러 번호 1 U33 NET-2 파란색, 10피트 33 Exadata Storage Server 번호 6(풀 랙) U37 NET-0 검은색, 10피트 34 Exadata Storage Server 번호 6(풀 랙) U37 NET MGT 빨간색, 10피트 35 Exadata Storage Server 번호 5(풀 랙) U35 NET-0 검은색, 10피트 36 Exadata Storage Server 번호 5(풀 랙) U35 NET MGT 빨간색, 10피트 37 Exadata Storage Server 번호 4 U8 NET-0 검은색, 10피트 38 Exadata Storage Server 번호 4 U8 NET MGT 빨간색, 10피트 39 Exadata Storage Server 번호 3 U6 NET-0 검은색, 10피트 40 Exadata Storage Server 번호 3 U6 NET MGT 빨간색, 10피트 41 Exadata Storage Server 번호 2 U4 NET-0 검은색, 10피트 42 Exadata Storage Server 번호 2 U4 NET MGT 빨간색, 10피트 43 Exadata Storage Server 번호 1 U2 NET-0 검은색, 10피트 44 Exadata Storage Server 번호 1 U2 NET MGT 빨간색, 10피트 45 Sun Datacenter InfiniBand Switch 36 리프 번호 2 U32 NET-0 검은색, 10피트 46 Sun Datacenter InfiniBand Switch 36 리프 번호 1 U26 NET-0 검은색, 10피트 47 Sun Datacenter Infiniband Switch 36 스파인 U1 NET-0 검은색, 10피트 48 (서비스 액세스를 위해 예약됨) 파란색, 10피트 ZFS Storage Appliance 연결 이러한 연결은 다음과 같은 주요 구성 요소를 위한 것입니다. ZFS 저장소 컨트롤러 번호 1(U33) ZFS 저장소 컨트롤러 번호 2(U34) Sun Disk Shelf(U28) 소스 저장소 제어기 슬 롯 저장소 제어기 포트 대상 슬롯 대상 포트 케이블 U33 PCIE-1 P0 U34 PCIE-1 P2 노란색, 7피트 U33 PCIE-1 P1 U34 PCIE-1 P1 검은색, 7피트 U33 PCIE-1 P2 U34 PCIE-1 P0 녹색, 7피트 내부 케이블 연결 이해 255

단상 PDU 케이블 연결 소스 저장소 제어기 슬 롯 저장소 제어기 포트 대상 슬롯 대상 포트 케이블 U34 PCIE-2 P1 U28 IOM0 P0 검은색, 2m U33 PCIE-2 P1 U28 IOM0 P2 검은색, 2m U34 PCIE-2 P0 U28 IOM1 P0 검은색, 2m U33 PCIE-2 P0 U28 IOM1 P2 검은색, 2m 단상 PDU 케이블 연결 랙이 단상 AC 전원을 사용하는 경우 다음 표에 표시된 것처럼 랙의 장치를 배전 장치(Power Distribution Unit, PDU)에 연결합니다. 각 장치에는 예비 전원용 전원 코드 2개가 필요합니 다. 주의 - 전원 코드를 PDU에 연결하기 전에 모든 PDU 회로 차단기를 끕니다. 모든 소켓 그룹에 는 회로 차단기가 있습니다. PDU 회로 차단기의 위치 및 PDU AC 소켓의 이름은 그림 32. PDU 회로 차단기 및 AC 소 켓 을 참조하십시오. 슬롯 PDU-A/PSU-0 PDU-B/PSU-0 PDU-A/PSU-1 PDU-B/PSU-1 (T5-8 AC0) (T5-8 AC2) (T5-8 AC1) (T5-8 AC3) U41 그룹 5-6 그룹 0-0 Exadata Storage Server 번호 8(풀 랙) U39 그룹 5-5 그룹 0-1 Exadata Storage Server 번호 7(풀 랙) U37 그룹 5-4 그룹 0-2 Exadata Storage Server 번호 6(풀 랙) U35 그룹 5-3 그룹 0-3 Exadata Storage Server 번호 5(풀 랙) U34 그룹 5-2 그룹 0-4 ZFS 저장소 컨트롤러 번호 2 U33 그룹 5-1 그룹 0-5 ZFS 저장소 컨트롤러 번호 1 U32 그룹 5-0 그룹 0-6 Sun Datacenter InfiniBand Switch 36 리프 스위치 번호 2 U28 그룹 4-6 그룹 1-0 Sun Disk Shelf U27 그룹 3-5 그룹 2-1 이더넷 관리 스위치 256 Oracle SuperCluster T5-8 2014년 10월 대상 장치

3상 PDU 케이블 연결 슬롯 PDU-A/PSU-0 PDU-B/PSU-0 PDU-A/PSU-1 PDU-B/PSU-1 (T5-8 AC0) (T5-8 AC2) (T5-8 AC1) (T5-8 AC3) 대상 장치 U26 그룹 3-6 그룹 2-0 Sun Datacenter InfiniBand Switch 36 리프 스위치 번호 1 U18 그룹 3-7 그룹 2-7 그룹 4-7 그룹 1-7 SPARC T5-8 번호 2 U10 그룹 1-7 그룹 4-7 그룹 2-7 그룹 3-7 SPARC T5-8 번호 1 U8 그룹 0-4 그룹 5-2 Exadata Storage Server 번호 4 U6 그룹 0-3 그룹 5-3 Exadata Storage Server 번호 3 U4 그룹 0-2 그룹 5-4 Exadata Storage Server 번호 2 U2 그룹 0-1 그룹 5-5 Exadata Storage Server 번호 1 U1 그룹 0-0 그룹 5-6 Sun Datacenter Infiniband Switch 36 스파인 스위치 3상 PDU 케이블 연결 3상 AC 전원의 경우 다음 표와 같이 랙의 장치를 PDU(전원 분배 장치)에 연결합니다. 각 장 치에는 예비 전원용 전원 코드 2개가 필요합니다. 주의 - 전원 코드를 PDU에 연결하기 전에 모든 PDU 회로 차단기를 끕니다. 모든 소켓 그룹에 는 회로 차단기가 있습니다. PDU 회로 차단기의 위치 및 PDU AC 소켓의 이름은 그림 32. PDU 회로 차단기 및 AC 소 켓 을 참조하십시오. 슬롯 PDU-A/PSU-0 PDU-B/PSU-0 PDU-A/PSU-1 PDU-B/PSU-1 대상 장치 (T5-8 AC0) (T5-8 AC2) (T5-8 AC1) (T5-8 AC3) U41 그룹 5-6 그룹 2-0 Exadata Storage Server 번호 8(풀 랙) U39 그룹 5-5 그룹 2-1 Exadata Storage Server 번호 7(풀 랙) U37 그룹 5-4 그룹 2-2 Exadata Storage Server 번호 6(풀 랙) U35 그룹 5-3 그룹 2-3 Exadata Storage Server 번호 5(풀 랙) U34 그룹 5-2 그룹 2-4 ZFS 저장소 컨트롤러 번호 2 내부 케이블 연결 이해 257

3상 PDU 케이블 연결 슬롯 PDU-A/PSU-0 PDU-B/PSU-0 PDU-A/PSU-1 PDU-B/PSU-1 (T5-8 AC0) (T5-8 AC2) (T5-8 AC1) (T5-8 AC3) U33 그룹 5-1 그룹 2-5 ZFS 저장소 컨트롤러 번호 1 U32 그룹 5-0 그룹 2-6 Sun Datacenter InfiniBand Switch 36 리프 스위치 번호 2 U28 그룹 4-6 그룹 1-0 Sun Disk Shelf U27 그룹 3-5 그룹 0-1 이더넷 관리 스위치 U26 그룹 3-6 그룹 0-0 Sun Datacenter InfiniBand Switch 36 리프 스위치 번호 1 U18 그룹 3-7 그룹 0-7 그룹 4-7 그룹 1-7 SPARC T5-8 번호 2 U10 그룹 1-7 그룹 4-7 그룹 2-7 그룹 5-7 SPARC T5-8 번호 1 U8 그룹 0-4 그룹 3-2 Exadata Storage Server 번호 4 U6 그룹 0-3 그룹 3-3 Exadata Storage Server 번호 3 U4 그룹 0-2 그룹 3-4 Exadata Storage Server 번호 2 U2 그룹 0-1 그룹 3-5 Exadata Storage Server 번호 1 U1 그룹 0-0 그룹 3-6 Sun Datacenter Infiniband Switch 36 스파인 스위치 258 Oracle SuperCluster T5-8 2014년 10월 대상 장치

다중 Oracle SuperCluster T5-8 시스템 연결 다음 항목은 하나의 Oracle SuperCluster T5-8을 하나 이상의 Oracle SuperCluster T5-8 시스템에 연결하는 작업에 대한 지침을 제공합니다. 다중 랙 케이블 연결 개요 [259] 두 개의 랙 케이블 연결 [261] 세 개의 랙 케이블 연결 [263] 네 개의 랙 케이블 연결 [265] 다섯 개의 랙 케이블 연결 [268] 여섯 개의 랙 케이블 연결 [271] 일곱 개의 랙 케이블 연결 [275] 여덟 개의 랙 케이블 연결 [280] 다중 랙 케이블 연결 개요 3개의 Sun Datacenter InfiniBand Switch 36 스위치를 사용해서 다중 Oracle SuperCluster T5-8 시스템을 연결합니다. Oracle SuperCluster T5-8은 3개의 Sun Datacenter InfiniBand Switch 36 스위치를 포함합니다. 이러한 스위치는 InfiniBand 케이 블의 끝에 있는 표준 QSFP(Quad Small Form-factor Pluggable) 커넥터에 연결할 수 있습 니다. 이 절의 절차는 랙이 서로 인접해 있다고 가정합니다. 그렇지 않을 경우 연결하는 데 더 긴 케이블이 필요할 수 있습니다. 랙 장치 1(U1)에 있는 스위치를 스파인 스위치라고 합니다. 랙 장치 26(U26) 및 랙 장치 32(U32)에 있는 스위치는 리프 스위치라고 합니다. 단일 랙의 경우 두 개의 리프 스위치가 7 개의 연결을 사용하여 서로 연결됩니다. 또한 각 리프 스위치에는 스파인 스위치에 대한 연결 이 한 개 있습니다. 리프 스위치는 다음 그림에 표시된 것과 같이 스파인 스위치에 연결됩니 다. 다중 Oracle SuperCluster T5-8 시스템 연결 259

다중 랙 케이블 연결 개요 여러 개의 랙을 함께 연결할 경우 리프 스위치 간 7개의 기존 연결 및 리프 스위치와 스파인 스위치 간 두 개의 연결을 제거하십시오. 각 리프 스위치에서 8개의 연결을 모든 랙에 있는 스파인 스위치에 분배하십시오. 다음 그림에 표시된 것과 같이, 복수 랙 환경에서는 한 랙 내 에 있는 리프 스위치를 더 이상 서로 연결할 수 없습니다. 260 Oracle SuperCluster T5-8 2014년 10월

두 개의 랙 케이블 연결 위 그림에 표시된 것과 갈이, 랙 1의 각 리프 스위치는 다음 스위치에 연결됩니다. 내부 스파인 스위치에 대한 네 개의 연결 랙 2의 스파인 스위치에 대한 네 개의 연결 랙 1의 스파인 스위치는 다음 스위치에 연결됩니다. 두 내부 리프 스위치에 대한 8개의 연결 랙 2의 두 리프 스위치에 대한 8개의 연결 Oracle SuperCluster T5-8에서 스파인 스위치와 리프 스위치는 다음 위치에 설치됩니다. U1에 스파인 스위치 U26 및 U32에 리프 스위치 2개 두 개의 랙 케이블 연결 다음 표는 풀 랙 두 개를 함께 케이블로 연결할 경우 첫번째 스파인 스위치(R1-U1)에 대한 케이블 연결을 보여줍니다. 표 14 두 개 랙 시스템의 첫번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 1 내부의 R1-U32 R1-U32-P8A ~ R1-U1-P3A 다중 Oracle SuperCluster T5-8 시스템 연결 261

두 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R1-U32-P8B ~ R1-U1-P4A R1-U32-P9A ~ R1-U1-P5A R1-U32-P9B ~ R1-U1-P6A R1-U32를 랙 2로 R1-U32-P10A ~ R2-U1-P7A R1-U32-P10B ~ R2-U1-P8A R1-U32-P11A ~ R2-U1-P9A R1-U32-P11B ~ R2-U1-P10A 랙 1 내부의 R1-U26 R1-U26-P8A ~ R1-U1-P3B R1-U26-P8B ~ R1-U1-P4B R1-U26-P9A ~ R1-U1-P5B R1-U26-P9B ~ R1-U1-P6B R1-U26을 랙 2로 R1-U26-P10A ~ R2-U1-P7B R1-U26-P10B ~ R2-U1-P8B R1-U26-P11A ~ R2-U1-P9B R1-U26-P11B ~ R2-U1-P10B 다음 표는 풀 랙 두 개를 함께 케이블로 연결할 경우 두번째 스파인 스위치(R2-U1)에 대한 케이블 연결을 보여줍니다. 표 15 두 개 랙 시스템의 두번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 2 내부의 R2-U32 R2-U32-P8A ~ R2-U1-P3A R2-U32-P8B ~ R2-U1-P4A R2-U32-P9A ~ R2-U1-P5A R2-U32-P9B ~ R2-U1-P6A R2-U32를 랙 1로 R2-U32-P10A ~ R1-U1-P7A R2-U32-P10B ~ R1-U1-P8A R2-U32-P11A ~ R1-U1-P9A R2-U32-P11B ~ R1-U1-P10A 랙 2 내부의 R2-U26 R2-U26-P8A ~ R2-U1-P3B R2-U26-P8B ~ R2-U1-P4B R2-U26-P9A ~ R2-U1-P5B 262 Oracle SuperCluster T5-8 2014년 10월

세 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R2-U26-P9B ~ R2-U1-P6B R2-U26을 랙 1로 R2-U26-P10A ~ R1-U1-P7B R2-U26-P10B ~ R1-U1-P8B R2-U26-P11A ~ R1-U1-P9B R2-U26-P11B ~ R1-U1-P10B 세 개의 랙 케이블 연결 다음 표는 풀 랙 세 개를 함께 케이블로 연결할 경우 첫번째 스파인 스위치(R1-U1)에 대한 케이블 연결을 보여줍니다. 표 16 세 개 랙 시스템의 첫번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 1 내부의 R1-U32 R1-U32-P8A ~ R1-U1-P3A R1-U32-P8B ~ R1-U1-P4A R1-U32-P9A ~ R1-U1-P5A R1-U32를 랙 2로 R1-U32-P9B ~ R2-U1-P6A R1-U32-P10A ~ R2-U1-P7A R1-U32-P10B ~ R2-U1-P8A R1-U32를 랙 3으로 R1-U32-P11A ~ R3-U1-P9A R1-U32-P11B ~ R3-U1-P10A 랙 1 내부의 R1-U26 R1-U26-P8A ~ R1-U1-P3B R1-U26-P8B ~ R1-U1-P4B R1-U26-P9A ~ R1-U1-P5B R1-U26을 랙 2로 R1-U26-P9B ~ R2-U1-P6B R1-U26-P10A ~ R2-U1-P7B R1-U26-P10B ~ R2-U1-P8B R1-U26을 랙 3으로 R1-U26-P11A ~ R3-U1-P9B R1-U26-P11B ~ R3-U1-P10B 다음 표는 풀 랙 세 개를 함께 케이블로 연결할 경우 두번째 스파인 스위치(R2-U1)에 대한 케이블 연결을 보여줍니다. 다중 Oracle SuperCluster T5-8 시스템 연결 263

세 개의 랙 케이블 연결 표 17 세 개 랙 시스템의 두번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 2 내부의 R2-U32 R2-U32-P8A ~ R2-U1-P3A R2-U32-P8B ~ R2-U1-P4A R2-U32-P9A ~ R2-U1-P5A R2-U32를 랙 1로 R2-U32-P11A ~ R1-U1-P9A R2-U32-P11B ~ R1-U1-P10A R2-U32를 랙 3으로 R2-U32-P9B ~ R3-U1-P6A R2-U32-P10A ~ R3-U1-P7A R2-U32-P10B ~ R3-U1-P8A 랙 2 내부의 R2-U26 R2-U26-P8A ~ R2-U1-P3B R2-U26-P8B ~ R2-U1-P4B R2-U26-P9A ~ R2-U1-P5B R2-U26을 랙 1로 R2-U26-P11A ~ R1-U1-P9B R2-U26-P11B ~ R1-U1-P10B R2-U26을 랙 3으로 R2-U26-P9B ~ R3-U1-P6B R2-U26-P10A ~ R3-U1-P7B R2-U26-P10B ~ R3-U1-P8B 다음 표는 풀 랙 세 개를 함께 케이블로 연결할 경우 세번째 스파인 스위치(R3-U1)에 대한 케이블 연결을 보여줍니다. 표 18 세 개 랙 시스템의 세번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 3 내부의 R3-U32 R3-U32-P8A ~ R3-U1-P3A R3-U32-P8B ~ R3-U1-P4A R3-U32-P9A ~ R3-U1-P5A R3-U32를 랙 1로 R3-U32-P9B ~ R1-U1-P6A R3-U32-P10A ~ R1-U1-P7A R3-U32-P10B ~ R1-U1-P8A R3-U32를 랙 2로 R3-U32-P11A ~ R2-U1-P9A R3-U32-P11B ~ R2-U1-P10A 랙 3 내부의 R3-U26 264 Oracle SuperCluster T5-8 2014년 10월 R3-U26-P8A ~ R3-U1-P3B

네 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R3-U26-P8B ~ R3-U1-P4B R3-U26-P9A ~ R3-U1-P5B R3-U26을 랙 1로 R3-U26-P9B ~ R1-U1-P6B R3-U26-P10A ~ R1-U1-P7B R3-U26-P10B ~ R1-U1-P8B R3-U26을 랙 2로 R3-U26-P11A ~ R2-U1-P9B R3-U26-P11B ~ R2-U1-P10B 네 개의 랙 케이블 연결 다음 표는 풀 랙 네 개를 함께 케이블로 연결할 경우 첫번째 스파인 스위치(R1-U1)에 대한 케이블 연결을 보여줍니다. 표 19 네 개 랙 시스템의 첫번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 1 내부의 R1-U32 R1-U32-P8A ~ R1-U1-P3A R1-U32-P8B ~ R1-U1-P4A R1-U32를 랙 2로 R1-U32-P9A ~ R2-U1-P5A R1-U32-P9B ~ R2-U1-P6A R1-U32를 랙 3으로 R1-U32-P10A ~ R3-U1-P7A R1-U32-P10B ~ R3-U1-P8A R1-U32를 랙 4로 R1-U32-P11A ~ R4-U1-P9A R1-U32-P11B ~ R4-U1-P10A 랙 1 내부의 R1-U26 R1-U26-P8A ~ R1-U1-P3B R1-U26-P8B ~ R1-U1-P4B R1-U26을 랙 2로 R1-U26-P9A ~ R2-U1-P5B R1-U26-P9B ~ R2-U1-P6B R1-U26을 랙 3으로 R1-U26-P10A ~ R3-U1-P7B R1-U26-P10B ~ R3-U1-P8B R1-U26을 랙 4로 R1-U26-P11A ~ R4-U1-P9B R1-U26-P11B ~ R4-U1-P10B 다중 Oracle SuperCluster T5-8 시스템 연결 265

네 개의 랙 케이블 연결 다음 표는 풀 랙 네 개를 함께 케이블로 연결할 경우 두번째 스파인 스위치(R2-U1)에 대한 케이블 연결을 보여줍니다. 표 20 네 개 랙 시스템의 두번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 2 내부의 R2-U32 R2-U32-P8A ~ R2-U1-P3A R2-U32-P8B ~ R2-U1-P4A R2-U32를 랙 1로 R2-U32-P11A ~ R1-U1-P9A R2-U32-P11B ~ R1-U1-P10A R2-U32를 랙 3으로 R2-U32-P9A ~ R3-U1-P5A R2-U32-P9B ~ R3-U1-P6A R2-U32를 랙 4로 R2-U32-P10A ~ R4-U1-P7A R2-U32-P10B ~ R4-U1-P8A 랙 2 내부의 R2-U26 R2-U26-P8A ~ R2-U1-P3B R2-U26-P8B ~ R2-U1-P4B R2-U26을 랙 1로 R2-U26-P11A ~ R1-U1-P9B R2-U26-P11B ~ R1-U1-P10B R2-U26을 랙 3으로 R2-U26-P9A ~ R3-U1-P5B R2-U26-P9B ~ R3-U1-P6B R2-U26을 랙 4로 R2-U26-P10A ~ R4-U1-P7B R2-U26-P10B ~ R4-U1-P8B 다음 표는 풀 랙 네 개를 함께 케이블로 연결할 경우 세번째 스파인 스위치(R3-U1)에 대한 케이블 연결을 보여줍니다. 표 21 네 개 랙 시스템의 세번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 3 내부의 R3-U32 R3-U32-P8A ~ R3-U1-P3A R3-U32-P8B ~ R3-U1-P4A R3-U32를 랙 1로 R3-U32-P10A ~ R1-U1-P7A R3-U32-P10B ~ R1-U1-P8A R3-U32를 랙 2로 R3-U32-P11A ~ R2-U1-P9A R3-U32-P11B ~ R2-U1-P10A 266 Oracle SuperCluster T5-8 2014년 10월

네 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R3-U32를 랙 4로 R3-U32-P9A ~ R4-U1-P5A R3-U32-P9B ~ R4-U1-P6A 랙 3 내부의 R3-U26 R3-U26-P8A ~ R3-U1-P3B R3-U26-P8B ~ R3-U1-P4B R3-U26을 랙 1로 R3-U26-P10A ~ R1-U1-P7B R3-U26-P10B ~ R1-U1-P8B R3-U26을 랙 2로 R3-U26-P11A ~ R2-U1-P9B R3-U26-P11B ~ R2-U1-P10B R3-U26을 랙 4로 R3-U26-P9A ~ R4-U1-P5B R3-U26-P9B ~ R4-U1-P6B 다음 표는 풀 랙 네 개를 함께 케이블로 연결할 경우 네번째 스파인 스위치(R4-U1)에 대한 케이블 연결을 보여줍니다. 표 22 네 개 랙 시스템의 네번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 4 내부의 R4-U32 R4-U32-P8A ~ R4-U1-P3A R4-U32-P8B ~ R4-U1-P4A R4-U32를 랙 1로 R4-U32-P9A ~ R1-U1-P5A R4-U32-P9B ~ R1-U1-P6A R4-U32를 랙 2로 R4-U32-P10A ~ R2-U1-P7A R4-U32-P10B ~ R2-U1-P8A R4-U32를 랙 3으로 R4-U32-P11A ~ R3-U1-P9A R4-U32-P11B ~ R3-U1-P10A 랙 4 내부의 R4-U26 R4-U26-P8A ~ R4-U1-P3B R4-U26-P8B ~ R4-U1-P4B R4-U26을 랙 1로 R4-U26-P9A ~ R1-U1-P5B R4-U26-P9B ~ R1-U1-P6B R4-U26을 랙 2로 R4-U26-P10A ~ R2-U1-P7B R4-U26-P10B ~ R2-U1-P8B R4-U26을 랙 3으로 R4-U26-P11A ~ R3-U1-P9B 다중 Oracle SuperCluster T5-8 시스템 연결 267

다섯 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R4-U26-P11B ~ R3-U1-P10B 다섯 개의 랙 케이블 연결 다음 표는 풀 랙 다섯 개를 함께 케이블로 연결할 경우 첫번째 스파인 스위치(R1-U1)에 대한 케이블 연결을 보여줍니다. 표 23 다섯 개 랙 시스템의 첫번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 1 내부의 R1 U32 R1-U32-P8A ~ R1-U1-P3A 3미터 R1-U32-P8B ~ R1-U1-P4A R1 U32를 랙 2로 R1-U32-P9A ~ R2-U1-P5A R1-U32-P9B ~ R2-U1-P6A R1 U32를 랙 3으로 R1-U32-P10A ~ R3-U1-P7A R1-U32-P10B ~ R3-U1-P8A R1 U32를 랙 4로 R1-U32-P11A ~ R4-U1-P9A R1 U32를 랙 5로 R1-U32-P11B ~ R5-U1-P10A 랙 1 내부의 R1 U26 R1-U26-P8A ~ R1-U1-P3B 3미터 R1-U26-P8B ~ R1-U1-P4B R1 U26을 랙 2로 R1-U26-P9A ~ R2-U1-P5B 3미터 R1-U26-P9B ~ R2-U1-P6B R1 U26을 랙 3으로 R1-U26-P10A ~ R3-U1-P7B R1-U26-P10B ~ R3-U1-P8B R1 U26을 랙 4로 R1-U26-P11A ~ R4-U1-P9B R1 U26을 랙 5로 R1-U26-P11B ~ R5-U1-P10B 다음 표는 풀 랙 다섯 개를 함께 케이블로 연결할 경우 두번째 스파인 스위치(R2-U1)에 대한 케이블 연결을 보여줍니다. 표 24 268 다섯 개 랙 시스템의 두번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 2 내부의 R2 U32 R2-U32-P8A ~ R2-U1-P3A 3미터 Oracle SuperCluster T5-8 2014년 10월

다섯 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R2-U32-P8B ~ R2-U1-P4A R2 U32를 랙 1로 R2-U32-P11B ~ R1-U1-P10A R2 U32를 랙 3으로 R2-U32-P9A ~ R3-U1-P5A R2-U32-P9B ~ R3-U1-P6A R2 U32를 랙 4로 R2-U32-P10A ~ R4-U1-P7A R2-U32-P10B ~ R4-U1-P8A R2 U32를 랙 5로 R2-U32-P11A ~ R5-U1-P9A 랙 2 내부의 R2 U26 R2-U26-P8A ~ R2-U1-P3B 3미터 R2-U26-P8B ~ R2-U1-P4B R2 U26을 랙 1로 R2-U26-P11B ~ R1-U1-P10B R2 U26을 랙 3으로 R2-U26-P9A ~ R3-U1-P5B R2-U26-P9B ~ R3-U1-P6B R2 U26을 랙 4로 R2-U26-P10A ~ R4-U1-P7B R2-U26-P10B ~ R4-U1-P8B R2 U26을 랙 5로 R2-U26-P11A ~ R5-U1-P9B 다음 표는 풀 랙 다섯 개를 함께 케이블로 연결할 경우 세번째 스파인 스위치(R3-U1)에 대한 케이블 연결을 보여줍니다. 표 25 다섯 개 랙 시스템의 세번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 3 내부의 R3 U32 R3-U32-P8A ~ R3-U1-P3A 3미터 R3-U32-P8B ~ R3-U1-P4A R3 U32를 랙 1로 R3-U32-P11A ~ R1-U1-P9A R3 U32를 랙 2로 R3-U32-P11B ~ R2-U1-P10A R3 U32를 랙 4로 R3-U32-P9A ~ R4-U1-P5A R3-U32-P9B ~ R4-U1-P6A R3 U32를 랙 5로 R3-U32-P10A ~ R5-U1-P7A R3-U32-P10B ~ R5-U1-P8A 랙 3 내부의 R3 U26 R3-U26-P8A ~ R3-U1-P3B 3미터 R3-U26-P8B ~ R3-U1-P4B 다중 Oracle SuperCluster T5-8 시스템 연결 269

다섯 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R3 U26을 랙 1로 R3-U26-P11A ~ R1-U1-P9B R3 U26을 랙 2로 R3-U26-P11B ~ R2-U1-P10B R3 U26을 랙 4로 R3-U26-P9A ~ R4-U1-P5B R3-U26-P9B ~ R4-U1-P6B R3 U26을 랙 5로 R3-U26-P10A ~ R5-U1-P7B R3-U26-P10B ~ R5-U1-P8B 다음 표는 풀 랙 다섯 개를 함께 케이블로 연결할 경우 네번째 스파인 스위치(R4-U1)에 대한 케이블 연결을 보여줍니다. 표 26 다섯 개 랙 시스템의 네번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 4 내부의 R4 U32 R4-U32-P8A ~ R4-U1-P3A 3미터 R4-U32-P8B ~ R4-U1-P4A R4 U32를 랙 1로 R4-U32-P10A ~ R1-U1-P7A R4-U32-P10B ~ R1-U1-P8A R4 U32를 랙 2로 R4-U32-P11A ~ R2-U1-P9A R4 U32를 랙 3으로 R4-U32-P11B ~ R3-U1-P10A R4 U32를 랙 5로 R4-U32-P9A ~ R5-U1-P5A R4-U32-P9B ~ R5-U1-P6A 랙 4 내부의 R4 U26 R4-U26-P8A ~ R4-U1-P3B 3미터 R4-U26-P8B ~ R4-U1-P4B R4 U26을 랙 1로 R4-U26-P10A ~ R1-U1-P7B R4-U26-P10B ~ R1-U1-P8B R4 U26을 랙 2로 R4-U26-P11A ~ R2-U1-P9B R4 U26을 랙 3으로 R4-U26-P11B ~ R3-U1-P10B R4 U26을 랙 5로 R4-U26-P9A ~ R5-U1-P5B R4-U26-P9B ~ R5-U1-P6B 다음 표는 풀 랙 다섯 개를 함께 케이블로 연결할 경우 다섯번째 스파인 스위치(R5-U1)에 대 한 케이블 연결을 보여줍니다. 270 Oracle SuperCluster T5-8 2014년 10월

여섯 개의 랙 케이블 연결 표 27 다섯 개 랙 시스템의 다섯번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 5 내부의 R5 U32 R5-U32-P8A ~ R5-U1-P3A 3미터 R5-U32-P8B ~ R5-U1-P4A R5 U32를 랙 1로 R5-U32-P9A ~ R1-U1-P5A R5-U32-P9B ~ R1-U1-P6A R5 U32를 랙 2로 R5-U32-P10A ~ R2-U1-P7A R5-U32-P10B ~ R2-U1-P8A R5 U32를 랙 3으로 R5-U32-P11A ~ R3-U1-P9A R5 U32를 랙 4로 R5-U32-P11B ~ R4-U1-P10A 랙 5 내부의 R5 U26 R5-U26-P8A ~ R5-U1-P3B 3미터 R5-U26-P8B ~ R5-U1-P4B R5 U26을 랙 1로 R5-U26-P9A ~ R1-U1-P5B R5-U26-P9B ~ R1-U1-P6B R5 U26을 랙 2로 R5-U26-P10A ~ R2-U1-P7B R5-U26-P10B ~ R2-U1-P8B R5 U26을 랙 3으로 R5-U26-P11A ~ R3-U1-P9B R5 U26을 랙 4로 R5-U26-P11B ~ R4-U1-P10B 여섯 개의 랙 케이블 연결 다음 표는 풀 랙 여섯 개를 함께 케이블로 연결할 경우 첫번째 스파인 스위치(R1-U1)에 대한 케이블 연결을 보여줍니다. 표 28 여섯 개 랙 시스템의 첫번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 1 내부의 R1 U32 R1-U32-P8A ~ R1-U1-P3A 3미터 R1-U32-P8B ~ R1-U1-P4A R1 U32를 랙 2로 R1-U32-P9A ~ R2-U1-P5A R1-U32-P9B ~ R2-U1-P6A R1 U32를 랙 3으로 R1-U32-P10A ~ R3-U1-P7A R1 U32를 랙 4로 R1-U32-P10B ~ R4-U1-P8A 다중 Oracle SuperCluster T5-8 시스템 연결 271

여섯 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R1 U32를 랙 5로 R1-U32-P11A ~ R5-U1-P9A R1 U32를 랙 6으로 R1-U32-P11B ~ R6-U1-P10A 랙 1 내부의 R1 U26 R1-U26-P8A ~ R1-U1-P3B 3미터 R1-U26-P8B ~ R1-U1-P4B R1 U26을 랙 2로 R1-U26-P9A ~ R2-U1-P5B R1-U26-P9B ~ R2-U1-P6B R1 U26을 랙 3으로 R1-U26-P10A ~ R3-U1-P7B R1 U26을 랙 4로 R1-U26-P10B ~ R4-U1-P8B R1 U26을 랙 5로 R1-U26-P11A ~ R5-U1-P9B R1 U26을 랙 6으로 R1-U26-P11B ~ R6-U1-P10B 다음 표는 풀 랙 여섯 개를 함께 케이블로 연결할 경우 두번째 스파인 스위치(R2-U1)에 대한 케이블 연결을 보여줍니다. 표 29 여섯 개 랙 시스템의 두번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 2 내부의 R2 U32 R2-U32-P8A ~ R2-U1-P3A 3미터 R2-U32-P8B ~ R2-U1-P4A R2 U32를 랙 1로 R2-U32-P11B ~ R1-U1-P10A R2 U32를 랙 3으로 R2-U32-P9A ~ R3-U1-P5A R2-U32-P9B ~ R3-U1-P6A R2 U32를 랙 4로 R2-U32-P10A ~ R4-U1-P7A R2 U32를 랙 5로 R2-U32-P10B ~ R5-U1-P8A R2 U32를 랙 6으로 R2-U32-P11A ~ R6-U1-P9A 랙 2 내부의 R2 U26 R2-U26-P8A ~ R2-U1-P3B 3미터 R2-U26-P8B ~ R2-U1-P4B R2 U26을 랙 1로 R2-U26-P11B ~ R1-U1-P10B R2 U26을 랙 3으로 R2-U26-P9A ~ R3-U1-P5B R2-U26-P9B ~ R3-U1-P6B 272 R2 U26을 랙 4로 R2-U26-P10A ~ R4-U1-P7B R2 U26을 랙 5로 R2-U26-P10B ~ R5-U1-P8B Oracle SuperCluster T5-8 2014년 10월

여섯 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R2 U26을 랙 6으로 R2-U26-P11A ~ R6-U1-P9B 다음 표는 풀 랙 여섯 개를 함께 케이블로 연결할 경우 세번째 스파인 스위치(R3-U1)에 대한 케이블 연결을 보여줍니다. 표 30 여섯 개 랙 시스템의 세번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 3 내부의 R3 U32 R3-U32-P8A ~ R3-U1-P3A 3미터 R3-U32-P8B ~ R3-U1-P4A R3 U32를 랙 1로 R3-U32-P11A ~ R1-U1-P9A R3 U32를 랙 2로 R3-U32-P11B ~ R2-U1-P10A R3 U32를 랙 4로 R3-U32-P9A ~ R4-U1-P5A R3-U32-P9B ~ R4-U1-P6A R3 U32를 랙 5로 R3-U32-P10A ~ R5-U1-P7A R3 U32를 랙 6으로 R3-U32-P10B ~ R6-U1-P8A 랙 3 내부의 R3 U26 R3-U26-P8A ~ R3-U1-P3B 3미터 R3-U26-P8B ~ R3-U1-P4B R3 U26을 랙 1로 R3-U26-P11A ~ R1-U1-P9B R3 U26을 랙 2로 R3-U26-P11B ~ R2-U1-P10B R3 U26을 랙 4로 R3-U26-P9A ~ R4-U1-P5B R3-U26-P9B ~ R4-U1-P6B R3 U26을 랙 5로 R3-U26-P10A ~ R5-U1-P7B R3 U26을 랙 6으로 R3-U26-P10B ~ R6-U1-P8B 다음 표는 풀 랙 여섯 개를 함께 케이블로 연결할 경우 네번째 스파인 스위치(R4-U1)에 대한 케이블 연결을 보여줍니다. 표 31 여섯 개 랙 시스템의 네번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 4 내부의 R4 U32 R4-U32-P8A ~ R4-U1-P3A 3미터 R4-U32-P8B ~ R4-U1-P4A R4 U32를 랙 1로 R4-U32-P10B ~ R1-U1-P8A 다중 Oracle SuperCluster T5-8 시스템 연결 273

여섯 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R4 U32를 랙 2로 R4-U32-P11A ~ R2-U1-P9A R4 U32를 랙 3으로 R4-U32-P11B ~ R3-U1-P10A R4 U32를 랙 5로 R4-U32-P9A ~ R5-U1-P5A R4-U32-P9B ~ R5-U1-P6A R4 U32를 랙 6으로 R4-U32-P10A ~ R6-U1-P7A 랙 4 내부의 R4 U26 R4-U26-P8A ~ R4-U1-P3B 3미터 R4-U26-P8B ~ R4-U1-P4B R4 U26을 랙 1로 R4-U26-P10B ~ R1-U1-P8B R4 U26을 랙 2로 R4-U26-P11A ~ R2-U1-P9B R4 U26을 랙 3으로 R4-U26-P11B ~ R3-U1-P10B R4 U26을 랙 5로 R4-U26-P9A ~ R5-U1-P5B R4-U26-P9B ~ R5-U1-P6B R4 U26을 랙 6으로 R4-U26-P10A ~ R6-U1-P7B 다음 표는 풀 랙 여섯 개를 함께 케이블로 연결할 경우 다섯번째 스파인 스위치(R5-U1)에 대 한 케이블 연결을 보여줍니다. 표 32 여섯 개 랙 시스템의 다섯번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 5 내부의 R5 U32 R5-U32-P8A ~ R5-U1-P3A 3미터 R5-U32-P8B ~ R5-U1-P4A R5 U32를 랙 1로 R5-U32-P10A ~ R1-U1-P7A R5 U32를 랙 2로 R5-U32-P10B ~ R2-U1-P8A R5 U32를 랙 3으로 R5-U32-P11A ~ R3-U1-P9A R5 U32를 랙 4로 R5-U32-P11B ~ R4-U1-P10A R5 U32를 랙 6으로 R5-U32-P9A ~ R6-U1-P5A R5-U32-P9B ~ R6-U1-P6A 랙 5 내부의 R5 U26 R5-U26-P8A ~ R5-U1-P3B 3미터 R5-U26-P8B ~ R5-U1-P4B 274 R5 U26을 랙 1로 R5-U26-P10A ~ R1-U1-P7B R5 U26을 랙 2로 R5-U26-P10B ~ R2-U1-P8B Oracle SuperCluster T5-8 2014년 10월

일곱 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R5 U26을 랙 3으로 R5-U26-P11A ~ R3-U1-P9B R5 U26을 랙 4로 R5-U26-P11B ~ R4-U1-P10B R5 U26을 랙 6으로 R5-U26-P9A ~ R6-U1-P5B R5-U26-P9B ~ R6-U1-P6B 다음 표는 풀 랙 여섯 개를 함께 케이블로 연결할 경우 여섯번째 스파인 스위치(R6-U1)에 대 한 케이블 연결을 보여줍니다. 표 33 여섯 개 랙 시스템의 여섯번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 6 내부의 R6 U32 R6-U32-P8A ~ R6-U1-P3A 3미터 R6-U32-P8B ~ R6-U1-P4A R6 U32를 랙 1로 R6-U32-P9A ~ R1-U1-P5A R6-U32-P9B ~ R1-U1-P6A R6 U32를 랙 2로 R6-U32-P10A ~ R2-U1-P7A R6 U32를 랙 3으로 R6-U32-P10B ~ R3-U1-P8A R6 U32를 랙 4로 R6-U32-P11A ~ R4-U1-P9A R6 U32를 랙 5로 R6-U32-P11B ~ R5-U1-P10A 랙 6 내부의 R6 U26 R6-U26-P8A ~ R6-U1-P3B 3미터 R6-U26-P8B ~ R6-U1-P4B R6 U26을 랙 2로 R6-U26-P10A ~ R2-U1-P7B R6 U26을 랙 1로 R6-U26-P9A ~ R1-U1-P5B R6-U26-P9B ~ R1-U1-P6B R6 U26을 랙 3으로 R6-U26-P10B ~ R3-U1-P8B R6 U26을 랙 4로 R6-U26-P11A ~ R4-U1-P9B R6 U26을 랙 5로 R6-U26-P11B ~ R5-U1-P10B 일곱 개의 랙 케이블 연결 다음 표는 풀 랙 일곱 개를 함께 케이블로 연결할 경우 첫번째 스파인 스위치(R1-U1)에 대한 케이블 연결을 보여줍니다. 다중 Oracle SuperCluster T5-8 시스템 연결 275

일곱 개의 랙 케이블 연결 표 34 일곱 개 랙 시스템의 첫번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 1 내부의 R1 U32 R1-U32-P8A ~ R1-U1-P3A 3미터 R1-U32-P8B ~ R1-U1-P4A R1 U32를 랙 2로 R1-U32-P9A ~ R2-U1-P5A R1 U32를 랙 3으로 R1-U32-P9B ~ R3-U1-P6A R1 U32를 랙 4로 R1-U32-P10A ~ R4-U1-P7A R1 U32를 랙 5로 R1-U32-P10B ~ R5-U1-P8A R1 U32를 랙 6으로 R1-U32-P11A ~ R6-U1-P9A R1 U32를 랙 7로 R1-U32-P11B ~ R7-U1-P10A 랙 1 내부의 R1 U26 R1-U26-P8A ~ R1-U1-P3B 3미터 R1-U26-P8B ~ R1-U1-P4B R1 U26을 랙 2로 R1-U26-P9A ~ R2-U1-P5B R1 U26을 랙 3으로 R1-U26-P9B ~ R3-U1-P6B R1 U26을 랙 4로 R1-U26-P10A ~ R4-U1-P7B R1 U26을 랙 5로 R1-U26-P10B ~ R5-U1-P8B R1 U26을 랙 6으로 R1-U26-P11A ~ R6-U1-P9B R1 U26을 랙 7로 R1-U26-P11B ~ R7-U1-P10B 다음 표는 풀 랙 일곱 개를 함께 케이블로 연결할 경우 두번째 스파인 스위치(R2-U1)에 대한 케이블 연결을 보여줍니다. 표 35 일곱 개 랙 시스템의 두번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 2 내부의 R2 U32 R2-U32-P8A ~ R2-U1-P3A 3미터 R2-U32-P8B ~ R2-U1-P4A 276 R2 U32를 랙 1로 R2-U32-P11B ~ R1-U1-P10A R2 U32를 랙 3으로 R2-U32-P9A ~ R3-U1-P5A R2 U32를 랙 4로 R2-U32-P9B ~ R4-U1-P6A R2 U32를 랙 5로 R2-U32-P10A ~ R5-U1-P7A R2 U32를 랙 6으로 R2-U32-P10B ~ R6-U1-P8A R2 U32를 랙 7로 R2-U32-P11A ~ R7-U1-P9A 랙 2 내부의 R2 U26 R2-U26-P8A ~ R2-U1-P3B 3미터 Oracle SuperCluster T5-8 2014년 10월

일곱 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R2-U26-P8B ~ R2-U1-P4B R2 U26을 랙 1로 R2-U26-P11B ~ R1-U1-P10B R2 U26을 랙 3으로 R2-U26-P9A ~ R3-U1-P5B R2 U26을 랙 4로 R2-U26-P9B ~ R4-U1-P6B R2 U26을 랙 5로 R2-U26-P10A ~ R5-U1-P7B R2 U26을 랙 6으로 R2-U26-P10B ~ R6-U1-P8B R2 U26을 랙 7로 R2-U26-P11A ~ R7-U1-P9B 다음 표는 풀 랙 일곱 개를 함께 케이블로 연결할 경우 세번째 스파인 스위치(R3-U1)에 대한 케이블 연결을 보여줍니다. 표 36 일곱 개 랙 시스템의 세번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 3 내부의 R3 U32 R3-U32-P8A ~ R3-U1-P3A 3미터 R3-U32-P8B ~ R3-U1-P4A R3 U32를 랙 1로 R3-U32-P11A ~ R1-U1-P9A R3 U32를 랙 2로 R3-U32-P11B ~ R2-U1-P10A R3 U32를 랙 4로 R3-U32-P9A ~ R4-U1-P5A R3 U32를 랙 5로 R3-U32-P9B ~ R5-U1-P6A R3 U32를 랙 6으로 R3-U32-P10A ~ R6-U1-P7A R3 U32를 랙 7로 R3-U32-P10B ~ R7-U1-P8A 랙 3 내부의 R3 U26 R3-U26-P8A ~ R3-U1-P3B 3미터 R3-U26-P8B ~ R3-U1-P4B R3 U26을 랙 1로 R3-U26-P11A ~ R1-U1-P9B R3 U26을 랙 2로 R3-U26-P11B ~ R2-U1-P10B R3 U26을 랙 4로 R3-U26-P9A ~ R4-U1-P5B R3 U26을 랙 5로 R3-U26-P9B ~ R5-U1-P6B R3 U26을 랙 6으로 R3-U26-P10A ~ R6-U1-P7B R3 U26을 랙 7로 R3-U26-P10B ~ R7-U1-P8B 다음 표는 풀 랙 일곱 개를 함께 케이블로 연결할 경우 네번째 스파인 스위치(R4-U1)에 대한 케이블 연결을 보여줍니다. 다중 Oracle SuperCluster T5-8 시스템 연결 277

일곱 개의 랙 케이블 연결 표 37 일곱 개 랙 시스템의 네번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 4 내부의 R4 U32 R4-U32-P8A ~ R4-U1-P3A 3미터 R4-U32-P8B ~ R4-U1-P4A R4 U32를 랙 1로 R4-U32-P10B ~ R1-U1-P8A R4 U32를 랙 2로 R4-U32-P11A ~ R2-U1-P9A R4 U32를 랙 3으로 R4-U32-P11B ~ R3-U1-P10A R4 U32를 랙 5로 R4-U32-P9A ~ R5-U1-P5A R4 U32를 랙 6으로 R4-U32-P9B ~ R6-U1-P6A R4 U32를 랙 7로 R4-U32-P10A ~ R7-U1-P7A 랙 4 내부의 R4 U26 R4-U26-P8A ~ R4-U1-P3B 3미터 R4-U26-P8B ~ R4-U1-P4B R4 U26을 랙 1로 R4-U26-P10B ~ R1-U1-P8B R4 U26을 랙 2로 R4-U26-P11A ~ R2-U1-P9B R4 U26을 랙 3으로 R4-U26-P11B ~ R3-U1-P10B R4 U26을 랙 5로 R4-U26-P9A ~ R5-U1-P5B R4 U26을 랙 6으로 R4-U26-P9B ~ R6-U1-P6B R4 U26을 랙 7로 R4-U26-P10A ~ R7-U1-P7B 다음 표는 풀 랙 일곱 개를 함께 케이블로 연결할 경우 다섯번째 스파인 스위치(R5-U1)에 대 한 케이블 연결을 보여줍니다. 표 38 일곱 개 랙 시스템의 다섯번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 5 내부의 R5 U32 R5-U32-P8A ~ R5-U1-P3A 3미터 R5-U32-P8B ~ R5-U1-P4A 278 R5 U32를 랙 1로 R5-U32-P10A ~ R1-U1-P7A R5 U32를 랙 2로 R5-U32-P10B ~ R2-U1-P8A R5 U32를 랙 3으로 R5-U32-P11A ~ R3-U1-P9A R5 U32를 랙 4로 R5-U32-P11B ~ R4-U1-P10A R5 U32를 랙 6으로 R5-U32-P9A ~ R6-U1-P5A R5 U32를 랙 7로 R5-U32-P9B ~ R7-U1-P6A 랙 5 내부의 R5 U26 R5-U26-P8A ~ R5-U1-P3B 3미터 Oracle SuperCluster T5-8 2014년 10월

일곱 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R5-U26-P8B ~ R5-U1-P4B R5 U26을 랙 1로 R5-U26-P10A ~ R1-U1-P7B R5 U26을 랙 2로 R5-U26-P10B ~ R2-U1-P8B R5 U26을 랙 3으로 R5-U26-P11A ~ R3-U1-P9B R5 U26을 랙 4로 R5-U26-P11B ~ R4-U1-P10B R5 U26을 랙 6으로 R5-U26-P9A ~ R6-U1-P5B R5 U26을 랙 7로 R5-U26-P9B ~ R7-U1-P6B 다음 표는 풀 랙 일곱 개를 함께 케이블로 연결할 경우 여섯번째 스파인 스위치(R6-U1)에 대 한 케이블 연결을 보여줍니다. 표 39 일곱 개 랙 시스템의 여섯번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 6 내부의 R6 U32 R6-U32-P8A ~ R6-U1-P3A 3미터 R6-U32-P8B ~ R6-U1-P4A R6 U32를 랙 1로 R6-U32-P9B ~ R1-U1-P6A R6 U32를 랙 2로 R6-U32-P10A ~ R2-U1-P7A R6 U32를 랙 3으로 R6-U32-P10B ~ R3-U1-P8A R6 U32를 랙 4로 R6-U32-P11A ~ R4-U1-P9A R6 U32를 랙 5로 R6-U32-P11B ~ R5-U1-P10A R6 U32를 랙 7로 R6-U32-P9A ~ R7-U1-P5A 랙 6 내부의 R6 U26 R6-U26-P8A ~ R6-U1-P3B 3미터 R6-U26-P8B ~ R6-U1-P4B R6 U26을 랙 1로 R6-U26-P9B ~ R1-U1-P6B R6 U26을 랙 2로 R6-U26-P10A ~ R2-U1-P7B R6 U26을 랙 3으로 R6-U26-P10B ~ R3-U1-P8B R6 U26을 랙 4로 R6-U26-P11A ~ R4-U1-P9B R6 U26을 랙 5로 R6-U26-P11B ~ R5-U1-P10B R6 U26을 랙 7로 R6-U26-P9A ~ R7-U1-P5B 다음 표는 풀 랙 일곱 개를 함께 케이블로 연결할 경우 일곱번째 스파인 스위치(R7-U1)에 대 한 케이블 연결을 보여줍니다. 다중 Oracle SuperCluster T5-8 시스템 연결 279

여덟 개의 랙 케이블 연결 표 40 일곱 개 랙 시스템의 일곱번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 7 내부의 R7 U32 R7-U32-P8A ~ R7-U1-P3A 3미터 R7-U32-P8B ~ R7-U1-P4A R7 U32를 랙 1로 R7-U32-P9A ~ R1-U1-P5A R7 U32를 랙 2로 R7-U32-P9B ~ R2-U1-P6A R7 U32를 랙 3으로 R7-U32-P10A ~ R3-U1-P7A R7 U32를 랙 4로 R7-U32-P10B ~ R4-U1-P8A R7 U32를 랙 5로 R7-U32-P11A ~ R5-U1-P9A R7 U32를 랙 6으로 R7-U32-P11B ~ R6-U1-P10A 랙 7 내부의 R7 U26 R7-U26-P8A ~ R7-U1-P3B 3미터 R7-U26-P8B ~ R7-U1-P4B R7 U26을 랙 1로 R7-U26-P9A ~ R1-U1-P5B R7 U26을 랙 2로 R7-U26-P9B ~ R2-U1-P6B R7 U26을 랙 3으로 R7-U26-P10A ~ R3-U1-P7B R7 U26을 랙 4로 R7-U26-P10B ~ R4-U1-P8B R7 U26을 랙 5로 R7-U26-P11A ~ R5-U1-P9B R7 U26을 랙 6으로 R7-U26-P11B ~ R6-U1-P10B 여덟 개의 랙 케이블 연결 다음 표는 풀 랙 여덟 개를 함께 케이블로 연결할 경우 첫번째 스파인 스위치(R1-U1)에 대한 케이블 연결을 보여줍니다. 표 41 280 여덟 개 랙 시스템의 첫번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 1 내부의 R1 U32 R1-U32-P8A ~ R1-U1-P3A 3미터 R1 U32를 랙 2로 R1-U32-P8B ~ R2-U1-P4A R1 U32를 랙 3으로 R1-U32-P9A ~ R3-U1-P5A R1 U32를 랙 4로 R1-U32-P9B ~ R4-U1-P6A R1 U32를 랙 5로 R1-U32-P10A ~ R5-U1-P7A R1 U32를 랙 6으로 R1-U32-P10B ~ R6-U1-P8A Oracle SuperCluster T5-8 2014년 10월

여덟 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R1 U32를 랙 7로 R1-U32-P11A ~ R7-U1-P9A R1 U32를 랙 8로 R1-U32-P11B ~ R8-U1-P10A 랙 1 내부의 R1 U26 R1-U26-P8A ~ R1-U1-P3B 3미터 R1 U26을 랙 2로 R1-U26-P8B ~ R2-U1-P4B R1 U26을 랙 3으로 R1-U26-P9A ~ R3-U1-P5B R1 U26을 랙 4로 R1-U26-P9B ~ R4-U1-P6B R1 U26을 랙 5로 R1-U26-P10A ~ R5-U1-P7B R1 U26을 랙 6으로 R1-U26-P10B ~ R6-U1-P8B R1 U26을 랙 7로 R1-U26-P11A ~ R7-U1-P8B R1 U26을 랙 8로 R1-U26-P11B ~ R8-U1-P10B 다음 표는 풀 랙 여덟 개를 함께 케이블로 연결할 경우 두번째 스파인 스위치(R2-U1)에 대한 케이블 연결을 보여줍니다. 표 42 여덟 개 랙 시스템의 두번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 2 내부의 R2 U32 R2-U32-P8A ~ R2-U1-P3A 3미터 R2 U32를 랙 1로 R2-U32-P11B ~ R1-U1-P10A R2 U32를 랙 3으로 R2-U32-P8B ~ R3-U1-P4A R2 U32를 랙 4로 R2-U32-P9A ~ R4-U1-P5A R2 U32를 랙 5로 R2-U32-P9B ~ R5-U1-P6A R2 U32를 랙 6으로 R2-U32-P10A ~ R6-U1-P7A R2 U32를 랙 7로 R2-U32-P10B ~ R7-U1-P8A R2 U32를 랙 8로 R2-U32-P11A ~ R8-U1-P9A 랙 2 내부의 R2 U26 R2-U26-P8A ~ R2-U1-P3B 3미터 R2 U26을 랙 1로 R2-U26-P11B ~ R1-U1-P10B R2 U26을 랙 3으로 R2-U26-P8B ~ R3-U1-P4B R2 U26을 랙 4로 R2-U26-P9A ~ R4-U1-P5B R2 U26을 랙 5로 R2-U26-P9B ~ R5-U1-P6B R2 U26을 랙 6으로 R2-U26-P10A ~ R6-U1-P7B R2 U26을 랙 7로 R2-U26-P10B ~ R7-U1-P8B 다중 Oracle SuperCluster T5-8 시스템 연결 281

여덟 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R2 U26을 랙 8로 R2-U26-P11A ~ R8-U1-P9B 다음 표는 풀 랙 여덟 개를 함께 케이블로 연결할 경우 세번째 스파인 스위치(R3-U1)에 대한 케이블 연결을 보여줍니다. 표 43 여덟 개 랙 시스템의 세번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 3 내부의 R3 U32 R3-U32-P8A ~ R3-U1-P3A 3미터 R3 U32를 랙 1로 R3-U32-P11A ~ R1-U1-P9A R3 U32를 랙 2로 R3-U32-P11B ~ R2-U1-P10A R3 U32를 랙 4로 R3-U32-P8B ~ R4-U1-P4A R3 U32를 랙 5로 R3-U32-P9A ~ R5-U1-P5A R3 U32를 랙 6으로 R3-U32-P9B ~ R6-U1-P6A R3 U32를 랙 7로 R3-U32-P10A ~ R7-U1-P7A R3 U32를 랙 8로 R3-U32-P10B ~ R8-U1-P8A 랙 3 내부의 R3 U26 R3-U26-P8A ~ R3-U1-P3B 3미터 R3 U26을 랙 1로 R3-U26-P11A ~ R1-U1-P9B R3 U26을 랙 2로 R3-U26-P11B ~ R2-U1-P10B R3 U26을 랙 4로 R3-U26-P8B ~ R4-U1-P4B R3 U26을 랙 5로 R3-U26-P9A ~ R5-U1-P5B R3 U26을 랙 6으로 R3-U26-P9B ~ R6-U1-P6B R3 U26을 랙 7로 R3-U26-P10A ~ R7-U1-P7B R3 U26을 랙 8로 R3-U26-P10B ~ R8-U1-P8B 다음 표는 풀 랙 여덟 개를 함께 케이블로 연결할 경우 네번째 스파인 스위치(R4-U1)에 대한 케이블 연결을 보여줍니다. 표 44 282 여덟 개 랙 시스템의 네번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 4 내부의 R4 U32 R4-U32-P8A ~ R4-U1-P3A 3미터 R4 U32를 랙 1로 R4-U32-P10B ~ R1-U1-P8A R4 U32를 랙 2로 R4-U32-P11A ~ R2-U1-P9A Oracle SuperCluster T5-8 2014년 10월

여덟 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R4 U32를 랙 3으로 R4-U32-P11B ~ R3-U1-P10A R4 U32를 랙 5로 R4-U32-P8B ~ R5-U1-P4A R4 U32를 랙 6으로 R4-U32-P9A ~ R6-U1-P5A R4 U32를 랙 7로 R4-U32-P9B ~ R7-U1-P6A R4 U32를 랙 8로 R4-U32-P10A ~ R8-U1-P7A 랙 4 내부의 R4 U26 R4-U26-P8A ~ R4-U1-P3B 3미터 R4 U26을 랙 1로 R4-U26-P10B ~ R1-U1-P8B R4 U26을 랙 2로 R4-U26-P11A ~ R2-U1-P9B R4 U26을 랙 3으로 R4-U26-P11B ~ R3-U1-P10B R4 U26을 랙 5로 R4-U26-P8B ~ R5-U1-P4B R4 U26을 랙 6으로 R4-U26-P9A ~ R6-U1-P5B R4 U26을 랙 7로 R4-U26-P9B ~ R7-U1-P6B R4 U26을 랙 8로 R4-U26-P10A ~ R8-U1-P7B 다음 표는 풀 랙 여덟 개를 함께 케이블로 연결할 경우 다섯번째 스파인 스위치(R5-U1)에 대 한 케이블 연결을 보여줍니다. 표 45 여덟 개 랙 시스템의 다섯번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 5 내부의 R5 U32 R5-U32-P8A ~ R5-U1-P3A 3미터 R5 U32를 랙 1로 R5-U32-P10A ~ R1-U1-P7A R5 U32를 랙 2로 R5-U32-P10B ~ R2-U1-P8A R5 U32를 랙 3으로 R5-U32-P11A ~ R3-U1-P9A R5 U32를 랙 4로 R5-U32-P11B ~ R4-U1-P10A R5 U32를 랙 6으로 R5-U32-P8B ~ R6-U1-P4A R5 U32를 랙 7로 R5-U32-P9A ~ R7-U1-P5A R5 U32를 랙 8로 R5-U32-P9B ~ R8-U1-P6A 랙 5 내부의 R5 U26 R5-U26-P8A ~ R5-U1-P3B 3미터 R5 U26을 랙 1로 R5-U26-P10A ~ R1-U1-P7B R5 U26을 랙 2로 R5-U26-P10B ~ R2-U1-P8B R5 U26을 랙 3으로 R5-U26-P11A ~ R3-U1-P9B 다중 Oracle SuperCluster T5-8 시스템 연결 283

여덟 개의 랙 케이블 연결 리프 스위치 연결 케이블 길이 R5 U26을 랙 4로 R5-U26-P11B ~ R4-U1-P10B R5 U26을 랙 6으로 R5-U26-P8B ~ R6-U1-P4B R5 U26을 랙 7로 R5-U26-P9A ~ R7-U1-P5B R5 U26을 랙 8로 R5-U26-P9B ~ R8-U1-P6B 다음 표는 풀 랙 여덟 개를 함께 케이블로 연결할 경우 여섯번째 스파인 스위치(R6-U1)에 대 한 케이블 연결을 보여줍니다. 표 46 여덟 개 랙 시스템의 여섯번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 6 내부의 R6 U32 R6-U32-P8A ~ R6-U1-P3A 3미터 R6 U32를 랙 1로 R6-U32-P9B ~ R1-U1-P6A R6 U32를 랙 2로 R6-U32-P10A ~ R2-U1-P7A R6 U32를 랙 3으로 R6-U32-P10B ~ R3-U1-P8A R6 U32를 랙 4로 R6-U32-P11A ~ R4-U1-P9A R6 U32를 랙 5로 R6-U32-P11B ~ R5-U1-P10A R6 U32를 랙 7로 R6-U32-P8B ~ R7-U1-P4A R6 U32를 랙 8로 R6-U32-P9A ~ R8-U1-P5A 랙 6 내부의 R6 U26 R6-U26-P8A ~ R6-U1-P3B 3미터 R6 U26을 랙 1로 R6-U26-P9B ~ R1-U1-P6B R6 U26을 랙 2로 R6-U26-P10A ~ R2-U1-P7B R6 U26을 랙 3으로 R6-U26-P10B ~ R3-U1-P8B R6 U26을 랙 4로 R6-U26-P11A ~ R4-U1-P9B R6 U26을 랙 5로 R6-U26-P11B ~ R5-U1-P10B R6 U26을 랙 7로 R6-U26-P8B ~ R7-U1-P4B R6 U26을 랙 8로 R6-U26-P9A ~ R8-U1-P5B 다음 표는 풀 랙 여덟 개를 함께 케이블로 연결할 경우 일곱번째 스파인 스위치(R7-U1)에 대 한 케이블 연결을 보여줍니다. 284 Oracle SuperCluster T5-8 2014년 10월

여덟 개의 랙 케이블 연결 표 47 여덟 개 랙 시스템의 일곱번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 7 내부의 R7 U32 R7-U32-P8A ~ R7-U1-P3A 3미터 R7 U32를 랙 1로 R7-U32-P9A ~ R1-U1-P5A R7 U32를 랙 2로 R7-U32-P9B ~ R2-U1-P6A R7 U32를 랙 3으로 R7-U32-P10A ~ R3-U1-P7A R7 U32를 랙 4로 R7-U32-P10B ~ R4-U1-P8A R7 U32를 랙 5로 R7-U32-P11A ~ R5-U1-P9A R7 U32를 랙 6으로 R7-U32-P11B ~ R6-U1-P10A R7 U32를 랙 8로 R7-U32-P8B ~ R8-U1-P4A 랙 7 내부의 R7 U26 R7-U26-P8A ~ R7-U1-P3B 3미터 R7 U26을 랙 1로 R7-U26-P9A ~ R1-U1-P5B R7 U26을 랙 2로 R7-U26-P9B ~ R2-U1-P6B R7 U26을 랙 3으로 R7-U26-P10A ~ R3-U1-P7B R7 U26을 랙 4로 R7-U26-P10B ~ R4-U1-P8B R7 U26을 랙 5로 R7-U26-P11A ~ R5-U1-P9B R7 U26을 랙 6으로 R7-U26-P11B ~ R6-U1-P10B R7 U26을 랙 8로 R7-U26-P8B ~ R8-U1-P4B 다음 표는 풀 랙 여덟 개를 함께 케이블로 연결할 경우 여덟번째 스파인 스위치(R8-U1)에 대 한 케이블 연결을 보여줍니다. 표 48 여덟 개 랙 시스템의 여덟번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 랙 8 내부의 R8 U32 R8-U32-P8A ~ R8-U1-P3A 3미터 R8 U32를 랙 1로 R8-U32-P8B ~ R1-U1-P4A R8 U32를 랙 2로 R8-U32-P9A ~ R2-U1-P5A R8 U32를 랙 3으로 R8-U32-P9B ~ R3-U1-P6A R8 U32를 랙 4로 R8-U32-P10A ~ R4-U1-P7A R8 U32를 랙 5로 R8-U32-P10B ~ R5-U1-P8A R8 U32를 랙 6으로 R8-U32-P11A ~ R6-U1-P9A R8 U32를 랙 7로 R8-U32-P11B ~ R7-U1-P10A 다중 Oracle SuperCluster T5-8 시스템 연결 285

여덟 개의 랙 케이블 연결 286 리프 스위치 연결 케이블 길이 랙 8 내부의 R8 U26 R8-U26-P8A ~ R8-U1-P3B 3미터 R8 U26을 랙 1로 R8-U26-P8B ~ R1-U1-P4B R8 U26을 랙 2로 R8-U26-P9A ~ R2-U1-P5B R8 U26을 랙 3으로 R8-U26-P9B ~ R3-U1-P6B R8 U26을 랙 4로 R8-U26-P10A ~ R4-U1-P7B R8 U26을 랙 5로 R8-U26-P10B ~ R5-U1-P8B R8 U26을 랙 6으로 R8-U26-P11A ~ R6-U1-P9B R8 U26을 랙 7로 R8-U26-P1B ~ R7-U1-P10B Oracle SuperCluster T5-8 2014년 10월

확장 랙 연결 다음 항목은 Oracle SuperCluster T5-8을 Oracle Exadata Storage 확장 랙에 연결하는 작 업에 대한 지침을 제공합니다. Oracle Exadata Storage 확장 랙 구성 요소 [287] 설치 준비 [288] Oracle Exadata Storage 확장 랙 설치 [298] 확장 랙 기본 IP 주소 [299] 확장 랙 내부 케이블 연결 이해 [299] Oracle SuperCluster T5-8에 확장 랙 연결 [315] Oracle Exadata Storage 확장 랙 구성 요소 Oracle Exadata Storage 확장 랙은 Oracle SuperCluster T5-8에 대한 추가 저장소를 제공 합니다. 추가 저장소는 백업, 기록 데이터 및 구조화되지 않은 데이터에 사용할 수 있습니다. Oracle Exadata Storage 확장 랙은 다음과 같이 Oracle SuperCluster T5-8에 공간을 추가 하는 데 사용할 수 있습니다. 새 Exadata Storage Server 및 그리드 디스크를 새 Oracle ASM(Oracle Automatic Storage Management) 디스크 그룹에 추가합니다. Oracle Exadata Storage 확장 랙에 그리드 디스크를 추가하여 기존 디스크 그룹을 확 장합니다. Oracle Exadata Storage 확장 랙을 여러 개의 Oracle SuperCluster T5-8 시스템으로 분할합니다. Oracle Exadata Storage 확장 랙은 풀 랙, 하프 랙 또는 쿼터 랙으로 사용할 수 있습니다. 다음 표는 Oracle Exadata Storage 확장 랙의 각 유형에 포함된 구성 요소를 보여줍니다. 표 49 Oracle Exadata Storage 확장 랙 구성 요소 Oracle Exadata Storage 확장 풀 랙 Oracle Exadata Storage 확장 하프 랙 Oracle Exadata Storage 확장 쿼터 랙 18개 Exadata Storage Server: - 600GB 15K RPM 고성능 SAS 디스크 또는 3TB 7.2K RPM 대용 9개 Exadata Storage Server: - 600GB 15K RPM 고성능 SAS 디 스크 또는 3TB 7.2K RPM 대용량 4개 Exadata Storage Server: - 600GB 15K RPM 고성능 SAS 디 스크 또는 3TB 7.2K RPM 대용량 확장 랙 연결 287

설치 준비 Oracle Exadata Storage 확장 풀 랙 Oracle Exadata Storage 확장 하프 랙 SAS 디스크(첫번째 Exadata Storage Server 유형) 또는 SAS 디스크(첫번째 Exadata Storage Server 유형) 또는 - 1.2TB 10K RPM 고성능 SAS 디스 크 또는 4TB 7.2K RPM 대용량 SAS 디스크(두번째 Exadata Storage Server 유형) 3개 Sun Datacenter InfiniBand Switch 36 고속 플래시: - 1.2TB 10K RPM 고성능 SAS 디스크 또는 4TB 7.2K RPM 대용량 SAS 디 스크(두번째 Exadata Storage Server 유형) 3개 Sun Datacenter InfiniBand Switch 36 고속 플래시: - 1.2TB 10K RPM 고성능 SAS 디스크 또는 4TB 7.2K RPM 대용량 SAS 디 스크(두번째 Exadata Storage Server 유형) 2개 Sun Datacenter InfiniBand Switch 36 고속 플래시: - 28.8TB 원시 플래시 용량(첫번째 Exadata Storage Server 유형) 또 는 Oracle Exadata Storage 확장 쿼터 랙 량 SAS 디스크(첫번째 Exadata Storage Server 유형) 또는 - 57.6TB 원시 플래시 용량(두번째 Exadata Storage Server 유형) 키보드, 비디오 및 마우스(KVM) 하 드웨어 중복 15kVA PDU(단상 또는 3상, 고 압 또는 저압) 2개 48포트 Cisco Catalyst 4948 1개, 모델 번호 WS-C4948-S 이더넷 스위 치 - 14.4TB 원시 플래시 용량(첫번째 Exadata Storage Server 유형) 또는 - 6.4TB 원시 플래시 용량(첫번째 Exadata Storage Server 유형) 또는 - 28.8TB 원시 플래시 용량(두번째 Exadata Storage Server 유형) 키보드, 비디오 및 마우스(KVM) 하드 웨어 중복 15kVA PDU(단상 또는 3상, 고압 또는 저압) 2개 48포트 Cisco Catalyst 4948 1개, 모 델 번호 WS-C4948-S 이더넷 스위치 - 12.8TB 원시 플래시 용량(두번째 Exadata Storage Server 유형) 키보드, 비디오 및 마우스(KVM) 하드 웨어 중복 15kVA PDU(단상 또는 3상, 고압 또는 저압) 2개 48포트 Cisco Catalyst 4948 1개, 모 델 번호 WS-C4948-S 이더넷 스위치 이전 릴리스에서 대용량 디스크는 2TB였습니다. 원시 용량의 경우 1GB는 10억 바이트입니다. 용량은 일반적인 공간 용어인 1TB = 1024 * 1024 * 1024 * 1024바이트를 사용하여 계산됩니다. 실제로 초기화된 용량은 더 적습니다. 설치 준비 다음 항목은 Oracle Exadata Storage 확장 랙 설치를 위한 현장 준비 정보를 제공합니다. 확장 랙 계획은 Oracle SuperCluster T5-8 계획과 비슷합니다. 이 절에는 확장 랙과 관련된 정보가 포함되어 있으며, 일반 계획 정보는 를 참조하십시오. 시스템 사양 검토 [288] 전원 요구 사항 검토 [289] 냉각 준비 [293] 언로드 경로 및 포장 풀기 장소 준비 [295] 네트워크 준비 [296] 시스템 사양 검토 물리적 사양 [289] 288 Oracle SuperCluster T5-8 2014년 10월

설치 준비 물리적 사양 표 50 Exadata 확장 랙 사양 매개변수 미터 영국식 높이 1998mm 78.66인치 측면 패널 포함 너비 600mm 23.62인치 앞문 및 뒷문 포함 깊이 1200mm 47.24인치 문을 제외한 깊이 1112mm 43.78인치 최소 천장 높이 2300mm 90인치 캐비닛 위와 천장 사이의 최소 공간 914mm 36인치 중량(풀 랙) 917.6kg 2023파운드 중량(하프 랙) 578.3kg 1275파운드 중량(쿼터 랙) 396.8kg 875파운드 관련 정보 전원 요구 사항 검토 시스템 전력 소비 [289] PDU 전원 요구 사항 [290] 시스템 전력 소비 표 51 Oracle Exadata Storage 확장 랙 전력 소비 설명 풀랙 하프 랙 쿼터 랙 최대 12.6kW 6.9kW 3.4kW 12.9kVA 7.1kVA 3.5kVA 8.8kW 4.8kW 2.4kW 9.0kVA 5.0kVA 2.5kVA 일반 확장 랙 연결 289

설치 준비 관련 정보 PDU 전원 요구 사항 [290] PDU 전원 요구 사항 Oracle Exadata Storage 확장 랙을 주문하는 경우 두 가지의 사양을 제공해야 합니다. 저전압 또는 고전압 단상 또는 3상 전원 Oracle 마케팅 및 제조 부품 번호는 다음 표를 참조하십시오. 참고 - 각 Oracle Exadata Storage 확장 랙에는 2개의 배전 장치(Power Distribution Unit, PDU)가 있습니다. 랙에 있는 2개의 PDU 모두 동일한 유형이어야 합니다. PDU 옵션 표 52 전압 위상 참조 낮음 1 표 53. Oracle Exadata Storage 확장 랙용 저전압 단상 PDU 낮음 3 표 54. Oracle Exadata Storage 확장 랙용 저전압 3상 PDU 높음 1 표 55. Oracle Exadata Storage 확장 랙용 고전압 단상 PDU 높음 3 표 56. Oracle Exadata Storage 확장 랙용 고전압 3상 PDU Oracle Exadata Storage 확장 랙용 저전압 단상 PDU 표 53 고전압 단상 kva 크기 15kVA 마케팅 부품 번호 해당 없음 제조 부품 번호 해당 없음 상 1ph 전압 200 ~ 240VAC PDU당 Amp 72A(3개 입력 x 24A) 콘센트 42 C13 290 Oracle SuperCluster T5-8 2014년 10월 설명

설치 준비 고전압 단상 설명 6 C19 입력 수 3개 입력 입력 전류 최대 24A (입력당) 데이터 센터 콘센트 NEMA 30A/250VAC 2극/3선 L6-30P PDU당 콘센트 그룹 6 사용 가능한 PDU 전원 코드 길이 2m(6.6피트) 표 54 PDU 전원 코드는 4m(13피트)이지만 섹션 은 랙의 내부 라우팅에 사용됩니다. Oracle Exadata Storage 확장 랙용 저전압 3상 PDU 고전압 3상 kva 크기 14.4kVA 마케팅 부품 번호 해당 없음 제조 부품 번호 해당 없음 상 3ph 전압 190 ~ 220VAC PDU당 Amp 69A(3개 입력 x 23A) 콘센트 42 C13 설명 6 C19 입력 수 2개 입력 x 60A, 3ph 입력 전류 최대 40A (상당) 데이터 센터 콘센트 IEC 60309 60A 4핀 250VAC 3ph IP 67 PDU당 콘센트 그룹 6 사용 가능한 PDU 전원 코드 길이 2m(6.6피트) 표 55 PDU 전원 코드는 4m(13피트)이지만 섹션 은 랙의 내부 라우팅에 사용됩니다. Oracle Exadata Storage 확장 랙용 고전압 단상 PDU 고전압 단상 kva 크기 15kVA 마케팅 부품 번호 해당 없음 제조 부품 번호 해당 없음 상 1ph 전압 220 ~ 240VAC 설명 확장 랙 연결 291

설치 준비 고전압 단상 PDU당 Amp 72A(3개 입력 x 24A) 콘센트 42 C13 설명 6 C19 입력 수 6 입력 전류 최대 25A (입력당) 데이터 센터 콘센트 IEC 60309 32A 3핀 250VAC IP44 PDU당 콘센트 그룹 6 사용 가능한 PDU 전원 코드 길이 2m(6.6피트) PDU 전원 코드는 4m(13피트)이지만 섹션 은 랙의 내부 라우팅에 사용됩니다. Oracle Exadata Storage 확장 랙용 고전압 3상 PDU 표 56 고전압 단상 kva 크기 14.4kVA 마케팅 부품 번호 해당 없음 제조 부품 번호 해당 없음 상 3ph 전압 220/380 ~ 240/415VAC PDU당 Amp 62.7A(3개 입력 x 20.9 A) 콘센트 42 C13 설명 6 C19 입력 수 2개 입력 x 25A 입력 전류 최대 25A (상당) 데이터 센터 콘센트 IEC 60309 32A, 5핀 230/400VAC PDU당 콘센트 그룹 6 사용 가능한 PDU 전원 코드 길이 2m(6.6피트) 관련 정보 292 시스템 전력 소비 [289] Oracle SuperCluster T5-8 2014년 10월 PDU 전원 코드는 4m(13피트)이지만 섹션 은 랙의 내부 라우팅에 사용됩니다.

설치 준비 냉각 준비 환경 요구 사항 [293] 열 손실 및 공기 흐름 요구 사항 [293] 구멍 뚫린 바닥 타일 [295] 환경 요구 사항 다음 표에는 온도, 습도 및 고도 요구 사항이 나열되어 있습니다. 표 57 온도, 습도 및 고도 조건 작동 요구 사항 비작동 요구 사항 설명 온도 5 ~ 32 C (41 ~ 89.6 F) -40 ~ 70 C (-40 ~ 158 F) 최적 랙 냉각의 경우 데이터 센 터 온도가 21 ~ 23 C (70 ~ 47 F)인 것입니다. 상대 습도 10 ~ 90% 상대 습도, 비응축 최대 93%의 상대 습도 최적 데이터 센터 랙 냉각은 45 ~ 50%, 비응축입니다. 고도 3048m(10000피트) 최대 12000m(40000피트) 주변 온도는 수면 위의 900m 고도 이상 300m당 1도씩 낮아 집니다. 관련 정보 열 손실 및 공기 흐름 요구 사항 [293] 구멍 뚫린 바닥 타일 [295] 열 손실 및 공기 흐름 요구 사항 확장 랙에서 배출된 열의 최대 및 일반 비율이 아래에 나열됩니다. 시스템을 적절히 냉각하려 면 적절한 공기 흐름이 시스템을 통과하는지 확인하십시오. 표 58 열 손실 랙 단위 최대 일반 풀랙 BTU/시 kj/시간당 43,000 45,400 30,100 31,800 하프 랙 BTU/시 kj/시간당 23,600 24,900 16,500 17,400 쿼터 랙 BTU/시 kj/시간당 11,600 12,250 8,100 8,600 확장 랙 연결 293

설치 준비 주의 - 에어컨에서 캐비닛까지 찬 공기의 이동 또는 캐비닛 뒤에서 나오는 뜨거운 공기의 이동 을 제한하지 마십시오. 다음 추가 요구 사항을 준수합니다. 환기를 위해 랙의 전면에 914mm(36인치), 랙의 후면에 914mm(36인치)의 최소 여 유 공간을 확보합니다. 랙의 왼쪽 및 오른쪽 또는 위쪽에 대한 공기 흐름 요구 사항은 없 습니다. 랙이 구성 요소로 완전히 채워지지 않은 경우 필러 패널로 빈 섹션을 덮습니다. 그림 33 294 앞에서 뒤로인 공기 흐름 방향 Oracle SuperCluster T5-8 2014년 10월

설치 준비 공기 흐름(나열된 양은 근사값임) 표 59 랙 최대 일반 풀랙 CFM 2,000 1,390 하프 랙 CFM 1,090 760 쿼터 랙 CFM 530 375 관련 정보 환경 요구 사항 [293] 구멍 뚫린 바닥 타일 [295] 구멍 뚫린 바닥 타일 올린 바닥에 서버를 설치하는 경우 시스템에 냉각 공기를 공급하려면 랙 앞에 구멍 뚫린 타일 을 사용합니다. 각 타일은 약 400CFM의 공기 흐름을 공급해야 합니다. 타일에서 찬 공기가 랙으로 흘러 들어올 수 있으면 구멍 뚫린 타일은 랙 앞에 어떤 순서로든 정렬할 수 있습니다. 다음은 바닥 타일의 권장 수입니다. 구멍 뚫린 바닥 타일 요구 사항 표 60 랙 타일 수 풀랙 4 하프 랙 3 쿼터 랙 2 관련 정보 열 손실 및 공기 흐름 요구 사항 [293] 환경 요구 사항 [293] 언로드 경로 및 포장 풀기 장소 준비 운송 패키지 치수 [296] 확장 랙 연결 295

설치 준비 운송 패키지 치수 Exadata 확장 랙 운송 패키지 치수 및 중량 표 61 매개변수 미터 영국식 높이 2159mm 85인치 너비 1219mm 48인치 깊이 1575mm 62인치 포장 중량(풀 랙) 1001.1kg 2207파운드 포장 중량(하프 랙) 659.6kg 1454파운드 포장 중량(쿼터 랙) 475.3kg 1048파운드 관련 정보 네트워크 준비 네트워크 요구 사항 개요 [296] 네트워크 연결 및 IP 주소 요구 사항 [298] 네트워크 요구 사항 개요 Oracle Exadata Storage 확장 랙에는 Exadata Storage Server 뿐만 아니라 네트워크에 서 버를 연결하기 위한 장비가 포함되어 있습니다. 네트워크 연결을 통해 서버를 원격으로 관리 할 수 있습니다. 각 Exadata Storage Server는 다음과 같은 네트워크 구성 요소 및 인터페이스로 구성됩니 다. 296 호스트 관리 네트워크에 연결하기 위한 포함된 기가비트 이더넷 포트 1개(NET0) Oracle SuperCluster T5-8 2014년 10월

설치 준비 InfiniBand 개인 네트워크에 연결하기 위한 이중 포트 Sun QDR InfiniBand PCIe 편평 호스트 채널 어댑터(Host Channel Adapter, HCA) 1개 Oracle ILOM 원격 관리를 위한 이더넷 포트(NET MGT) 1개 Oracle Exadata Storage 확장 랙과 함께 제공되는 Cisco Catalyst 4948 이더넷 스위치는 설치 중 최소 구성으로 제공됩니다. 최소 구성의 경우 IP 경로 지정을 사용 안함으로 설정하 고 다음을 설정합니다. 호스트 이름 IP 주소 서브넷 마스크 기본 게이트웨이 도메인 이름 도메인 이름 서버 NTP 서버 시간 표준 시간대 Oracle Exadata Storage 확장 랙을 배포하려면 최소 네트워크 요구 사항을 충족하는지 확 인하십시오. Oracle Exadata Storage 확장 랙에 사용된 2개의 네트워크가 있습니다. 각 네 트워크는 다른 네트워크로부터 분리된 고유한 서브넷에 있어야 합니다. 네트워크 설명은 다 음과 같습니다. 관리 네트워크 이 필수 네트워크는 기존 관리 네트워크에 연결되고 Exadata Storage Server의 관리 작업에 사용됩니다. 랙의 이더넷 스위치에 연결된 스위치, 서버, Oracle ILOM에 연결됩니다. 랙의 이더넷 스위치에서 기존 관리 네트워크까지 한 개의 업링크 가 있습니다. 참고 - PDU에 대한 네트워크 연결은 전기적 전류가 원격으로 모니터링되는 경우에만 필요합 니다. 각 Exadata Storage Server에는 2개의 관리용 네트워크 인터페이스를 사용합니다. 한 개는 1GbE 호스트 관리 인터페이스를 통해 운영 체제에 관리 액세스를 제공하고 다 른 한 개는 Oracle ILOM 이더넷 인터페이스를 통해 Oracle Integrated Lights Out Manager에 액세스를 제공합니다. InfiniBand 개인 네트워크 이 네트워크는 랙에서 InfiniBand 스위치를 사용하여 Exadata Storage Server에 연결됩니다. 라우트가 가능하지 않은 이 네트워크는 Oracle Exadata Storage 확장 랙에 완전히 포함되어 있으며 기존 네트워크에 연결되 지 않습니다. 이 네트워크는 설치 중 자동으로 구성됩니다. 참고 - 모든 네트워크는 서로 분리된 고유한 서브넷에 있어야 합니다. 확장 랙 연결 297

Oracle Exadata Storage 확장 랙 설치 관련 정보 네트워크 연결 및 IP 주소 요구 사항 [298] 네트워크 연결 및 IP 주소 요구 사항 설치 전에, 기존 네트워크 기반구조에서 설치 현장으로 네트워크 케이블을 실행해야 합니다. Oracle Exadata Storage 확장 랙에 대한 네트워크 요구 사항은 다음과 같습니다. Oracle Exadata Storage 확장 랙 네트워크 IP 주소 요구 사항 표 62 랙 유형 최소량 설명 풀 확장 랙 42 관리용 18개(Exadata Storage Server당 1개) Oracle ILOM용 18개(Exadata Storage Server당 1개) 스위치용 4개(InfiniBand용 3개 및 이더넷용 1개) PDU의 전기적 전류 모니터링용 2개(PDU 연결은 전기적 전류가 원격 으로 모니터링되는 경우에만 필요) 하프 확장 랙 24 관리용 9개(Exadata Storage Server당 1개) Oracle ILOM용 9개(Exadata Storage Server당 1개) 스위치용 4개(InfiniBand용 3개 및 이더넷용 1개) PDU의 전기적 전류 모니터링용 2개(PDU 연결은 전기적 전류가 원격 으로 모니터링되는 경우에만 필요) 쿼터 확장 랙 13 관리용 4개(Exadata Storage Server당 1개) Oracle ILOM용 4개(Exadata Storage Server당 1개) 스위치용 3개(InfiniBand용 2개, 이더넷용 1개) PDU의 전기적 전류 모니터링용 2개(PDU 연결은 전기적 전류가 원격 으로 모니터링되는 경우에만 필요) 관련 정보 네트워크 요구 사항 개요 [296] 확장 랙 기본 IP 주소 [299] 확장 랙 내부 케이블 연결 이해 [299] Oracle Exadata Storage 확장 랙 설치 Oracle Exadata Storage 확장 랙 설치 절차는 Oracle SuperCluster T5-8 설치 절차와 같 습니다. 에서 절차를 참조한 후 여기로 돌아오십시오. 10GbE 클라이언트 액세스 네트워크 에 연결 및 선택적 광 섬유 채널 PCIe 카드 사용에 관한 절은 Oracle Exadata Storage 확장 랙에 적용되지 않습니다. 298 Oracle SuperCluster T5-8 2014년 10월

확장 랙 기본 IP 주소 확장 랙 기본 IP 주소 구성 요소 NET0 IP 주소 Oracle ILOM IP 주소 InfiniBand 연결된 IP 주소 Exadata Storage Server 18 192.168.1.68 192.168.1.168 192.168.10.68 Exadata Storage Server 17 192.168.1.67 192.168.1.167 192.168.10.67 Exadata Storage Server 16 192.168.1.66 192.168.1.166 192.168.10.66 Exadata Storage Server 15 192.168.1.65 192.168.1.165 192.168.10.65 Exadata Storage Server 14 192.168.1.64 192.168.1.164 192.168.10.64 Exadata Storage Server 13 192.168.1.63 192.168.1.163 192.168.10.63 Exadata Storage Server 12 192.168.1.62 192.168.1.162 192.168.10.62 Exadata Storage Server 11 192.168.1.61 192.168.1.161 192.168.10.61 Exadata Storage Server 10 192.168.1.60 192.168.1.160 192.168.10.60 Exadata Storage Server 9 192.168.1.59 192.168.1.159 192.168.10.59 Exadata Storage Server 8 192.168.1.58 192.168.1.158 192.168.10.58 Exadata Storage Server 7 192.168.1.57 192.168.1.157 192.168.10.57 Exadata Storage Server 6 192.168.1.56 192.168.1.156 192.168.10.56 Exadata Storage Server 5 192.168.1.55 192.168.1.155 192.168.10.55 Exadata Storage Server 4 192.168.1.54 192.168.1.154 192.168.10.54 Exadata Storage Server 3 192.168.1.53 192.168.1.153 192.168.10.53 Exadata Storage Server 2 192.168.1.52 192.168.1.152 192.168.10.52 Exadata Storage Server 1 192.168.1.51 192.168.1.151 192.168.10.51 Sun Datacenter InfiniBand Switch 36 스위치 3 192.168.1.223 해당 없음 해당 없음 Sun Datacenter InfiniBand Switch 36 스위치 2 192.168.1.222 해당 없음 해당 없음 Sun Datacenter InfiniBand Switch 36 스위치 1 192.168.1.221 해당 없음 해당 없음 이더넷 스위치 192.168.1.220 해당 없음 해당 없음 PDU-A 192.168.1.212 해당 없음 해당 없음 PDU-B 192.168.1.213 해당 없음 해당 없음 확장 랙 내부 케이블 연결 이해 다음 항목은 확장 랙에 대한 케이블 레이아웃을 표시합니다. 확장 랙 연결 299

확장 랙 내부 케이블 연결 이해 전면 및 후면 확장 랙 레이아웃 [300] Oracle ILOM 케이블 연결 [304] 관리 기가비트 이더넷 포트 케이블 연결 표 [305] 단상 PDU 케이블 연결 [307] 3상 배전 장치 케이블 연결 [309] InfiniBand 네트워크 케이블 연결 [311] 전면 및 후면 확장 랙 레이아웃 다음 그림에서는 확장 랙의 전면 및 후면 뷰를 보여줍니다. 300 그림 34. 확장 랙 레이아웃(풀 랙) 그림 35. 확장 랙 레이아웃(하프 랙) 그림 36. 확장 랙 레이아웃(쿼터 랙) Oracle SuperCluster T5-8 2014년 10월

확장 랙 내부 케이블 연결 이해 그림 34 확장 랙 레이아웃(풀 랙) 확장 랙 연결 301

확장 랙 내부 케이블 연결 이해 그림 35 확장 랙 레이아웃(하프 랙) * U21 302 Oracle SuperCluster T5-8 2014년 10월 * * *

확장 랙 내부 케이블 연결 이해 그림 36 확장 랙 레이아웃(쿼터 랙) 확장 랙 연결 303

확장 랙 내부 케이블 연결 이해 Oracle ILOM 케이블 연결 이 항목에는 Oracle ILOM 네트워크 케이블 연결이 나열된 표가 포함되어 있습니다. 서버의 Oracle ILOM 포트는 NET MGT로 레이블이 지정되고 확장 랙의 랙 장치 21에 있는 기가비 트 이더넷 포트에 연결됩니다. 표 63. 확장 랙에 대한 Oracle ILOM 케이블 연결(풀 랙) 표 64. 확장 랙에 대한 Oracle ILOM 케이블 연결(하프 랙) 표 65. 확장 랙에 대한 Oracle ILOM 케이블 연결(쿼터 랙) 표 63 시작 랙 장치 장비 유형 기가비트 이더넷 포트 U41 Exadata Storage Server 2 U39 Exadata Storage Server 4 U37 Exadata Storage Server 6 U35 Exadata Storage Server 8 U33 Exadata Storage Server 10 U31 Exadata Storage Server 12 U29 Exadata Storage Server 14 U27 Exadata Storage Server 18 U25 Exadata Storage Server 22 U18 Exadata Storage Server 26 U16 Exadata Storage Server 30 U14 Exadata Storage Server 32 U12 Exadata Storage Server 34 U10 Exadata Storage Server 36 U8 Exadata Storage Server 38 U6 Exadata Storage Server 40 U4 Exadata Storage Server 42 U2 Exadata Storage Server 44 표 64 304 확장 랙에 대한 Oracle ILOM 케이블 연결(풀 랙) 확장 랙에 대한 Oracle ILOM 케이블 연결(하프 랙) 시작 랙 장치 장비 유형 기가비트 이더넷 포트 U18 Exadata Storage Server 26 Oracle SuperCluster T5-8 2014년 10월

확장 랙 내부 케이블 연결 이해 시작 랙 장치 장비 유형 기가비트 이더넷 포트 U16 Exadata Storage Server 30 U14 Exadata Storage Server 32 U12 Exadata Storage Server 34 U10 Exadata Storage Server 36 U8 Exadata Storage Server 38 U6 Exadata Storage Server 40 U4 Exadata Storage Server 42 U2 Exadata Storage Server 44 확장 랙에 대한 Oracle ILOM 케이블 연결(쿼터 랙) 표 65 시작 랙 장치 장비 유형 기가비트 이더넷 포트 U8 Exadata Storage Server 38 U6 Exadata Storage Server 40 U4 Exadata Storage Server 42 U2 Exadata Storage Server 44 관리 기가비트 이더넷 포트 케이블 연결 표 이 항목에는 관리 기가비트 이더넷 네트워크 케이블 연결이 나열된 표가 포함되어 있습니다. 서버의 포트는 Net-0으로 레이블이 지정되고 확장 랙의 랙 장치 21에 있는 기가비트 이더넷 포트에 연결됩니다. 표 66. 확장 랙에 대한 기가비트 이더넷 케이블 연결(풀 랙) 표 67. 확장 랙에 대한 기가비트 이더넷 케이블 연결(하프 랙) 표 67. 확장 랙에 대한 기가비트 이더넷 케이블 연결(하프 랙) 표 66 확장 랙에 대한 기가비트 이더넷 케이블 연결(풀 랙) 시작 랙 장치 장비 유형 기가비트 이더넷 포트 U41 Exadata Storage Server 1 U39 Exadata Storage Server 3 U37 Exadata Storage Server 5 U35 Exadata Storage Server 7 확장 랙 연결 305

확장 랙 내부 케이블 연결 이해 시작 랙 장치 장비 유형 기가비트 이더넷 포트 U33 Exadata Storage Server 9 U31 Exadata Storage Server 11 U29 Exadata Storage Server 13 U27 Exadata Storage Server 17 U25 Exadata Storage Server 21 U24 Sun Datacenter InfiniBand Switch 36 스위치 45 U20 Sun Datacenter InfiniBand Switch 36 스위치 46 U18 Exadata Storage Server 25 U16 Exadata Storage Server 29 U14 Exadata Storage Server 31 U12 Exadata Storage Server 33 U10 Exadata Storage Server 35 U8 Exadata Storage Server 37 U6 Exadata Storage Server 39 U4 Exadata Storage Server 41 U2 Exadata Storage Server 43 U1 Sun Datacenter InfiniBand Switch 36 스위치 47 PDU-A PDU 15 PDU-B PDU 19 표 67 306 확장 랙에 대한 기가비트 이더넷 케이블 연결(하프 랙) 시작 랙 장치 장비 유형 기가비트 이더넷 포트 U24 Sun Datacenter InfiniBand Switch 36 스위치 45 U20 Sun Datacenter InfiniBand Switch 36 스위치 46 U18 Exadata Storage Server 25 U16 Exadata Storage Server 29 U14 Exadata Storage Server 31 U12 Exadata Storage Server 33 U10 Exadata Storage Server 35 U8 Exadata Storage Server 37 Oracle SuperCluster T5-8 2014년 10월

확장 랙 내부 케이블 연결 이해 시작 랙 장치 장비 유형 기가비트 이더넷 포트 U6 Exadata Storage Server 39 U4 Exadata Storage Server 41 U2 Exadata Storage Server 43 U1 Sun Datacenter InfiniBand Switch 36 스위치 47 PDU-A PDU 15 PDU-B PDU 19 확장 랙에 대한 기가비트 이더넷 케이블 연결(쿼터 랙) 표 68 시작 랙 장치 장비 유형 기가비트 이더넷 포트 U24 Sun Datacenter InfiniBand Switch 36 스위치 45 U20 Sun Datacenter InfiniBand Switch 36 스위치 46 U8 Exadata Storage Server 37 U6 Exadata Storage Server 39 U4 Exadata Storage Server 41 U2 Exadata Storage Server 43 PDU-A PDU 15 PDU-B PDU 19 단상 PDU 케이블 연결 이 항목에는 각 PDU에서 각 랙에 구성된 전원 공급 장치로의 단상 케이블 연결이 나열된 표 가 포함되어 있습니다. 케이블은 왼쪽의 PDU-A로 종료되고 오른쪽으로 라우팅되어 CMA에 들어가며, 4개의 그룹 묶음으로 제공됩니다. 표 69. 확장 랙에 대한 단상 PDU 케이블 연결(풀 랙) 표 70. 확장 랙에 대한 단상 PDU 케이블 연결(하프 랙) 표 71. 확장 랙에 대한 단상 PDU 케이블 연결(쿼터 랙) 표 69 확장 랙에 대한 단상 PDU 케이블 연결(풀 랙) 랙 장치 PDU-A/PS-00 PDU-B/PS-01 케이블 길이 U41 G5-6 G0-0 2미터 U39 G5-3 G0-3 2미터 확장 랙 연결 307

확장 랙 내부 케이블 연결 이해 랙 장치 PDU-A/PS-00 PDU-B/PS-01 케이블 길이 U37 G5-0 G0-6 2미터 U35 G4-6 G1-0 2미터 U33 G4-4 G1-2 2미터 U31 G4-2 G1-4 2미터 U29 G3-6 G2-0 2미터 U27 G3-5 G2-1 2미터 U25 G3-3 G2-3 2미터 U24 G3-1 G2-5 2미터 U23 해당 없음 G3-0 포함 U22 G2-5 G3-1 1미터 U21 G3-0 G2-6 2미터 U20 G2-4 G3-2 2미터 U18 G2-2 G3-4 2미터 U16 G1-6 G4-0 2미터 U14 G2-0 G3-6 2미터 U12 G1-4 G4-2 2미터 U10 G1-2 G4-4 2미터 U8 G1-0 G4-6 2미터 U6 G0-6 G5-0 2미터 U4 G0-4 G5-2 2미터 U2 G0-2 G5-4 2미터 U1 G0-0 G5-6 2미터 표 70 308 확장 랙에 대한 단상 PDU 케이블 연결(하프 랙) 랙 장치 PDU-A/PS-00 PDU-B/PS-01 케이블 길이 U24 G3-1 G2-5 2미터 U23 해당 없음 G3-0 포함 U22 G2-5 G3-1 1미터 U21 G3-0 G2-6 2미터 U20 G2-4 G3-2 2미터 Oracle SuperCluster T5-8 2014년 10월

확장 랙 내부 케이블 연결 이해 랙 장치 PDU-A/PS-00 PDU-B/PS-01 케이블 길이 U18 G2-2 G3-4 2미터 U16 G1-6 G4-0 2미터 U14 G2-0 G3-6 2미터 U12 G1-4 G4-2 2미터 U10 G1-2 G4-4 2미터 U8 G1-0 G4-6 2미터 U6 G0-6 G5-0 2미터 U4 G0-4 G5-2 2미터 U2 G0-2 G5-4 2미터 확장 랙에 대한 단상 PDU 케이블 연결(쿼터 랙) 표 71 랙 장치 PDU-A/PS-00 PDU-B/PS-01 케이블 길이 U24 G3-1 G2-5 2미터 U23 해당 없음 G3-0 포함 U22 G2-5 G3-1 1미터 U21 G3-0 G2-6 2미터 U20 G2-4 G3-2 2미터 U8 G1-0 G4-6 2미터 U6 G0-6 G5-0 2미터 U4 G0-4 G5-2 2미터 U2 G0-2 G5-4 2미터 3상 배전 장치 케이블 연결 이 항목에는 각 PDU에서 각 랙에 구성된 전원 공급 장치로의 3상 케이블 연결이 나열된 표가 포함되어 있습니다. 케이블은 왼쪽의 PDU-A로 종료되고 오른쪽으로 라우팅되어 CMA에 들 어가며, 4개의 그룹 묶음으로 제공됩니다. 표 72. 확장 랙에 대한 3상 PDU 케이블 연결(풀 랙) 표 73. 확장 랙에 대한 3상 PDU 케이블 연결(하프 랙) 표 74. 확장 랙에 대한 3상 PDU 케이블 연결(쿼터 랙) 확장 랙 연결 309

확장 랙 내부 케이블 연결 이해 표 72 랙 장치 PDU-A/PS-00 PDU-B/PS-01 케이블 길이 U41 G5-6 G2-0 2미터 U39 G5-3 G2-3 2미터 U37 G5-0 G2-6 2미터 U35 G4-6 G1-0 2미터 U33 G4-4 G1-2 2미터 U31 G4-2 G1-4 2미터 U29 G3-6 G0-0 2미터 U27 G3-5 G0-1 2미터 U25 G3-3 G0-3 2미터 U24 G3-1 G0-5 2미터 U23 해당 없음 G5-0 포함 U22 G2-5 G5-1 1미터 U21 G3-0 G0-6 2미터 U20 G2-4 G5-2 2미터 U18 G2-2 G5-4 2미터 U16 G1-6 G4-0 2미터 U14 G2-0 G5-6 2미터 U12 G1-4 G4-2 2미터 U10 G1-2 G4-4 2미터 U8 G1-0 G4-6 2미터 U6 G0-6 G3-0 2미터 U4 G0-4 G3-2 2미터 U2 G0-2 G3-4 2미터 U1 G0-0 G3-6 2미터 표 73 310 확장 랙에 대한 3상 PDU 케이블 연결(풀 랙) 확장 랙에 대한 3상 PDU 케이블 연결(하프 랙) 랙 장치 PDU-A/PS-00 PDU-B/PS-01 케이블 길이 U24 G3-1 G0-5 2미터 U23 해당 없음 G5-0 포함 U22 G2-5 G5-1 1미터 Oracle SuperCluster T5-8 2014년 10월

확장 랙 내부 케이블 연결 이해 랙 장치 PDU-A/PS-00 PDU-B/PS-01 케이블 길이 U21 G3-0 G0-6 2미터 U20 G2-4 G5-2 2미터 U18 G2-2 G5-4 2미터 U16 G1-6 G4-0 2미터 U14 G2-0 G5-6 2미터 U12 G1-4 G4-2 2미터 U10 G1-2 G4-4 2미터 U8 G1-0 G4-6 2미터 U6 G0-6 G3-0 2미터 U4 G0-4 G3-2 2미터 U2 G0-2 G3-4 2미터 U1 G0-0 G3-6 2미터 확장 랙에 대한 3상 PDU 케이블 연결(쿼터 랙) 표 74 랙 장치 PDU-A/PS-00 PDU-B/PS-01 케이블 길이 U24 G3-1 G0-5 2미터 U23 해당 없음 G5-0 포함 U22 G2-5 G5-1 1미터 U21 G3-0 G0-6 2미터 U20 G2-4 G5-2 2미터 U8 G1-0 G4-6 2미터 U6 G0-6 G3-0 2미터 U4 G0-4 G3-2 2미터 U2 G0-2 G3-4 2미터 InfiniBand 네트워크 케이블 연결 이 항목에는 InfiniBand 네트워크 케이블 연결이 나열된 표가 포함되어 있습니다. Sun Datacenter InfiniBand Switch 36 스위치는 랙 장치 1, 20 및 24에 있습니다. 표 74. 확장 랙에 대한 3상 PDU 케이블 연결(쿼터 랙) 표 75. 확장 랙에 대한 InfiniBand 네트워크 케이블 연결(풀 랙) 확장 랙 연결 311

확장 랙 내부 케이블 연결 이해 표 75 표 77. 확장 랙에 대한 InfiniBand 네트워크 케이블 연결(쿼터 랙) 확장 랙에 대한 InfiniBand 네트워크 케이블 연결(풀 랙) 시작 InfiniBand 스 위치 랙 장치 포트 대상 랙 장치 장비 유형 포트 케이블 설명 U24 0A U41 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U24 0B U39 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U24 1A U37 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U24 1B U35 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U24 2A U33 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U24 2B U31 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U24 3A U29 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U24 4A U27 Exadata Storage Server PCIe 2, P1 2미터 QDR InfiniBand 케이블 U24 5A U25 Exadata Storage Server PCIe 2, P1 2미터 QDR InfiniBand 케이블 U24 13A U18 Exadata Storage Server PCIe 2, P2 2미터 QDR InfiniBand 케이블 U24 14A U16 Exadata Storage Server PCIe 2, P2 2미터 QDR InfiniBand 케이블 U24 14B U14 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 15A U12 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 15B U10 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 16A U8 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 16B U6 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 17A U4 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 17B U2 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U20 0A U41 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U20 0B U39 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U20 1A U37 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U20 1B U35 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U20 2A U33 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U20 2B U31 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U20 3A U29 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U20 4A U27 Exadata Storage Server PCIe 2, P2 2미터 QDR InfiniBand 케이블 U20 5A U25 Exadata Storage Server PCIe 2, P2 2미터 QDR InfiniBand 케이블 312 Oracle SuperCluster T5-8 2014년 10월

확장 랙 내부 케이블 연결 이해 시작 InfiniBand 스 위치 랙 장치 포트 대상 랙 장치 장비 유형 포트 케이블 설명 U20 13A U18 Exadata Storage Server PCIe 2, P1 2미터 QDR InfiniBand 케이블 U20 14A U16 Exadata Storage Server PCIe 2, P1 2미터 QDR InfiniBand 케이블 U20 14B U14 Exadata Storage Server PCIe 3, P1 2미터 QDR InfiniBand 케이블 U20 15A U12 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 15B U10 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 16A U8 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 16B U6 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 17A U4 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 17B U2 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 9B U24 Sun Datacenter InfiniBand Switch 36 스위치 9A 2미터 QDR InfiniBand 케이블 U20 10B U24 Sun Datacenter InfiniBand Switch 36 스위치 10A 2미터 QDR InfiniBand 케이블 U20 11B U24 Sun Datacenter InfiniBand Switch 36 스위치 11A 2미터 QDR InfiniBand 케이블 U20 8A U24 Sun Datacenter InfiniBand Switch 36 스위치 8A 2미터 QDR InfiniBand 케이블 U20 9A U24 Sun Datacenter InfiniBand Switch 36 스위치 9B 2미터 QDR InfiniBand 케이블 U20 10A U24 Sun Datacenter InfiniBand Switch 36 스위치 10B 2미터 QDR InfiniBand 케이블 U20 11A U24 Sun Datacenter InfiniBand Switch 36 스위치 11B 2미터 QDR InfiniBand 케이블 U1 1B U20 Sun Datacenter InfiniBand Switch 36 스위치 8B 3미터 QDR InfiniBand 케이블 U1 0B U24 Sun Datacenter InfiniBand Switch 36 스위치 8B 3미터 QDR InfiniBand 케이블 표 76 확장 랙에 대한 InfiniBand 네트워크 케이블 연결(하프 랙) 시작 InfiniBand 스 위치 랙 장치 포트 대상 랙 장치 장비 유형 포트 케이블 설명 U24 13A U18 Exadata Storage Server PCIe 2, P2 2미터 QDR InfiniBand 케이블 U24 14A U16 Exadata Storage Server PCIe 2, P2 2미터 QDR InfiniBand 케이블 U24 14B U14 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 15A U12 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 확장 랙 연결 313

확장 랙 내부 케이블 연결 이해 시작 InfiniBand 스 위치 랙 장치 포트 대상 랙 장치 장비 유형 포트 케이블 설명 U24 15B U10 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 16A U8 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 16B U6 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 17A U4 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 17B U2 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U20 13A U18 Exadata Storage Server PCIe 2, P1 2미터 QDR InfiniBand 케이블 U20 14A U16 Exadata Storage Server PCIe 2, P1 2미터 QDR InfiniBand 케이블 U20 14B U14 Exadata Storage Server PCIe 3, P1 2미터 QDR InfiniBand 케이블 U20 15A U12 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 15B U10 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 16A U8 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 16B U6 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 17A U4 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 17B U2 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 9B U24 Sun Datacenter InfiniBand Switch 36 스위치 9A 2미터 QDR InfiniBand 케이블 U20 10B U24 Sun Datacenter InfiniBand Switch 36 스위치 10A 2미터 QDR InfiniBand 케이블 U20 11B U24 Sun Datacenter InfiniBand Switch 36 스위치 11A 2미터 QDR InfiniBand 케이블 U20 8A U24 Sun Datacenter InfiniBand Switch 36 스위치 8A 2미터 QDR InfiniBand 케이블 U20 9A U24 Sun Datacenter InfiniBand Switch 36 스위치 9B 2미터 QDR InfiniBand 케이블 U20 10A U24 Sun Datacenter InfiniBand Switch 36 스위치 10B 2미터 QDR InfiniBand 케이블 U20 11A U24 Sun Datacenter InfiniBand Switch 36 스위치 11B 2미터 QDR InfiniBand 케이블 U1 1B U20 Sun Datacenter InfiniBand Switch 36 스위치 8B 3미터 QDR InfiniBand 케이블 U1 0B U24 Sun Datacenter InfiniBand Switch 36 스위치 8B 3미터 QDR InfiniBand 케이블 314 Oracle SuperCluster T5-8 2014년 10월

Oracle SuperCluster T5-8에 확장 랙 연결 표 77 확장 랙에 대한 InfiniBand 네트워크 케이블 연결(쿼터 랙) 시작 InfiniBand 스 위치 랙 장치 포트 대상 랙 장치 장비 유형 포트 케이블 설명 U24 16A U8 Exadata Storage Server PCIe 2, P2 2미터 QDR InfiniBand 케이블 U24 16B U6 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 17A U4 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U24 17B U2 Exadata Storage Server PCIe 3, P2 3미터 QDR InfiniBand 케이블 U20 16A U8 Exadata Storage Server PCIe 2, P1 2미터 QDR InfiniBand 케이블 U20 16B U6 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 17A U4 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 17B U2 Exadata Storage Server PCIe 3, P1 3미터 QDR InfiniBand 케이블 U20 9B U24 Sun Datacenter InfiniBand Switch 36 스위치 9A 2미터 QDR InfiniBand 케이블 U20 10B U24 Sun Datacenter InfiniBand Switch 36 스위치 10A 2미터 QDR InfiniBand 케이블 U20 11B U24 Sun Datacenter InfiniBand Switch 36 스위치 11A 2미터 QDR InfiniBand 케이블 U20 8A U24 Sun Datacenter InfiniBand Switch 36 스위치 8A 2미터 QDR InfiniBand 케이블 U20 9A U24 Sun Datacenter InfiniBand Switch 36 스위치 9B 2미터 QDR InfiniBand 케이블 U20 10A U24 Sun Datacenter InfiniBand Switch 36 스위치 10B 2미터 QDR InfiniBand 케이블 U20 11A U24 Sun Datacenter InfiniBand Switch 36 스위치 11B 2미터 QDR InfiniBand 케이블 Oracle SuperCluster T5-8에 확장 랙 연결 3개의 Sun Datacenter InfiniBand Switch 36 스위치를 사용해서 Oracle SuperCluster T5-8에 확장 랙을 연결합니다. Oracle SuperCluster T5-8과 Oracle Exadata Storage 확 장 하프 랙 또는 Oracle Exadata Storage 확장 풀 랙은 3개의 Sun Datacenter InfiniBand Switch 36 스위치를 포함합니다. 두 스위치는 리프 스위치로 사용되고, 세번째 스위치 는 스파인 스위치로 사용됩니다. 이러한 스위치는 InfiniBand 케이블의 끝에 있는 표준 QSFP(Quad Small Form-factor Pluggable) 커넥터에 연결할 수 있습니다. 이 절의 절차는 랙이 서로 인접해 있다고 가정합니다. 그렇지 않을 경우 연결하는 데 더 긴 케이블이 필요할 수 있습니다. 확장 랙 연결 315

Oracle SuperCluster T5-8에 확장 랙 연결 참고 - Oracle Exadata Storage 확장 쿼터 랙은 두 개의 Sun Datacenter InfiniBand Switch 36 스위치(리프 스위치)만 포함하므로 Oracle Exadata Storage 확장 쿼터 랙에 서 사용 가능한 스파인 스위치는 없습니다. 자세한 내용은 Oracle SuperCluster T5-8에 Oracle Exadata Storage 확장 쿼터 랙 연결 [317]을 참조하십시오. Oracle SuperCluster T5-8에 대한 InfiniBand 스위치 정 보 Oracle SuperCluster T5-8에서 랙 장치 1(U1)에 있는 스위치를 스파인 스위치라고 합니다. 랙 장치 26(U26) 및 랙 장치 32(U32)에 있는 스위치는 리프 스위치라고 합니다. 단일 랙의 경우 두 개의 리프 스위치가 7개의 연결을 사용하여 서로 연결됩니다. 또한 각 리프 스위치에 는 스파인 스위치에 대한 연결이 한 개 있습니다. 리프 스위치는 다음 그림에 표시된 것과 같 이 스파인 스위치에 연결됩니다. 316 Oracle SuperCluster T5-8 2014년 10월

Oracle SuperCluster T5-8에 확장 랙 연결 Oracle Exadata Storage 확장 랙에 대한 InfiniBand 스 위치 정보 Oracle Exadata Storage 확장 랙에서 랙 장치 1(U1)에 있는 스위치를 스파인 스위치라 고 합니다(단, Oracle Exadata Storage 확장 쿼터 랙은 스파인 스위치가 없음). 랙 장치 20(U20) 및 랙 장치 24(U24)에 있는 스위치는 리프 스위치라고 합니다. Oracle SuperCluster T5-8에 Oracle Exadata Storage 확장 쿼터 랙 연결 다음 항목은 Oracle Exadata Storage 확장 쿼터 랙을 Oracle SuperCluster T5-8에 연결하 는 방법에 대해 설명합니다. 확장 랙 연결 317

Oracle SuperCluster T5-8에 확장 랙 연결 참고 - Oracle Exadata Storage 확장 하프 랙 또는 Oracle Exadata Storage 확장 풀 랙 을 Oracle SuperCluster T5-8에 연결하는 지침은 Oracle SuperCluster T5-8에 Oracle Exadata Storage 확장 하프 랙 또는 Oracle Exadata Storage 확장 풀 랙 연결 [321]을 참조하십시오. Oracle Exadata Storage 확장 쿼터 랙을 Oracle SuperCluster T5-8로 연결할 때는 다음 제한 사항에 주의하십시오. Oracle Exadata Storage 확장 쿼터 랙의 표준 버전에는 2개의 리프 스위치가 포함되고 스파인 스위치는 포함되지 않습니다. 일반적으로 Oracle SuperCluster T5-8의 리프 스 위치에 대해 Oracle Exadata Storage 확장 쿼터 랙의 각 리프 스위치를 두 번 연결합니 다. 따라서 이 유형의 연결을 위해서는 Oracle SuperCluster T5-8의 각 리프 스위치에 4개의 열린 포트가 있어야 합니다. Oracle SuperCluster T5-8의 하프 랙 버전에서는 두 리프 스위치에 4개의 포트가 열려 있습니다(포트 2A, 2B, 7B 및 12A). 이 절의 지침에 따라 Oracle SuperCluster T5-8 의 리프 스위치에 대해 Oracle Exadata Storage 확장 쿼터 랙의 각 리프 스위치 사이에 2개의 연결을 설정하십시오. Oracle SuperCluster T5-8의 풀 랙 버전에서는 두 리프 스위치에서 2개의 포트만 열 려 있습니다(포트 2A 및 2B). 따라서 Oracle Exadata Storage 확장 쿼터 랙을 Oracle SuperCluster T5-8의 풀 랙 버전에 연결할 때는 Oracle에서 스파인 스위치 키트를 주 문하고 이 스파인 스위치를 Oracle Exadata Storage 확장 쿼터 랙에 설치해야 합니다. 그런 다음 Oracle SuperCluster T5-8에 Oracle Exadata Storage 확장 하프 랙 또 는 Oracle Exadata Storage 확장 풀 랙 연결 [321]에 제공된 지침에 따라 Oracle Exadata Storage 확장 쿼터 랙을 Oracle SuperCluster T5-8에 연결합니다. Oracle SuperCluster T5-8의 하프 랙 버전에 는 하나의 Oracle Exadata Storage 확장 쿼터 랙만 연결할 수 있습니다. 다음 그림은 Oracle Exadata Storage 확장 쿼터 랙에서 Oracle SuperCluster T5-8의 하프 랙 버전으로의 케이블 연결을 보여줍니다. 각 랙 안의 리프 스위치는 기존의 7개 연결을 유지 합니다. 리프 스위치는 외부 연결용으로 예약된 포트를 사용하여 두 링크로 랙 사이를 상호 연결합니다. 318 Oracle SuperCluster T5-8 2014년 10월

Oracle SuperCluster T5-8에 확장 랙 연결 다음 그래픽은 Oracle Exadata Storage 확장 쿼터 랙에서 2개 이상의 랙으로 케이블 연결 을 보여줍니다. 다음 랙은 표준 Oracle Exadata Storage 확장 쿼터 랙에 연결할 수 있습니 다(스파인 스위치 포함 안함). Oracle SuperCluster T5-8의 하프 랙 버전 Oracle Exadata Storage 확장 하프 랙 Oracle Exadata Storage 확장 풀 랙 팻트리 토폴로지를 사용하여 랙이 상호 연결됩니다. Oracle Exadata Storage 확장 쿼터 랙 의 각 리프 스위치는 다른 하프 랙 또는 풀 랙의 스파인 스위치에 두 링크로 연결됩니다. 랙이 4개보다 많은 경우 두 링크 대신 한 링크를 사용합니다. 확장 랙 연결 319

Oracle SuperCluster T5-8에 확장 랙 연결 두 랙을 지칭할 때 다음 용어가 사용됩니다. 랙 1(R1)은 Oracle SuperCluster T5-8(하프 랙)을 나타냅니다. 랙 2(R2)는 Oracle Exadata Storage 확장 쿼터 랙을 가리킵니다. 또한 InfiniBand 스위치는 두 랙에서 물리적으로 서로 다른 랙 장치에 위치하므로 InfiniBand 스위치를 지칭할 때 다음 용어가 사용됩니다. InfiniBand 1(IB1)은 Oracle SuperCluster T5-8에서 U1에 위치한 스파인 스위치를 가 리킵니다. InfiniBand 2(IB2)는 다음에 위치한 첫번째 리프 스위치를 가리킵니다. Oracle SuperCluster T5-8(하프 랙)의 U26 Oracle Exadata Storage 확장 랙의 U20 InfiniBand 3(IB3)은 다음에 위치한 두번째 리프 스위치를 가리킵니다. Oracle SuperCluster T5-8(하프 랙)의 U32 Oracle Exadata Storage 확장 랙의 U24 다음 표는 Oracle SuperCluster T5-8의 하프 랙 버전에 대한 단일 Oracle Exadata Storage 확장 쿼터 랙의 케이블 연결을 보여줍니다. 표 78 두 개 랙 시스템의 첫번째 랙에 대한 리프 스위치 연결 리프 스위치 연결 케이블 길이 R1-IB3을 랙 2로 R1-IB3-P2A ~ R2-IB3-P2A R1-IB3-P2B ~ R2-IB3-P2B 320 Oracle SuperCluster T5-8 2014년 10월

Oracle SuperCluster T5-8에 확장 랙 연결 리프 스위치 연결 케이블 길이 R1-IB3-P7B ~ R2-IB2-P7B R1-IB3-P12A ~ R2-IB2-P12A R1-IB2를 랙 2로 R1-IB2-P7B ~ R2-IB3-P7B R1-IB2-P12A ~ R2-IB3-P12A R1-IB2-P2A ~ R2-IB2-P2A R1-IB2-P2B ~ R2-IB2-P2B Oracle SuperCluster T5-8에 Oracle Exadata Storage 확장 하프 랙 또는 Oracle Exadata Storage 확장 풀 랙 연결 다음 항목은 Oracle Exadata Storage 확장 하프 랙 또는 Oracle Exadata Storage 확장 풀 랙을 Oracle SuperCluster T5-8에 연결하는 방법에 대해 설명합니다. 참고 - Oracle SuperCluster T5-8의 하프 랙 버전에 대한 Oracle Exadata Storage 확장 쿼 터 랙 연결 지침은 Oracle SuperCluster T5-8에 Oracle Exadata Storage 확장 쿼터 랙 연 결 [317]을 참조하십시오. 여러 개의 랙을 함께 연결할 경우 리프 스위치 간 7개의 기존 연결 및 리프 스위치와 스파인 스위치 간 두 개의 연결을 제거하십시오. 각 리프 스위치에서 8개의 연결을 모든 랙에 있는 스파인 스위치에 분배하십시오. 다음 그림에 표시된 것과 같이, 복수 랙 환경에서는 한 랙 내 에 있는 리프 스위치를 더 이상 서로 연결할 수 없습니다. 확장 랙 연결 321

Oracle SuperCluster T5-8에 확장 랙 연결 위 그림에 표시된 것과 갈이, 랙 1의 각 리프 스위치는 다음 스위치에 연결됩니다. 내부 스파인 스위치에 대한 네 개의 연결 랙 2의 스파인 스위치에 대한 네 개의 연결 랙 1의 스파인 스위치는 다음 스위치에 연결됩니다. 두 내부 리프 스위치에 대한 8개의 연결 랙 2의 두 리프 스위치에 대한 8개의 연결 두 랙을 지칭할 때 다음 용어가 사용됩니다. 랙 1(R1)은 Oracle SuperCluster T5-8을 가리킵니다. 랙 2(R2)는 Oracle Exadata Storage 확장 랙을 가리킵니다. 또한 InfiniBand 스위치는 두 랙에서 물리적으로 서로 다른 랙 장치에 위치하므로 InfiniBand 스위치를 지칭할 때 다음 용어가 사용됩니다. InfiniBand 1(IB1)은 양쪽 랙에서 U1에 위치한 스파인 스위치를 가리킵니다. InfiniBand 2(IB2)는 다음에 위치한 첫번째 리프 스위치를 가리킵니다. Oracle SuperCluster T5-8의 U26 Oracle Exadata Storage 확장 랙의 U20 InfiniBand 3(IB3)은 다음에 위치한 두번째 리프 스위치를 가리킵니다. Oracle SuperCluster T5-8의 U32 Oracle Exadata Storage 확장 랙의 U24 다음 절에서는 Oracle Exadata Storage 확장 하프 랙 또는 Oracle Exadata Storage 확장 풀 랙을 Oracle SuperCluster T5-8에 연결하는 데 필요한 정보를 제공합니다. 322 Oracle SuperCluster T5-8 2014년 10월