데이터센터의표준화패러다임을 통한효율적클라우드접근방안 이무범 Pre-Sales 한국알카텔루슨트
Agenda 1. Cloud Computing의배경 2. 표준기술에대한고려사항 3. Open Fabric을위한구축전략 4. NGDC를위한방향제시
1 Cloud Computing 의배경
구름
수증기 / 물방울
Cloud Computing???
수증기 / 물방울 = Data Center Server Farms Application Optimization Server Farms Application Optimization Storage Arrays (SAN) Storage Arrays (SAN) Data Center Data Center Application Optimization Server Farms Server Farms Application Optimization Storage Arrays (SAN) Storage Arrays (SAN) Data Center Data Center
수증기 / 물방울 = Data Center Server Farms Application Optimization Server Farms Application Optimization Storage Arrays (SAN) Storage Arrays (SAN) Data Center Data Center Cloud Computing Application Optimization Server Farms Server Farms Application Optimization Storage Arrays (SAN) Storage Arrays (SAN) Data Center Data Center
서비스제공에따른 Cloud Computing SaaS(Software as a Service) : Application 서비스 - Google - Google Apps (Online Apps - Gmail, Officeware etc) - Salesforce - Salesforce.com (CRM) - Microsoft - Microsoft online service, Windows Live PaaS Platform as a Service : 표준화된플랫폼서비스 - Google - Google Apps Engine (Virtual Server) - Salesforce - force.com (Platform for web apps development) IaaS Infrastructure as a Service : 서버 / 자원디바이스서비스 - 최근 Service Provider 들은서비스로서인프라스트럭처 (IaaS) 서비스를출시하면서일정기간을 기준으로한정액요금제를제시했다. 클라우드서비스의기본사상은언제어디서든필요한서비스를자동으로제공받고확장서비스도유연하게이뤄져야한다. 비용은쓴만큼만지불하면된다. 이러한클라우드의기본사상을원활하게지원하기위해선가상화, 자동화, 표준화, 멀티테넌시등이필수적으로지원돼야한다. 2010.12.27 전자신문, 한국형클라우드라고?
서비스주체에따른 Cloud Computing 서비스의주체 Private Cloud : 모든서비스자체제공 장점 : 빠른시간에대응가능 단점 : 많은 Resource 등의고비용발생 Public Cloud : WAN 을통한 Service Provider 에서제공 장점 : 저비용 단점 : 서비스대응시간느림 Server Farms Application Optimization Storage Arrays (SAN) Private Cloud Server Farms Application Optimization Storage Arrays (SAN) Core Public Cloud Service Provider WAN
Hybrid Cloud Private Cloud 와 Public Cloud 의장점을통한 Server Farms Application Optimization 무중단서비스 Storage Arrays (SAN) Public Cloud 장점 서비스요구에대한신속한서비스와비용절감서비스시작과끝의신속한대응 최적의환경을위한효율적구성 Private Cloud근간의 IaaS 사용자의증가에민첩대응 Private Cloud근간의 SaaS 대외비의주요 Application Public Cloud근간의 IaaS - 향후필요한물리적서버 Public Cloud근간의 PaaS 비중낮은 Application Server Farms Application Optimization Storage Arrays (SAN) A Site WAN Private Cloud Server Farms Application Optimization Storage Arrays (SAN) B Site
NGDC Network 구축의목표 다수의서버및스토리지를하나의플랫폼같이유기적인연동을통하여많은 트래픽의효율적인빠른처리를위한안정성및성능제고 Server Farms Application Optimization Storage Arrays (SAN) FCoE/iSCSI
2 표준기술에대한고려사항
Data Center 구축을위한고려사항 By NetworkWorld 2011 Jan.
Data Center 구축을위한고려사항 By NetworkWorld 2011 Jan. 무중단서비스를위한안정성안정성 Next Generation Data Center Enhanced Cloud Computing 호환성
NGDC 를위한주요기술 Shortest Path Bridging (SPB) Transparent Interconnection of Lots of Links (TRILL) Edge Virtual Bridging (incl. former VEPA) Data Center Bridging (, QCN, ETS, DCBX) Internet Small Computer System Interface (iscsi) Fiber Channel over Ethernet (FCoE) IEEE 40 and 100 Gigabit Ethernet
NGDC 를위한접근방안 Cloud Service 를위한경쟁력있는정보인프라구축 Next Generation Data Center Consolidation 단순화 / Simple 네트워크자원 / Switch, Server, Storage 가상화 Easy Management 통합 특징대상주요기술효과 Convergence 단일화 / Unique Media / Ethernet Lossless Fabric / DCB 낮은 COPEX / OPEX
Hypervisor Consolidation (Server and Network Virtualization) 네트워크인프라 / 서버의단순화 DC site 의단순화 Data Center Sites 필요성 비용절감 : 공간, 전력및냉각시스템 중앙집중화된간편한관리 새로운응용기술 Physical Servers 네트워크가상화 서버가상화 데스크탑가상화 네트워크관점에서요구사항 VM_A Appli OS VM_B Appli OS 네트워크의향상된대역폭 서버간의낮은 Latency 제공 VM 의이동성보장 Virtual Ethernet Bridge Virtualized Server
단일계층의 Data Center 구축 서버-스위치, 스위치-스위치간낮은 Latency Aggregation Layer의생략 (3 Tiers -> 2 Tiers -> 1 Tier) 다양한 Application Service를위해 North to-south 트래픽보다 West-to-East 트래픽의증가높은실질성능과유선속도의높은포트밀도요구됨 One hop 생략시 10~20 us 의성능개선 Network 데이터센터의가상화를통한 One hop North-to-South Traffic 3Tier 에서 2Tier 로 Aggregation Layer 생략 Access(ToR/EoR) Core FCOE iscsi East-to-West Traffic Application Server Application Server Application Server Media Server Fiber Channel Forwarder Storage iscsi Storage Storage < 데이터센터의진화 >
단일계층을위한필수요소 TRILL (IETF 권고 - 비표준 ) 스위치간, 서버 - 스위치간 L2 구성에서의다중화 회선구성 / Shortest Path Bridging (SPB) 기존 Spanning Tree 를통한구성 Core TRILL L2 구성 ToR/EoR Application Server Application Server Core SPT L2 구성 ToR/EoR IS-IS 근거한 Control Protocol 사용 -> 스위치간 Link 상태및 MAC Address 정보교환 Transparent Interconnection of Lots of Links Shortest Path First Algorithm Un-know Unicast/Broadcast 의 Flooding 으로불필요트래픽발생 SPB (IEEEE 802.1aq 규정 - 표준 ) Application Server Application Server - 모든경로활용 -End-to-End 간가장짧은경로활용 -ECMP 또는 ECT(Equal Cost Tree) 활용 - 장애시빠른복원력 (100ms 이내 ) Core SPB L2 구성 ToR/EoR 다중링크의 Active-standby 구성으로장애시복구시간소요 Root Bridge 로트래픽의집중화로네트워크의효율적인 Bandwidth 활용저하 Application Server Application Server Shortest Path Bridging 최적의패킷라우팅을위해노드당하나의 Tree 생성 SPB-V : 802.1Q frame 사용, 100 노드이하의규모시활용 SPB-M : 802.1ah(Q in Q) Packet format 사용, 1000 노드이하의규모시활용
네트워크의단일화 - 네트워크가상화 (Multi-Chassis Link Aggregation) MC-LAG : 스위치간 IEEE 802.3ad 로연결시논리적하나의시스템으로자동구성되는가상화기능 MC-LAG VFL Core 의논리적단일화 Virtual Chassis 구현 Dual Homing 가능 VFL(Virtual Fabric Link) : MC-LAG 구성시자동으로구동되어두스위치의패브릭을하나의패브릭으로결합시켜주는프로토콜로대역폭확장및안정한백업방안 Access Switch Application Server 회선의이중화 /Active-Active STP 미사용표준 LACP 이용 장점 : 2 배의네트워크성능향상표준인 802.3ad 에근거한연결로이기종호환성보장현존하는이기종 switches 의투자보호 Plug & play 에의한네트워크관리의단순화 Node 의안정성및회선이중화기능향상장애시 50ms 이내빠른복구 Spanning-Tree, VRRP 가필요없는단순한네트워크디자인구성
Hypervisor 서버의단일화 서버가상화 서버의효율적관리를위한가상화 가상화를통한서버운용시, 10~20% 에서 40~60% 의효율성향상 2 배에서 6 배까지효율성향상 가상화를통한데스크탑의전망 보안성의향상 데스크탑의운용및유지비절감 Virtualized Server 가상화를통한 Network Infrastructure 의 Stress Virtual Machine 의이동성 매우빠른네트워크 서비스의새로운구성이필요 VM_A Appli OS VM_B Appli OS East-West BW 제공이필요시 L2 접속을통한구성 이중화모드에서 VM 낮은 Latency 필요 Virtual Ethernet Bridge Hypervisor introduces virtual switch visibility and troubleshooting challenge
서버가상화를위한필수요소 (Hypervisor) Hypervisor 의정의 물리적서버위에존재하는가상화레이어로서, 운용체제구동을위한하드웨어환경을가상으로제공함. 프로세서나메모리와같은다양한컴퓨터자원에서러다른운영체계 (OS) 의접근방법을통제하는얇은계층의소프트웨어임. 다수의 OS를하나의시스템에서가동할수있게하는소프트웨어로중앙처리장치 (CPU) 와 OS 사이에일종의미들웨어로사용되며, 하나의컴퓨터에서서로다른 OS를사용하여가상컴퓨터를만들수있는효과적인가상화엔진. Virtual Switching VM #1 VM #n APP.. APP Virtual Machine(VM) Hypervisor 에의해생성된물리적서버상의가상화서버 OS #1 OS #n vswitch(virtual Switching) 물리적서버내에서 Virtual Machine(VM) 간의통신물리적 Ethernet Switch없이 Ethernet switch의기능을 Software로구현데이터센터의물리적 Ethernet Switch에대해독립적인새로운스위칭개념등장 vswitch의취약점 Hypervisor SMP Server CPU, Memory Etherent Switch 의 H/W 적처리를물리적서버의 CPU 만을통한처리로 OverLoad 우려 -> 성능저하
Hypervisors 의동작모드 서버내에서 VM 간스위칭없음 Virtual Ethernet Aggregator (VEPA) Hypervisor VM1 VNIC Edge Relay VM2 VNIC Virtual Ethernet Bridge (VEB) Hypervisor VM1 VNIC vswitch VM2 VNIC 서버내에서 VM 간스위칭제공 NIC NIC NIC Switch Performs Hairpin Turns, as needed Switch Switch Switch Performs Hairpin Turns, as needed
효율적서버가상화 Virtual Ethernet Aggregation(VEPA) Edge Virtual Bridging (IEEE 802.1Qbg) Virtual Switching의취약점보완을위하여 Data Center내의물리적스위치를통한 VM간스위칭각 VM간의스위칭을위해 Hypervisor는각 VM간의트래픽을물리적 Ethernet 스위치로 Aggregate 전송. 데이터센터내의물리적 Ethernet 스위치가 VM간의 Virtual Switching을대신해줌 VEPA를통해가상화된서버내의 VM간통신성능향상 Virtualized Server with combination of Virtual Ethernet Bridge, Virtual Ethernet Aggregator, Virtual Station Interface Per IEEE 802.1Qbg Edge Virtual Bridge (EVB) 물리적서버 물리적 Ethernet 스위치
Convergence Separate Storage & Data Network Ethernet 근간의 Data 와 Storage 의단일화 필요성 비용절감 : storage network의중복투자방지 한네트워크에서단일화된관리 새로운서버기술 Combined 통합된 network adapters(fc+ethernet) 네트워크관점에서요구사항 loss-less network fabric의필요성 낮은 latency 전송의필요성 dual-function server ports의필요성 server port 대역폭확장의필요성 Fiber Channel Forwarder Fiber Channel Storage iscsi Storage Converged Storage & Data Network ISCSI & FCoE Storage
Lossless Ethernet Fabric 의필수요소 Data Center Bridging (DCB) Ethernet 근간의 Data Center 통합을위한기존 Ethernet 기술의한계기존 Ethernet 은 Burst 한 Ingress 트래픽이발생하면 Buffer 의용량에따라 drop frame 발생 Drop Frame 의방지를위해 802.3x 의 Flow Control 사용 Flow Control 은 Pause Mechanism 에의한 Pause Message 를발생하여, 모든트래픽을전송정지 / 재전송을통하여흐름제어. Priority based Flow Control() 802.1Qbb Data Center 의트래픽은 TPS(Transaction per Second) 로처리하는 Real time 트래픽과같은특성이있으므로, 기존 Flow Control 의전송정지에의한흐름제어를통해서는실시간 transaction 불가이러한문제를해결하기위해기존 Flow Control 의 Pause Message 에특정한우선순위를정하여우선순위에따라전송흐름을제어함으로써실시간 transaction 가능케함. Quantized Congestion Notification(QCN) 802.1Qau 에의해서우선순위에따른전송흐름은제어할수있으나해당인터페이스에서과도한트래픽이폭주 (congestion) 하게되면서버또는스위치에게 Stop 또는 Slow 메시지가필요 QCN 은 에의해정해진우선순위를기본으로해당순위의인터페이스에서 Congestion 이발생시 Control Message 를발생하여트래픽의흐름을제어 QCN 은 의 subset ( > QCN) Enhanced Transmission Selection(ETS) 802.1Qaz ETS 는 Data Center 스위치의큐잉성능을정의 ETS 는큐에프레임우선순위를매핑할수있는 Scheduling Algorithm Data Center Bridging exchange(dcbx) 상기의기능을구성시에 DCBX 를통하여상호정보교환 Data Center 내의스위치와 Host 간통신을위한 LLDP 의확장형 Lossless Data center network 통합을위해서, 모든 Device 에동일한기능 (DCBX) 이제공되어야함.
기존의 802.3X Flow Control Pause Mechanism Ethernet 근간의 Data Center 통합을위한기존 Ethernet 기술의한계기존 Ethernet 은 Burst 한 Ingress 트래픽이발생하면 Buffer 의용량에따라 drop frame 발생 Drop Frame 의방지를위해 802.3x 의 Flow Control 사용 Flow Control 은 Pause Mechanism 에의한 Pause Message 를발생하여, 모든트래픽을전송정지 / 재전송을통하여흐름제어. Application Server Switch B Ingress FC Logic FC FC Pause Msgs FC 모든포트에 FC 요청전달 FC Logic Switch A 큐용량초과발생 Switch C Ingress FC Logic FC FC Egress FC
QoS 를위한 DCB 기술 Priority based Flow Control() 802.1Qbb Data Center 의트래픽은 TPS(Transaction per Second) 로처리하는 Real time 트래픽과같은특성이있으므로, 기존 Flow Control 의전송정지에의한흐름제어를통해서는실시간 transaction 불가이러한문제를해결하기위해기존 Flow Control 의 Pause Message 에특정한우선순위를정하여우선순위에따라전송흐름을제어함으로써실시간 transaction 가능케함. Application Server Switch B Ingress P0 P1 P2 P3 정의된우선순위큐의송신만제어 Logic Pause Msgs 모든포트에 요청전달 Logic Switch A P0 P1 P2 P3 해당큐용량초과발생 Switch C Ingress P0 P1 P2 P3 Logic Egress 정의된우선순위큐의송신만제어
QoS 를위한 DCB 기술 QCN Quantized Congestion Notification(QCN) 802.1Qau 에의해서우선순위에따른전송흐름은제어할수있으나해당인터페이스에서과도한트래픽이폭주 (congestion) 하게되면서버또는스위치에게 Stop 또는 Slow 메시지가필요 QCN 은 에의해정해진우선순위를기본으로해당순위의인터페이스에서 Congestion 이발생시 Control Message 를발생하여트래픽의흐름을제어 -> QCN 은 의 subset ( > QCN) Application Server Switch B Ingress P0 P1 P2 P3 특정서버의트래픽흐름제어 QCN Logic Logic Pause Msgs 모든포트에 요청전달 Logic Switch A P0 P1 P2 P3 해당큐용량초과발생 Switch C Ingress P0 P1 P2 P3 Logic Egress 정의된우선순위큐의송신만제어
QoS 를위한 DCB 기술 ETS Enhanced Transmission Selection(ETS) 802.1Qaz ETS 는 Data Center 스위치의큐잉성능을정의 ETS 는큐에프레임우선순위를매핑할수있는 Scheduling Algorithm Ingress Ingress Application Server P0 P1 P2 P3 특정서버의트래픽흐름제어 P0 P1 P2 P3 Switch B QCN Logic Logic Switch C Logic P0 : Voice P1 : Video P3 : Storage P4 : Best Effort 프레임큐와전송큐의매핑 Pause Msgs PIR=2 Mb/s CIR=2 Mb/s PIR=3 Mb/s CIR=3 Mb/s PIR=max CIR=0 PIR=max CIR=0 Overall PIR 12 Mb/s 모든포트에 요청전달 Logic Switch A P0 P1 P2 P3 해당큐용량초과발생 Egress 정의된우선순위큐의송신만제어
QoS 를위한 DCB 기술 DCBX Data Center Bridging exchange(dcbx) 상기의기능을구성시에 DCBX 를통하여상호정보교환 Data Center 내의스위치와 Host 간통신을위한 LLDP 의확장형 Lossless Data center network 통합을위해서, 모든 Device 에동일한기능 (DCBX) 이제공되어야함. Ingress Ingress Application Server P0 P1 P2 P3 특정서버의트래픽흐름제어 P0 P1 P2 P3 Switch B QCN Logic Logic Switch C Logic P0 : Voice P1 : Video P3 : Storage P4 : Best Effort 프레임큐와전송큐의매핑 PIR=2 Mb/s CIR=2 Mb/s PIR=3 Mb/s CIR=3 Mb/s PIR=max CIR=0 PIR=max CIR=0 Overall PIR 12 Mb/s 모든포트에 요청전달 Switch 간 / Switch-Server 간 DCB Protocol 의상호교환 Pause Msgs Logic Switch A P0 P1 P2 P3 해당큐용량초과발생 Egress 정의된우선순위큐의송신만제어
Storage 의통합 기존 Data Center 의기술 Storage Network Fiber Channel Technology Channel 당 1Gbps 를초과 Lossless transmission Lower Latency Inter-Processor 전송기술 Infiniband Channel 당 1Gbps 를초과 Lossless transmission Lower Latency Ethernet 을통한 NGDC 의 Storage, Inter-Processor traffic 통합 Storage Network Fiber Channel over Ethernet 10GE 연동 Lossless transmission -> Packet loss 를위해 large buffer size 필요. Increased Fiber channel bandwidth needs 8 Gbps HBA available now Inter-Processor 전송기술 iscsi 10GE 연동 Lossless transmission -> Packet loss 를위해 large buffer size 필요. Do you need Fiber Channel for new SAN? iscs I < 20% of applications need FC quality
Converged Data Center 의진화단계 SCSI FCoE 표준호스트 - 스토리지프로토콜 20M 전송, 15 Device 연결 1Gbps 이내대역폭제공 10GE Cost Down Ethernet MAC Frame + FC Frame 점보프레임으로 FC Frame(2112Byte) 수용 Converged Network Adapter(FC+10GE) FCoE Transit Switching/FC Forwarder Multi-Hop Ethernet MAC 근간의 FC 트래픽전송 L2 Base Multi-Path/Load Balancing Provider Backbone Bridge(PBB) 확장 Yes 만족? No Fiber Channel No 안정성 / 가용성? Yes Multi-Hop FCoE SPB(802.1aq) SCSI Over Fiber 150M ~ 50Km 까지전송 1 ~ 20Gbps 이내대역폭제공 HBA(High Bandwidth Adapter) 현재 8Gbps/ 16Gbps 개발중 안정성 / 가용성확보 Lossless Ethernet(DCB) : - / QCN / ETS / DCBx FIP(FC Initiation Protocol) : - VN 포트 - VF 포트간 Virtual Link 구성 NPV ( N Virtualization) : -FCoE 스위치의 N 화 (Proxy ) -FCoE Originator 가 FCoE 스위치의내부에 Virtual machine 화 Best Converged DC No 특정제조사? 높은 TCO? Yes 지원? No Yes Not Use for DC
Eco-Friendly Leader for Green IT ALU Solution 포트당낮은전력소모율 Power Supply의높은효율성으로인한전력낭비방지 전력낭비를위한전력 Saver 기능 Vendor Scalability Performance L3 Non-blocking 10G s Per System Vendor L3 Non-Blocking 10GbE s per RU (Density) ALU OS10K-12 256 15.1 Juniper EX8208 64 4.6 Cisco Nexus 7010 64 3 Watts per 10GbE port Wire-r ate 92% efficient power supply = less energy wasted ALU OS10K-12 Juniper EX8208 Cisco Nexus 7010 13w 58w 75w Software controlled fans reduces power consumption and noise (db) OS10K-XNI-U32S 32 port 10GbE SFP+
Green IT 를통한 ROI 실현 40 35 30 25 20 15 10 5 0 S2S Latency #48U Racks Power Watts Based on a Scenario of 1000 ports at 3:1 Oversubscription includes amortization over 5 years, average power & cooling cost at utility cost of $0.10/KWhr
Green IT 를통한지구살리기 Power and cooling 48% Computing equipment 52% Lighting 1% Building switchgear/ MV transformer 3% Processor 15% Area of interest Cooling 38% Server power supply 14% Other server 15% PDU 1% UPS 5% Storage 4% Communication equipment 4% 장비의낮은소모전력 -> 낮은발열량 -> 낮은 Cooling 유지비용 -> 높은온도의 DC 운영가능운영온도가 1 도오르면냉각비용은 4% 의감소효과 인텔데이터센터 LAB 조사 - 38
3 구축 개방형 Open Fabric을위한전략
데이터센터패러다임의변화 계층단일화에따른 NGDC 의패러다임의변화 : 3 Tiers -> 2 Tiers -> 1 Tier North-to-South Traffic 3Tier 에서 2Tier 로 Aggregation Layer 생략 Access(ToR/EoR) Core FCOE iscsi East-to-West Traffic Application Server Application Server Application Server Media Server Fiber Channel Forwarder Storage iscsi Storage Storage 기존 DC fabric 의한계 Core의 Virtual Chassis 근간의상호연결데이터센터의규모와무관한 Top Down 구성으로인한 COPEX 상승많은 Hop count를통한높은 Latency 데이터센터규모에따른유연한확장성결여
Mesh Fabric Architecture Mesh Fabric의 3 가지기본구성요소 : Mesh based POD : Top OF Rack(TOR) 의상호 Mesh 연결 계층단일화에따른 NGDC의패러다임의변화 : 3 Tiers -> 2 Tiers -> 1 Tier Shortest-Path-Bridging(SPB) 근간의 1 Hope 연결데이터센터규모에따른 Down-Up 구성및유연한확장성요구 Super POD Fabric : PODs 간의상호연결 POD based Mesh Fabric : Super PODs 간의상호연결 10GbE 또는 40GbE 를통한상호연결
Mesh based POD Fabric East-West 트래픽의최적화구성 POD 은 OS6900 의 10/40GbE links 로 Mesh 구성 Pod 6900 6900 서버및스토리지의이중화접속 2 μs Latency MC-LAG/ Virtual Chassis, Shortest Path Bridging, 를통한다중경로 Ethernet 구성 Pod 6900 6900 Virtual Chassis 를통한논리적하나의시스템관리 6900 6900 POD 내의모든단말은한 hop 으로다중경로및트래픽분산제공 2 μs Latency DCB 를통한 Lossless Ethernet 구현 Pod 6900 6900 Edge virtual bridging 를통한서버가상화제공 6900 240 6900 자동 VM 이동성 (vnp) 제공 확장 6900 6900 Storage Convergence: iscsi, FCoE,FC Super POD 연결 2 μs Latency POD 의확장 : 12 TOR POD 당서버포트수증가 : 480 (240 x 2) POD당 Latency : <3usecs 전체 28800(14400 x 2) 의서버연결 3 us Latency Servers Storage (iscsi, FCoE, FC)
Super POD Fabric Architecture Control Operations POD 간 East-West 트래픽의최적화구성 Super POD PODs 간을 Mesh 로연결하여 Super POD 구성 하나의 Super POD 은 5 PODs 을 40GbE 로연결 한 Super POD 당 1200 서버포트제공 -to- latency : <4usecs POD 간의 East-West traffic 최적화 POD 4us Latency 각 POD 들은 SPB 를통한상호연결 Optimized for East-West Traffic
Mesh Evolution Architecture Control Operations Super POD WAN DC to DC의상호연결 Full mesh 패브릭을통해수만개의주변장치를연결할수있는확장성제공 데이터센터내 / 외간의트래픽의 Low latency fabric Aggregated port-to-port latency : <5usecs No single point of failure Super POD은 Virtual Chassis의 DC Core Switch와 SPB로연결
NGDC 로의진화 호환성 / 유연한확장 Pod Alcatel Lucent Enterprise Mesh OS10K OS10K Control Architecture Operations 6900 6900 6900 40GE 6900 Pod Pod Pod 6900 6900 6900 6900 6900 6900 Pod Pod 6900 6900 6900 6900 6900 6900 6900 240 240 240 6900 6900 6900 6900 6900 6900 240 6900 2 us Latency 6900 6900 6900 6900 6900 6900 6900 6900 2 μs 2Latency μs μs Latency 6900 6900 2 μs Latency 6900 6900 Servers Storage (iscsi, FCoE, FC) Data Center Networking Highlights MC-LAG, Virtual Chassis Shortest Path Bridging (M) Fluid L2 domains : vnp / EVB (VEPA, VDP) Loss-less Ethernet (ETS,, DCBX) Any to Any 10/40 GigE connectivity Virtual Network Profile (vnp) Fiber Channel over Ethernet Network virtualized with SPB Multi-site private Cloud Hybrid Cloud services 표준기술을통한 Open Data Center Architecture (SPB, EVB, DCB..) 3rd Party Vendor 와호환성을통한 ROI 향상 No Single Point of Failure 및 5us 이내의 End-to-End 낮은 Latency
4 방향 Next Generation DC를위한제시
NGDC 를위한방향제시 표준화에의한개방형 DC 패브릭구조 STP 의제거로인한성능과확장성향상 Mesh based POD, Super POD, POD based Mesh SPB, DCB 등의 IEEE 표준프로토콜활용 3 rd Party 장비와통합패브릭구성제공 Lossless Fabric Ethernet 을통한 NGDC 의 Storage 통합 FCoE Fiber Channel over Ethernet Standard Storage Network 10GE 연동 Lossless transmission -> Packet loss를위해 large buffer size 필요. NGDC 의 Inter-Processor traffic 통합 Internet Small Computer System Interface Inter-Processor 전송기술 10GE 연동 Lossless transmission -> Packet loss 를위해 large buffer size 필요. iscsi Standard 패브릭 Standard DCB Standard SPB Standard EVB Standard Short Path Bridging IEEE 802.1aq IS-IS 근거한 Control Protocol 사용 SPB-V : 802.1Q frame 사용, 100 노드이하의규모시활용 SPB-M : 802.1ah(Q in Q) Packet format 사용, 1000 노드이하의규모시활용 VM 간의 vswitching Edge Virtual Bridging IEEE 802.1Qbg former VEPA (Virtual Ethernet Aggregation) 완벽한트랜잭션처리를위한품질보장 Data Center Bridging - Data center 내의 drop frame 허용불가 (Priority based Flow Control)- 802.1Qbb - PAUSE mechanism / Halt -> 우선순위 QCN(Quantized Congestion Notification) 802.1Qau - 의 subset - 물리 / 논리적호스트의 delay -> 우선순위내의트래픽의 frame 전송감소제어메시지발생 ETS(Enhanced Transmission Selection) 802.1Qaz - 우선순위와큐맵핑 -> 스케쥴링알고리즘 DCBX(Data Center Bridging Excahange) - 스위치와호스트간의 LLDP 확장