Simulation is ...

Virtual = Real

Flight Sim 자세히보기

> IT (Information Technology)

FC, iSCSI, FCIP, FCoE

FlightSim 2023. 3. 9. 15:38
320x100

FCIP (Fibre Channel over Internet Protocol)는 무엇을 의미합니까?

FCIP (Fibre Channel over Internet Protocol) 또는 IP (Fibre Channel over IP) 스토리지 기술은 지리적으로 분산 된 네트워크간에 FC (Fibre Channel) 데이터 전송 및 공유를 위해 네트워크 터널링 및 스토리지를 연결합니다. FCIP는 TCP / IP (Transmission Control Protocol / Internet Protocol) 및 FC 프레임 캡슐화를 통해 스토리지 데이터 전송을 향상시킵니다. FCIP 데이터 인증 및 기밀성 기능은 IP 네트워크 보안을 촉진하고 지원합니다. IETF (Internet Engineering Task Force)는 FCIP를 RFC 3821로 정의합니다. FCIP는 FC 터널링 또는 스토리지 터널링이라고도합니다
 
TCP 연결이 설정되기 전에 FCIP는 다음 정보를 확인합니다. IP 주소 TCP 포트 FC 전역 엔터티 TCP 매개 변수 QoS (서비스 품질). FCIP 프로토콜 구성 요소는 다음과 같습니다. FCIP 프로토콜 모델 : FC 물리 미디어 계층, FC 인코딩 및 디코드 계층, FC 프레이밍 및 흐름 제어 계층, TCP, IP, IP 링크 계층 및 IP 물리 계층 FCIP 링크 : 기본 FC 패브릭 서비스 단위 FC 엔티티 : 두 FC 엔티티는 FCIP 패브릭 터널링을 사용하고 하나의 FC 패브릭 및 IP 네트워크 인터페이스로 병합합니다. FCIP_LEP (FCIP Link Endpoint) : 각 FCIP 연결 TCP FCIP 엔터티에 대해 하나의 FCIP 데이터 엔진 : FCIP_LEP에 대한 TCP 연결 요청을받습니다. TCP 연결을 위해 하나 이상의 TCP / IP 주소를 소유합니다. FCIP_DE (FCIP Data Engine) : 4 개의 포털이 FCIP_DE 데이터 전송을 용이하게하지만 데이터를 처리하지는 않습니다. 각 포털은 외부 인터페이스 액세스 지점입니다. FCIP 포털 이름은 FC 프레임 수신기, 캡슐화 된 프레임 송신기, 캡슐화 된 프레임 수신기 및 FC 프레임 송신기입니다. 하이브리드 FCIP 기술인 iFCP (Internet Fibre Channel Protocol)는 iSCSI (Internet Small Computer System Interface) 프로토콜을 사용하여 IP 데이터를 통해 FC 데이터를 전송합니다.
 

FC, iSCSI, FCIP, FCoE 장단점 비교

FC는 1994년에 표준화된 전용 스토리지 네트워킹 아키텍처이다. 일반적으로 전용 HBA (Host Bus Adapter) 및 스위치로 구현되는데, 이는 FC가 다른 스토리지 네트워킹 기술보다 비싼 것으로 간주되는 주된 이유이다.

성능 측면에서, FC는 처음부터 스토리지 트래픽을 처리하기 위해 구축되었기 때문에 FC의 낮은 Latency (지연시간)와 높은 Throughput (처리량)을 능가하기는 어렵다. FCP (Fibre Channel Protocol) 프레임을 생성하고 해석하는 데 필요한 Processing cycle은 Latency가 짧은 전용 HBA로 완전히 오프로드된다. 이렇게 하면 서버의 CPU가 스토리지와 통신하지 않고 애플리케이션을 처리할 수 있다.

게다가, FCP는 스토리지 트래픽을 처리하도록 최적화되어 있다. TCP/IP 위에서 실행되는 프로토콜과 달리, FCP는 일반적으로 Switching latency를 단축하는 상당히 Thinner한 Single-purpose 프로토콜이다. 또한 데이터를 수신할 준비가 되지 않은 장치 (스토리지 또는 서버)로 데이터가 전송되지 않도록 하는 기본 제공 Flow control 메커니즘도 포함되어 있다.

그러나 FC와 FCP는 단점이 있다. 하나는 장거리에서 스토리지 상호 연결을 지원하는 데 많은 비용이 들 수 있다는 것이다. 원격 사이트에서 보조 어레이에 대한 복제를 구성하려면 운 좋게도 Dark fiber (사용 가능한 경우)를 구입할 수 있거나 값비싼 FCIP distance gateway를 구입해야 한다.

iSCSI는 TCP/IP 네트워킹 프로토콜 위에 구축된 스토리지 네트워킹 프로토콜이다. 2004년에 표준으로 승인된 iSCSI의 가장 큰 명성은 나머지 엔터프라이즈 네트워크의 나머지 부분을 실행하는 동일한 네트워크 장비에서 실행된다는 것이다. 특별히 추가 하드웨어가 필요하지 않으므로 구현 비용이 비교적 저렴하다.

성능 측면에서, iSCSI는 TCP/IP 상에서 구동하므로 TCP의 윈도우(Window) 특성 같은 TCP 오버헤드 (Overhead)의 영향을 받기 쉽다. TCP 윈도우란 서버가 송신하는 여러 개의 패킷으로 이루어진 데이터 묶음이다. 서버는 클라이언트로부터 해당 윈도우를 에러 없이 수신했다는 ACK (Acknowledge)를 수신한 다음에 다음 패킷 윈도우를 송신한다. 에러가 발생하면, 해당 데이터를 반드시 재송신해야 한다. 또한 SCSI 명령을 캡슐화하는 데 필요한 오버헤드도 발생한다. 이런 모든 사항이 iSCSI에서 Latency 편차와 패킷 손실을 유발한다.

그러므로, iSCSI는 FC/FCP에 비해 성능이 뒤떨어지지만, iSCSI가 제대로 구현되면 범용 TCP/IP 네트워킹 프로토콜에서의 오버 헤드로 인한 성능 편차는 몇 ms 정도의 latency로 줄어든다. 하지만, 이는 매우 높은 트랜잭션 I/O load에서는 큰 차이를 만들 수 있으며, iSCSI가 엔터프라이즈에서 사용하기에 적합하지 않다는 대부분의 주장의 근원이 된다. 그러나, 이러한 워크로드는 Fortune 500대 기업 밖에서는 거의 발생하지 않으므로 대부분의 경우 성능 변화량은 훨씬 좁다.

iSCSI는 또한 서버의 CPU에 더 큰 부하를 준다. 하드웨어 iSCSI HBA가 있지만, 대부분의 iSCSI 구현에서는 소프트웨어 Initiator를 사용한다. 기본적으로 스토리지 명령을 생성, 전송 및 해석하는 작업과 함께 서버의 프로세서를 로드한다. 이는 iSCSI에 대한 효과적인 주장으로도 사용되어왔다. 그러나 오늘날 서버가 대부분의 애플리케이션에서 사용할 수 있는 것보다 훨씬 더 많은 CPU 리소스를 제공한다는 사실을 고려할 때, 이러한 이유로 인해 상당한 차이가 발생하는 경우는 거의 없다.

iSCSI는 여러 개의 1Gbps 이더넷 또는 10Gbps 이더넷 링크를 사용하여 처리량 측면에서 FC를 자체적으로 유지할 수 있다. 또한 기존 WAN 링크를 통해 장거리에서 사용할 수 있다는 점에서 TCP/IP의 이점을 누릴 수 있다. 이 사용 시나리오는 대개 SAN-to-SAN 복제로 제한되지만 FC 전용의 다른 솔루션보다 구현하기가 훨씬 쉽고 비용도 저렴하다.

이처럼, iSCSI 측면에서는 단순성과 낮은 구축 비용이 가장 큰 장점이다. 서버를 FC 네트워크에 연결하려면 값비싼 HBA와 드라이버 및 관리 소프트웨어를 설치해야 하지만, 서버를 iSCSI 네트워크에 연결하는 작업은 대부분의 서버에 이미 있는 기가비트 이더넷 NIC를 사용하여 수행할 수 있다. 이더넷 연결을 통해 원격 볼륨에 액세스할 수 있는 애플리케이션인 iSCSI 이니시에이터도 필요하지만 대부분의 플랫폼에서는 무료이다.

인프라 비용 절감을 통한 절감 외에도 많은 기업에서 iSCSI를 훨씬 더 쉽게 구현할 수 있다. iSCSI를 구현하는데 필요한 대부분의 기술은 일반 네트워크 운영 기술과 겹친다. 이는 IT 인력이 제한된 소규모 기업에 iSCSI를 매우 매력적으로 만들고, 해당 분야에서 iSCSI의 인기를 잘 설명한다.

이러한 구축의 용이성은 양날의 검이다. iSCSI는 구현하기 쉬우므로 잘못 구현하기도 쉽다. 전용 네트워크 인터페이스를 사용하여 구현하지 못하거나, 흐름 제어 및 점보 프레임과 같은 스위칭 기능을 지원하고, Multpath I/O를 구현하지 못하는 것은 성능 저하를 초래할 수 있는 일반적인 실수이다.

 

FCoIP (Fibre Channel over Internet Protocol)는 2004년에 비준된 틈새 프로토콜이다. TCP/IP 패킷 내에서 FCP 프레임을 캡슐화하여 TCP/IP 네트워크를 통해 전송할 수 있도록 하는 표준이다. SAN-to-SAN 복제 및 장거리 백업을 지원하기 위해 여러 사이트에서 FC 패브릭을 브리징하는 데 거의 독점적으로 사용된다.

대형 FC 프레임을 여러 TCP/IP 패킷으로 분할하는 비효율성 (WAN 회선은 일반적으로 1,500 바이트 이상의 패킷을 지원하지 않음) 때문에 Latency가 짧게 구축되지 않는다. 대신 네이티브 FCP에서는 Dark fiber를 사용할 수 없을 때 지리적으로 분리된 파이버 채널 패브릭을 연결할 수 있도록 설계되었다. FCIP는 거의 항상 FC Distance gateway (기본적으로 FC/FCP-to-FCIP bridge)에서 발견되며, 스토리지 디바이스에서 서버 대 스토리지 액세스 방법으로 기본적으로 사용되는 경우는 거의 없다.

FCoE (Fibre Channel over Ethernet)는 최신 스토리지 네트워킹 프로토콜이다. 2009년 6월 표준으로 승인된 FCoE는 iSCSI의 이점에 대한 파이버 채널 커뮤니티의 대답이다. iSCSI와 마찬가지로 FCoE는 표준 다목적 이더넷 네트워크를 사용하여 서버를 스토리지와 연결한다. iSCSI와는 달리 TCP/IP를 통해 실행되지 않으며 OSI 모델에서 IP 옆의 공간을 차지하는 자체 이더넷 프로토콜이다.

이 차이는 좋은 결과와 나쁜 결과가 모두 있기 때문에 이해하는 것이 중요하다. 좋은 점은 FCoE가 iSCSI와 동일한 범용 스위치에서 실행되더라도 TCP/IP 헤더를 생성하고 해석할 필요가 없으므로 End-to-End latency가 크게 단축된다. 나쁜 점은 TCP/IP WAN을 통해 라우팅할 수 없다는 것이다. FC와 마찬가지로 FCoE도 로컬 네트워크에서만 실행할 수 있으며 원격 패브릭에 연결하려면 브리지가 필요하다.

서버 측에서는 대부분의 FCoE 구현에서 네트워크 어댑터와 FCoE HBA 역할을 모두 수행할 수 있는 10Gbps 이더넷 FCoE CNA (Converged Network Adapter)를 사용한다. 이 기능은 FC HBA와 유사한 방식으로 스토리지와 통신하는 작업을 오프로드한다. 이는 별도의 FC HBA에 대한 요구 사항이 FC를 아예 피해야 하는 좋은 이유인 경우가 많았기 때문에 중요한 사항이다. 시간이 지남에 따라, 서버는 일반적으로 FCoE 지원 CNA가 내장되어 제공되므로 기본적으로 비용 요소가 완전히 제거된다.

FCoE의 주요 이점은 기존 파이버 채널 네트워크의 확장으로 구현될 때 실현할 수 있다. 구현하는 데 몇 가지 추가 단계가 필요한 다른 물리적 전송 메커니즘이 있지만, FCoE는 FC와 동일한 관리 툴을 사용할 수 있으며 FC 패브릭을 운영하면서 얻은 많은 경험을 구성 및 유지 보수에 적용할 수 있다.

FC와 iSCSI 간의 논쟁이 계속 격화될 것이라는 데는 의심의 여지가 없다. 두 아키텍처 모두 특정 작업에 적합하다. 그러나 FC는 엔터프라이즈에 좋고, iSCSI는 SMB에 좋다고 말하는 것은 더 이상 용인되지 않는다. FCoE의 가용성은 iSCSI의 Cost 및 Convergence argument를 해결하는데 큰 도움이 되며, 10Gbps 이더넷의 보급률 증가와 서버 CPU 성능 향상은 FC의 Performance argument를 잠식하고 있다.

* 자료 참조 : Fibre Channel vs. iSCSI: The war continues by InfoWorld, 2010

https://www.cisco.com/c/ko_kr/support/docs/storage-networking/fiber-channel/47100-basic-fcip-mds.html

 

 

FCIP를 사용한 MDS에서 MDS로 기본 구성

이 문서에서는 MDS에 대한 기본 FCIP(Fibre Channel Over TCP/IP) MDS(Multilayer Director Switch)에 대한 샘플 컨피그레이션을 제공합니다.

www.cisco.com

 

스토리지 프로토콜 (Fibre Channel, FCoE, Infiniband, iSCSI) 비교

급증하는 데이터를 저장하기 위해 어떤 기술을 선택해야 하는지 매우 중요합니다.저장된 데이터에 얼마나 빨리 접근 할 것인가에 큰 영향을 줄 수 있는 3 가지 중요한 매개 변수가 있습니다.

1. 대역폭 - 데이터 전송 속도 (MB / s)의 척도.

2. 대기 시간 - I / O 요청을 완료하는 데 걸리는 시간으로 응답 시간이라고도합니다. 일반적으로 밀리 초 (1/1000 )로 측정됩니다. 마이크로 초 (1/1000 밀리 초)로 진행합니다.

3. IOPS - 초당 입출력 작업 (IOPS, 눈가짐)은 하드 디스크 드라이브 (HDD), SSD (솔리드 스테이트 드라이브)  SAN
(
저장 영역 네트워크)과 같은 컴퓨터 저장 장치를 특성화하는 데 사용되는 입출력 성능 측정입니다. (SAN);

데이터 센터가 신경을 쓰는 다른 두 가지 매개 변수는 전력 소비와 신뢰성입니다.

스토리지 프로토콜에는 여러 가지 유형이 있으며이 선택에 따라 네트워크 매개 변수, 사용할 네트워크 인프라 유형, 데이터 센터에 있는 각 브랜드별 스위치 및 라우터에 따라서 어떤 종류의 케이블링을 할 것인지를 결정해야합니다.

스토리지 프로토콜별 요약과 각각의 세부 사항 정리표 입니다.

Attribute Infiniband Fibre Channel FCoE iSCSI
Bandwidth (Gbps) 2.5/5/10/14/25/50 8/16/32/128 10/25/40/100 10/25/40/100
Adapter Latency* 25 us 50 us 200 us Wide range
Switch latency per hop* 100-200 ns 700 ns 200 ns 200 ns
Adapter HCA - host channel adapter HBA -host bus adapter CNA -converged network adapter NIC-network interface card
Switch Brands Mellanox, Intel Cisco, Brocade Cisco, Brocade HPE, Cisco, Brocade
Interface Card Brands Mellanox, Intel Qlogic, Emulex Qlogic, Emulex Intel, Qlogic
Deployment amount x xx x xxx
Reliability xx xxx xx xx
Ease of management x xx xx xxx
Future upgrade path xx xxx xx xxx

x – Low
xx – Medium
xxx – High

 

인피니 밴드 (IB)

InfiniBand (IB)는 고성능 컴퓨팅에서 사용되는 최신 컴퓨터 네트워킹 통신 표준 중 하나로서 매우 높은 처리량과 매우 낮은 대기 시간을 특징으로하며 수퍼 컴퓨터 상호 연결에 가장 일반적으로 사용됩니다. Mellanox Intel InfiniBand 호스트 버스 어댑터(HBA) 및 네트워크 스위치의 주요 제조업체입니다. 인텔은 Qlogic InfiniBand 사업부와 Cray사의 HPC interconnect business를 인수하여 경쟁대열에 합류하였습니다속도는 2.5Gbit / s (SDR)에서 최대 50Gbit / s (HDR)까지 다양하며, 600Gbit / s 연결을 얻을 수 있는 최대 12 개의 링크에서 결합 될 수 있습니다. 자세한 내용은 아래 표를 참조하십시오.

Parameters SDR DDR QDR FDR10 FDR EDR HDR NDR XDR
Adapter latency (microseconds) 5 ? ? 0.7 0.7 0.5      
Signaling rate (Gbit/s) 2.5 5 10 10 14.0625 25.78125 50 100 250
Speeds for 4x links (Gbit/s) 8 16 32 40 54.54 100 200    
Speeds for 8x links (Gbit/s) 16 32 64 80 109.08 200 400    
Speeds for 12x links (Gbit/s) 24 48 96 120 163.64 300 600    
Year 2001 2005 2007 2011 2011 2014 2017 after 2020 future

Infiniband 상호 연결을 위해 DAC 케이블, AOC, 광 트랜시버를 사용할 수 있으며 DAC  AOC 브레이크 아웃 케이블을 사용할 수 있습니다.

Infiniband Speed Form Factor DAC AOCs Optical transceivers DAC breakout AOC breakout
HDR 200Gb/s QSFP56 Y Y Y Y Y
EDR 100Gb/s QSFP28 Y Y Y    
FDR 56Gb/s QSFP+ Y Y Y    
FDR10 QDR 40Gb/s QSFP+ Y Y Y    
QDR 40Gb/s QSFP+ Y Y Y    
Distance     0.5m to 7m 3m to 300m 30m to 10km 1-2.5m 3m to 30m

파이버 채널 (Fibre Channel)

파이버 채널 (FC) 1990 년대 중반 SAN 네트워킹을위한 최고의 선택이 되었습니다. 전통적인 파이버 채널 네트워크에는 SAN에 스토리지를 연결하는 파이버 채널 스위치라는 특별한 목적의 하드웨어와 이러한 스위치를 서버 컴퓨터에 연결하는 파이버 채널 HBA (호스트 버스 어댑터)가 있습니다파이버 채널은 성숙한 낮은 대기 시간, 높은 대역폭, 높은 처리량의 프로토콜입니다. 스토리지 프로토콜로서 FC는 구성 및 관리가 쉽고 지난 18 년 동안 널리 채택되었습니다.

파이버 채널 속도가 진화하고 요즘에는 최신 FC 스위치 및 HBA에서 16GFC, 32GFC  128GFC 속도가 지원되며 256GFC  512GFC 속도가 로드맵에 포함됩니다.

Name Line-Rate Gigabyte Avaliable Since
1GFC 1.0625 Year 1997
2GFC 2.125 Year 2001
4GFC 4.25 Year 2004
8GFC 8.5 Year 2005
10GFC 10.51 Year 2008
16GFC 14.025 Year 2011
32GFC 28.05 Year 2016
128GFC 28.05×4=112.2 Year 2016
256GFC   Year 2021
512GFC   Year 2024

우리가 파이버 채널 스위치 기술의 주류 브랜드를 확인한다면 Cisco, Brocade  HBA의 주류 브랜드는 Qlogic  Emulex입니다Dell  Lenovo FC 스위치도 있지만 Brocade OEM 장비입니다. FC 스위치와 HBA의 상호 연결을 위해 우리는 광모듈을 사용합니다. 아래는 Brocade 파이버 채널 트랜시버 지원 매트릭스 (링크)에 대한 모든 Brocade FC 스위치 사용자에게 매우 유용한 자료입니다.

Brocade SWL (단파장 최대 300m), LWL (장파장, 최대 10km)  ELWL (최대 장거리 25km)을 통해 FC 모듈을 지원합니다. EXATEK 솔루션은 표준 모듈뿐만 아니라 장거리 ( : 8G FC의 경우 최대 100km)를 지원하는 하이브리드 솔루션과 데이터 센터에 매우 유용 할 수있는 8G / 16G FC CWDM  DWDM 유형을 제공 할 수 있습니다.

상호 연결. 시스코 기반 FC 인프라를 갖춘 다른 좋은 인터커넥트 리소스 Cisco MDS 9000 Family Pluggable Transceivers 데이터 시트를 보시면 Cisco FC 플랫폼과 사용 가능한 파이버 채널 트랜시버 사이의 관계를 볼 수 있습니다.

파이버 채널 오버 이더넷 (FCoE)

FCoE (Fibre Channel over Ethernet)라고 불리는 FC의 다른 형태는 HBA 하드웨어를 구입할 필요가 없이 FC 솔루션 비용을 낮추기 위해 개발되었습니다. FCoE는 무손실 이더넷을 통한 FC입니다. 파이버 채널은 파이버 채널을 통한 이더넷 네트워크의 기능을 제공하기 위해 세 가지 기본 확장이 필요했습니다.

기본 Fibre Channel 프레임을 이더넷 프레임으로 캡슐화합니다. 이더넷 프로토콜 자체를 확장하여 정체 기간 동안 프레임이 일상적으로 손실되지 않는 이더넷 패브릭을 활성화합니다. 파이버 채널 N_port ID (일명 FCID)와 이더넷 MAC 주소 간의 매핑 입니다.

FCoE의 주요 이점은 데이터 센터 네트워크 및 스토리지 트래픽에 이더넷 케이블 링을 사용하여 파이버 채널 패브릭 및 인프라의 필요성을 없애는 것입니다. 필요한 인터페이스 카드 수와 케이블 수를 줄입니다. 별도의 이더넷 네트워크 카드 및 파이버 채널 호스트 버스 어댑터 (HBA) 대신 두 가지 기능이 하나의 통합 네트워크 어댑터 (CNA)에 결합됩니다. CNA는 단일 카드에 두 프로토콜을 모두 처리하는 동시에 저장소 및 네트워크 도메인을 독립적으로 제어 할 수 있도록합니다.

현재 많은 파이버 채널 스위치가 FCoE를 지원합니다. 예를 들어 Cisco Nexus 시리즈 및 Cisco MDS 시리즈는 Brocade 스위치가 지원하는 것과 동일합니다.

Cisco FCoE를 밀고있는 공급 업체 중 하나였습니다. 시스코는 Brocade on FC 만큼 좋지 않았지만 이더넷 및 IP 분야에서는 전문 지식을 보유한 업체입니다FCoE는 향상된 경제성을 약속하지만 FC와 관련하여 가용성 또는 성능을 향상시키지 않으며 관리 복잡성이 추가됩니다또 다른 고려 사항은 낮은 채택률과 숙련된 FCoE 관리자, 서비스 및 지원 담당자의 부족 사이의 연계입니다

FCoE의 채택은 성공적이지 않았으며 FCoE 공급 업체가 당초 예상했던 대로 FCoE FC를 대체하지 못했습니다.

iSCSI

iSCSI는 파이버 채널의 저비용, 저 성능 대안으로 만들어졌으며 2000 년대 중반에 인기를 얻었습니다. iSCSI는 스토리지 워크로드 전용으로 특수화 된 하드웨어 대신 이더넷 스위치 및 물리적 연결과 함께 작동합니다. 10Gbps 이상의 데이터 속도를 제공합니다. iSCSI는 특히 파이버 채널 기술을 관리하는 직원이 없는 중소기업에게 적합합니다. iSCSI 1998  IBM Cisco의 개척자였습니다. 일부 SAN 프로토콜과 달리 iSCSI는 전용 케이블을 필요로하지 않습니다. 기존 IP 인프라를 통해 실행할 수 있습니다. 우리가 더 정확하게 이더넷을 사용함에 따라 선택할 수있는 공급 업체, 제품 및 구성 요소가 많이 있습니다. 결과적으로 iSCSI는 종종 파이버 채널의 저가형 대안으로 간주됩니다. 그러나 고정 된 대역폭에 대한 경쟁으로 인해 전용 네트워크 또는 서브넷 (LAN 또는 VLAN)에서 작동하지 않으면 iSCSI SAN 배포의 성능이 심각하게 저하 될 수 있습니다.

iSCSI의 장치 상호 연결을 위해 우리는 10G / 40G / 100G 이더넷 광 모듈, DAC  AOC를 사용할 수 있습니다.

전체 요약

 Fibre Channel(FC)은 성숙하고 지연이 적은 고 대역폭의 데이터 스토리지 네트워크 인프라 스트럭처를 위한 최고의 프로토콜 중 하나라고 결론을 내릴 수 있습니다.

단점은 공급 업체수가 적어서 이 기술은 상당히 비용부담이 많이 된다는 것입니다. 스토리지를 지원하기 위해 특수 목적으로 구축 되었기 때문에 대기업에게는 훌륭한 기술이 될 수 있습니다.

iSCSI는 이더넷을 기반으로 설계된 스토리지 프로토콜만큼 좋은 선택입니다. iSCSI는 파이버 채널보다 훨씬 저렴합니다.

iSCSI는 표준 이더넷 스위치와 케이블을 사용하며 1GB / s, 10GB / s, 40GB / s  100GB / s의 속도로 작동합니다.

기본적으로 이더넷이 계속 발전함에 따라 iSCSI는 함께 발전합니다.

iSCSI 처음에는 별도의 FC 네트워크를 제공 할 여유가 없었던 작은 조직과 비용면에서 다소 낮은 성능을 받아 들일만한 곳을 위해 설계되었습니다.

오늘날 이더넷 발전으로 인해 더 이상 장점이 될 수는 없게 되었습니다.

FCoE 저가형 호스트 어댑터의 사용과 함께 케이블 링의 감소로 인해 솔루션이 덜 복잡하고 비용 효과적이기 때문에FCoE 상태를 주류로 삼지 않았으며 FC FCoE와 비교할 때 훨씬 우수한 성능을 제공 할 수 있습니다.

Infiniband 최상의 처리량 및 대기 시간 매개 변수 중 하나를 제공 할 수 있는 기술이지만 널리 사용되지 않는 단점이 있습니다.

관리 부분은 다른 프로토콜보다 훨씬 어려울 수 있으며 비용 관점에서 비싼 기술입니다.

320x100
반응형