mir.pe (일반/어두운 화면)
최근 수정 시각 : 2024-08-31 23:33:12

RAID


파일:나무위키+유도.png  
은(는) 여기로 연결됩니다.
이 문서는 컴퓨터에 사용되는 기술에 대해 설명합니다. 동음이의어에 대한 내용은 레이드 문서
번 문단을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
참고하십시오.
파일:hdtach-read.gif 파일:hdtach-write.gif ]
단일 파티션 및 여러가지 RAID의 벤치마크.( 출처)

1. 정의2. 구현 방법
2.1. 하드웨어 RAID2.2. 펌웨어(드라이버) RAID2.3. 소프트웨어 RAID
3. 종류
3.1. RAID 03.2. RAID 13.3. RAID 1E3.4. RAID 2, 3, 43.5. RAID 53.6. RAID 63.7. RAID-Z33.8. Nested RAID(복합)
3.8.1. RAID 1 + RAID 03.8.2. RAID 5 + RAID 03.8.3. RAID 5 + RAID 1
4. 유사 방식
4.1. JBOD4.2. Union mount4.3. SHR4.4. Hot Spare
5. 사용 환경
5.1. 개인/소규모 서버
5.1.1. 성능
5.1.1.1. HDD5.1.1.2. SSD
5.1.2. 안정성, 내결함성5.1.3. 비용, 확장성5.1.4. 기타5.1.5. 대안
5.2. 대규모 서버

[clearfix]

1. 정의

Redundant Array of Inexpensive/Independent Disk
복수 배열 저가/독립 디스크

저장장치 여러 개를 묶어 고용량, 고성능인 저장 장치 한 개와 같은 효과를 얻기 위해 개발된 기법이다.

저장장치는 소모품이다. 5년에서 10년정도 수없이 읽고 쓰기를 반복하면 물리적으로 움직이는 부품이 있는 HDD는 물론이요 전자적으로만 작동하는 SSD도 NAND 소자가 닳아 읽고 쓰는 속도가 느려지고, 결국에는 읽고 쓸 수 없는 부분인 불량섹터가 발생하게 된다. 이런 경우에는 불량섹터에 기록되어 있던 정보가 손상되는 것도 문제지만, 이후에 저장장치에 기록되는 데이터의 무결성을 보장할 수 없기 때문에 보통 장치째로 (기존에 기록되어 있던 데이터와 함께) 폐기 처분하게 된다. 여러개의 디스크를 특정 방법으로 연결해주는 시스템인 RAID는 바로 이렇게 저장장치가 갑자기 고장나는 경우를 대비해서 활용할 수 있는 유용한 기법이다. 방대한 양의 데이터를 읽고 쓰며 1년 365일 내내 가용성이 보장되어야 하는 구글이나 페이스북의 서버들을 상상해보자.

초기에는 업그레이드 후 ' 폐기하기엔 아깝고, 그렇다고 단독으로 쓰기에는 성능이 부족한'(Inexpensive) 저장장치를 재활용할 목적으로 사용하였다. 저장장치 기술이 발전한 현재는 Inexpensive보다는 Independent로 해석하는 추세.

RAID는 SNIA에서 정의하며, 최신 표준인 2.0은 여기에서 볼 수 있다.

RAID의 주 사용 목적은 크게 무정지 구현(가용성[1])과 고성능 구현으로 구분된다. 무정지 구현을 극도로 추구하면 RAID 1, 고성능 구현을 극도로 추구하면 RAID 0이 되며[2], RAID 5, 6은 둘 사이에서 적당히 타협한 형태. RAID 10이나 RAID 01과 같이 두 가지 방식을 혼용하는 경우도 있다.

RAID 1을 단순한 예시로 들자면, 하나의 디스크가 갑자기 고장나도 정상 동작하는 디스크가 남아있으므로 고장난 디스크만 교체해 주면 서버 정지 없이도 원상 복구가 가능하다. 한편, 하나의 디스크가 바이러스나 랜섬웨어에 감염이 되는 경우에는 나머지 디스크에도 모조리 그 감염된 데이터가 기록되게 된다. RAID는 이렇듯이 데이터의 무결성/안전을 보장해주는 기술이 아니기 때문에 초대형 서버의 경우에도 RAID 외에 별도로 미러링 서버나 자기 테이프 등 별도의 데이터 백업 솔루션을 마련해 둔다. 데이터 백업의 용도로 RAID를 염두에 두고 있는 사람이 있다면 다른 대책을 고려하자.

보통은 같은 모델 같은 주차의 제품으로 하는 것이 권장되지만, 이를 유지하기 힘든 개인용의 경우 어쩔 수 없이 서로 다른 두 모델을 혼용할 수밖에 없는 상황이 있다. 물론 그렇다고 RAID가 안 되는 것은 아니며 HDD+SSD 같이 이상하게 구성하지 않는 이상은 성능 향상도 확실히 있다. 다만 SLI처럼 성능이 낮은 쪽으로 하향 평준화되어 거기에 배수가 곱해진다는 것이 차이점.

RAID 1의 경우 RAID를 구성 할 시 동일모델, 서로 다른 주차의 제품으로 구성하거나, 동일 주차의 제품 두 개를 사용하되 일정 시간(약 200~300시간) 이후 하나만 교체하여 운용하는것을 추천하기도 하는데, RAID 1의 특성상 구성되어 있는 하드디스크들이 모두 동일하게 움직이기 때문에 그런 말이 생긴 것이다. 만일 동일 모델 + 비슷한 시기에 생산된 제품으로만 RAID 1이 구성되어 있을 시 구성하고 있는 모든 하드디스크가 사이좋게 다같이 죽어 버리는 대형 참사가 일어날 확률도 높아지는데, 동일한 생산라인에서 비슷한 시기에 생산된 제품이라면 동일 환경하의 불량률 역시 비슷하기 때문.

2. 구현 방법

아래로 갈수록 성능과 안정성이 떨어지나 비용은 상대적으로 저렴하다.

2.1. 하드웨어 RAID

별도의 RAID 카드를 장착하여 구현하는 방법이다. 속도와 안정성 모두 최고급이나 별도의 RAID 카드가 필요하다는 게 단점이다. 고가의 서버 메인보드나 완제품에는 RAID 컨트롤러가 온보드 되어 있는 경우도 있기는 한데, RAID 카드 그 자체가 고장 나는 경우도 있기 때문에 보통은 PCIe 슬롯에 따로 장착한다. 하지만 저가나 염가형의 경우엔 저가 컨트롤러를 쓰거나 기판에 솔더링 흔적만 남은 채로 휑한 경우도 있다.

보통 10만원 이하의 저렴한 카드들에는 당연히 카드 자체에 RAID를 구성하는 디스크를 컨트롤하기 위한 별도의 작은 CPU/메모리가 없으므로 소프트웨어 레이드와 유의미한 차이는 없다. 그래서 이런 카드들은 FakeRAID 카드라고도 불린다.

최고급 사양은 주로 아답텍, 브로드컴(구 LSI, Avago, 3ware), HP Smart Array, 중고급형엔 하이포인트, 저가형은 프로미스나 SIS, ULi 같이 제조사 별 가격과 성능 차가 크다. 브로드컴의 RAID 컨트롤러는 레퍼런스 디자인을 직접 파는 것도 있지만, 인텔, 델, 레노버 등 다른 서버 제조사에 OEM으로 납품하는 경우도 있다.

2.2. 펌웨어(드라이버) RAID

파일:RAID_IRST.png
(인텔의 드라이브 관리 펌웨어인 Intel Rapid Storage Technology로 펌웨어 RAID를 구성한 모습.)
값비싼 RAID 카드 대신 기능을 간략화한 RAID 칩을 탑재하고 펌웨어(드라이버)로 제어하여 구현하는 방법이다. 메인보드 RAID라고도 하며, 보통 OS 진입 전 BIOS(UEFI) 메뉴에서 RAID를 구현한다. OS에 관계 없이 작동하며, OS에서는 원래 장착한 디스크 대신 가상의 BIOS(UEFI) RAID 하드웨어가 표시된다.(즉, 별도의 드라이버 소프트웨어를 통한 관리가 불가능하다.) 단, OS를 바꿔도 묶어놓았던 레이드가 계속 유효한 대신에 메인보드를 바꾸게 되면(예를 들어 인텔 보드에서 AMD 보드로) 그 레이드는 더 이상 사용하지 못할 가능성이 크다.

원래 디스크를 가상 디스크가 대체하는 방식이다 보니, 용량이 다른 두 하드웨어를 묶었을 때 남는 공간은 활용을 못 하고 버려지는 단점이 있다. 예를 들어 256GB+512GB로 구성했을 때 512GB(^2) 디스크와 256GB 디스크가 구성되는 것이 아닌, 512GB(^2) 디스크만 구성되고 256GB는 사용할 수 없다. 단, SSD를 RAID할 때에는 여유 공간을 확보하여 성능에 도움이 될 수도 있다.(오버 프로비저닝)

전통적으로는 별도의 RAID 컨트롤러를 사용하는 것이 안정성이 좋고 유지보수 등에 있어서 간편한 것으로 알려져 있으나, 최근의 메인보드 내장 RAID 컨트롤러 또한 상당한 성능을 보여 주고 있다. 인텔의 경우 Intel Rapid Storage Technology라고 부르는 그것. 많이 나아지긴 했지만, 내장 컨트롤러라는 한계가 있어 여러 디스크를 RAID 0으로 묶을 경우 제 성능을 못 내는 경우도 있다. 안정성 면에서도 별도의 RAID 컨트롤러에 비해 부실하기 때문에 RAID 1을 제외하면 RAID Array가 깨졌을 시 데이터 복구는 포기하는 게 편하니 주의하도록 하자.

2.3. 소프트웨어 RAID

파일:RAID_Windows.png
(Windows의 디스크 관리 기능으로 RAID0을 구성한 모습.)
OS RAID라고도 한다. OS의 디스크 관리 메뉴에서 RAID를 구현하는 방법이다. Windows의 경우에는 부팅 디스크를 OS RAID로 설정할 수 없다. OS RAID는 메인보드를 바꾸더라도 해당 디스크만 제대로 장착하면 계속 레이드를 사용할 수 있지만, OS를 바꾸면 (예를 들어 윈도우->리눅스) 보통 사용하지 못한다. Windows의 경우 해당 RAID를 구성한 디스크가 모두 장착되어 있다는 전제 하에 새 OS 설치 이후에도 디스크 가져오기 옵션을 통해 RAID 구성을 그대로 가져올 수 있다. OS에서 관리하므로 다양한 방법으로 RAID를 구성할 수 있으며, 특히 용량이 다른 두 제품의 경우 RAID를 구성하고 남는 공간에 단일 파티션, 또는 또 다른 RAID 어레이를 구성할 수도 있다. 속도 차이도 다른 방법에 비교해서 거의 없다.

보통 하드웨어를 바꾸는 경우가 OS를 바꾸는 경우보다 더 빈번하기도 하고, OS를 바꾸면 어차피 제공되는 파일 시스템 자체가 달라지기 때문에 기존 레이드를 인식하건 말건 간에 어차피 새로 포맷을 해줘야 하고, 포맷을 할 거면 그냥 다시 레이드를 묶으면 된다. 물론, 예를 들어 윈도의 NTFS 파일 시스템을 리눅스에서 읽고쓰는 게 되긴 하지만, 안정성 문제로 장기간 사용하는 것은 추천하지 않는다. 파일시스템은 언제나 해당 OS 에서 네이티브로 잘 지원되는 것을 사용하는 게 안전하다. 따라서, 호환성 측면에서는 메인보드 레이드보다는 OS 레이드가 좀 더 좋다.

Windows 10의 경우 RAID-5는 Pro 버전 OS에서 지원한다.

ZFS의 미러, 스트라이프 구성이나, RAIDZ도 일종의 소프트웨어 RAID라고 할 수 있다. 다만 단순한 RAID보다 유연하게 구성될 수 있고, 여러가지 부가기능을 제공하기도 한다. 성능 등의 특성은 대응되는 RAID와 유사하다.

3. 종류

동작 방식에 따라 Level 0 ~ 6으로 분류한다. 주로 사용되는 것은 0, 1, 5, 6이며 컨트롤러 개발사에 따라 다른 방식을 제공하기도 한다.

3.1. RAID 0

Striping, 스트라이프[Windows]
HDD1 HDD2
A1
A3
A5
A7
A2
A4
A6
A8

여러 개의 멤버 하드디스크를 병렬로 배치하여 거대한 하나의 디스크처럼 사용한다. 데이터 입출력이 각 멤버 디스크에 공평하게 분배되며, 디스크의 수가 N개라면 입출력 속도 및 저장 공간은 이론상 N배가 된다. 다만 멤버 디스크 중 하나만 손상 또는 분실되어도 전체 데이터가 파손되며, 오류검출 기능이 없어 멤버 디스크를 늘릴수록 안정성이 떨어지는 문제가 있다. 따라서 장착된 하드디스크의 개수가 RAID-5 구성 조건에 충족되지 않는 등의 불가피한 경우가 아니라면 절대로 RAID 0으로 구성하지 않는 걸 추천한다.

이미지 프로세싱, 데이터베이스 캐시 등 빠른 입출력 성능을 필요로 하며, 데이터 손실이 문제되지 않는 환경에서 쓰일 수 있지만, 상용 환경에서는 위험성 문제로 RAID 5나 6을 이용하는 경우가 많다고 한다.

이 때문에 고성능을 경험하고 싶은 파워유저가 구축해 보는 경우가 많다. SSD를 단독 사용하기에는 용량이 많이 부족하니, 여러 개를 묶어서 초고속 저장 장치를 구축하는 것. 이런 점을 간파하고 소니의 노트북 브랜드인 VAIO에서 공식적으로 RAID0 기술을 구현했다. VGN-Z 라인업의 고급형 모델에 한시적으로 탑재한 적이 있었으며, 이 라인업의 후속작인 프리미엄 모델 Z 시리즈 VPCZ1부터 본격적으로 적용했다.

NVMe SSD 8개를 한 개의 볼륨으로 묶은 사례도 있다. 속도는 27.7 GiB/s(28375 MiB/s)가 나온다고 한다. 또한 PCIe 5.0의 T700 4개를 묶으면 초당 42GB라는 미친 속도가 나온다고 한다. 이는 GiB로 환산해도 일부 DDR5의 속도인 38.4GB/s를 넘는 수치이다. 레이턴시를 감안하면 조금 더 느린 수준일수도 있긴하다.

RAID 0뿐만 아니라 모든 RAID 볼륨은 기록 시 한 디스크에 한번에 기록할 데이터 크기인 Stripe size를 지정할 수 있다. 컨트롤러에 따라 다르지만 Intel RST에서는 4~128KB를 지원한다. Stripe size가 4KB이고 멤버 디스크가 4개라면 16KB짜리 파일을 기록할 때 디스크당 4KB씩 돌아가면서 한 번씩 기록한다. Stripe size가 128KB이고 멤버 디스크가 2개, 기록할 파일이 2MB(2048KB)라면, 첫 번째 디스크에 128KB, 두 번째 디스크에 128KB를 순차적으로 기록하는 것을 디스크당 8번씩 반복한다. SSD에서는 128KB 이상이 추천되며, 하드디스크라면 32KB 정도가 추천된다. 하지만 사용자의 환경에 따라 최적의 성능을 내는 Stripe size가 다르므로 하나하나 적용해 보는 것이 좋다.

개인용으로 사용할 때 주의할 점이 있는데, A, B, C, ...의 디스크를 RAID 0으로 묶었을 때의 속도는 min(A, B, C, ...) * (묶은 숫자) - (오버헤드 감소분)이다. 간단하게 말해서 가장 낮은 속도로 하향 평준화가 된다는 뜻인데, 연속 파일 입출력의 경우에는 상대적으로 입출력 속도가 뛰어나서 오버헤드 감소분이 크게 체감이 안 되지만 4k 파일 입출력의 경우에는 RAID 0으로 묶어도 입출력 속도가 크게 차이가 안 나거나 더 떨어지는 경우도 상당부분 존재한다. 따라서 성능 향상용으로 RAID를 구성할 경우 벤치마크를 돌려 성능을 확실히 확인한 후에 결정하는 것이 좋다. 4K가 가장 크게 영향을 끼치는 게이밍에 있어서는 SSD의 RAID 0로 얻을 수 있는 성능 이득이 거의 없다. 오히려 게임에 따라 문제가 발생할 수 있는데, 게임의 맵에 이정표를 찍어 이동하는 경우 새로 도착할 맵의 데이터를 대량으로 읽어야 하는데, 게임 엔진에 따라 게임을 RAID 0 SSD에 설치한 경우 새로운 맵에 진입한 직후에 프레임이 크게 저하되는 현상이 나타날 수 있다.

3.2. RAID 1

Mirroring, 미러[Windows]
HDD1 HDD2
A1
A2
A3
A4
A1
A2
A3
A4

각 멤버 디스크에 같은 데이터를 중복 기록한다. 멤버 디스크 중 하나만 살아남으면 데이터는 보존되며 복원도 1:1 복사로 매우 간단하기 때문에, 서버에서 끊김 없이 지속적으로 서비스를 제공하기 위해 사용한다.

멤버 디스크를 늘리더라도 저장 공간은 증가하지 않으며, 대신 가용성이 크게 증가하게 된다. 상용 환경에서는 디스크를 2개를 초과해서 쓰는 경우가 드물지만, 극한 환경에서는 3개 이상의 멤버 디스크를 사용하기도 한다.

쓰기 성능은 이론적으로는 소폭 하락하는데, 이는 하향 평준화가 기준이므로 동일 모델 동일 주차 생산품으로 구성한 경우 크게 차이가 없을 수 있다.

읽기 성능은 n개의 디스크 기준 단일 읽기 작업에서 레이드를 안한 것과 차이가 없으며, 병렬 읽기 작업은 구현체에 따라 최대 n배가 된다. 이는 read-balancing을 통해 별개의 읽기 작업을 각 멤버 디스크에 분산시키기 때문으로, 리눅스의 md가 이런 식으로 구현되어 있다.[5]
(단 Synology의 RAID 1은 읽기 속도의 향상이 전혀 없다. 읽기 작업을 할때 병렬분산을 하지 않고 하나의 HDD에서 단일 읽기 작업을 하기 때문.)

단, RAID 1을 제공하는 제조사들이 누누이 강조하는 부분이기도 하나, RAID 1은 백업이 아니다. 모든 RAID의 특징인데 RAID는 데이터의 안정성 즉 잘못된 소프트웨어나 해킹 등으로부터 데이터 파괴를 막아주지 못한다. 데이터의 안정성은 non-RAID 환경에서도 백업 솔루션을 이용하면 버전별로 쭈욱 저장하여 구현이 가능하다. RAID 1의 목적은 가용성(HDD 1개가 파손되더라도 문제 없이 서비스를 제공하여 전체 서비스 가능 시간 개선)이다. 물론, 각각의 멤버 디스크가 곧 최신 데이터가 포함된 백업본이라 볼 수도 있지만, 의도하지 않은 데이터 변경에 대해서는 대처가 불가능다는 점을 생각하면 반쪽짜리 백업 기능일 뿐이다.

일반인이 RAID 1을 시도해 볼만한 경우는 언제 고장날지 모르는 노후화 된 하드를 묶어, 신품 하드의 작동 안정성을 확보하는 용도 정도가 있다.

3.3. RAID 1E

HDD1 HDD2 HDD3
A1
A2
A3
A4
A5
A6
A1
A2
A3
A4
A5
A6

일부 H/W 레이드 카드에서 지원하는 홀수 개수의 HDD 어레이를 위한 RAID 10이다. 예를 들어 3개의 1TB HDD가 있을 때, 이것을 RAID 1로 구성하면 세 장의 HDD에 모든 데이터가 중복 기록되며 가용 용량은 1TB이다. RAID 1E로 구성하면 HDD 1과 HDD 2의 절반에 데이터를 기록하고, HDD 2의 나머지 절반과 HDD 3에 데이터를 중복 기록한다. 가용 용량은 1.5TB이다.

3.4. RAID 2, 3, 4

Fault Tolerance using Dedicated Parity Bit.

오류정정부호(ECC)를 기록하는 전용의 하드디스크를 이용해서 안정성을 확보한다. 최대 1개의 디스크 고장에 견딜 수 있다. RAID 2, 3, 4는 각각 비트, 바이트, 블록 단위로 구성된다는 차이가 있다. 현대의 512/4k 블록 기반 저장장치에 맞지 않는 RAID 2, 3은 사실상 사용되지 않는다. 데이터 전용 디스크에 스트라이프 구성이 이루어지기 때문에 RAID 0, 5, 6과 마찬가지로 읽기 성능 향상이 있다.

RAID 2는 비트 단위에 Hamming code를 적용하며, RAID 3, 4는 각각 바이트, 블록 단위로 패리티를 저장한다. 원리는 비슷한데, 오류 복구용 데이터를 전용 디스크에 몰아넣는 방식이다. 예를 들어서 디스크 13, 디스크 26을 저장하면 오류 복구용 디스크 3에는 1+2의 값인 9를 저장한다. 이렇게 저장하면 디스크 1이 사라지더라도 디스크 26의 값을 읽고, 디스크 3에 저장된 값 9에서 디스크 1의 값 3을 역산해낼 수 있기 때문에 저장소 하나가 파손되더라도 데이터를 읽을 수 있는 것이다.[6]

패리티 연산으로 인한 일반적인 오버헤드에 더해서, 패리티가 하나의 디스크에만 기록된다는 점 때문에 쓰기 연산시 추가적인 성능 손실이 있다. 패리티 디스크에만 부하가 집중되어 먼저 고장나기 쉽다는 점 역시 대표적인 단점 중 하나이다. 성능상으로도 RAID 5보다 떨어지기 때문에 RAID 5가 등장한 후에는 빠르게 대체되었다.

그나마 하나 있는 장점은 어레이에 새 디스크가 추가되는 경우[7]에도 패리티 재연산이 수행될 필요가 없다는 점이지만 사실상 의미가 없는 장점이다. 이론적으로는 재연산 없는 확장이 가능하지만 이를 지원하는 레이드 컨트롤러는 사실상 없고, 기존 데이터를 재분배하지 않는 이상 성능상으로도 불안정해진다. 기존 데이터를 재분배하게 되면 패리티 연산이 다시 이루어져야하는데, 이렇게 되면 RAID 4의 장점은 없다.

개인/소호용 NAS 운영체제인 UNRAID에서 제공하는 패리티 구성이 RAID 4의 이론적인 장점에 착안한 방식이다. 데이터 디스크를 스트라이프 구성하는 대신 JBOD처럼 각각의 디스크를 따로 사용하여 기록하는 방식으로, 패리티 디스크보다 작은 크기라면 디스크를 자유롭게 추가할 수 있다. 이쪽은 패리티 디스크를 최대 2개까지 둘 수 있으며, 패리티 디스크 숫자만큼의 내결함성을 가진다.[8]

3.5. RAID 5

Fault Tolerance using Distributed Parity Bit.

기본 원리는 RAID 4와 비슷하나, 패리티를 한 디스크에 밀어 넣지 않고 각 멤버 디스크에 돌아가면서 순환적으로 저장하여 입출력 병목 현상을 해결한다. N개의 디스크를 사용하면 (N-1)배의 저장 공간을 사용할 수 있다. RAID 4처럼 하나의 멤버 디스크 고장에는 견딜 수 있지만 디스크가 두 개 이상 고장 나면 데이터가 모두 손실된다. 데이터베이스 서버 등 큰 용량과 무정지 복구 기능을 동시에 필요로 하는 환경에서 주로 쓰인다.

매번 쓰기 작업 때마다 패리티 연산 과정이 추가되어, 성능을 보장하려면 고가의 패리티 연산 전용 프로세서와 메모리를 사용해야 한다. 멤버 디스크도 최소 3개 이상 사용해야 하므로 초기 구축 비용이 비싸다는 단점이 있다. 다만 멤버 디스크의 수가 5개 이하인 중소규모 파일서버라면 소프트웨어 RAID도 괜찮다. 부팅용 하드가 별도로 필요하다는 게(그리고 부팅 하드가 뻑나면 RAID까지 풀려서 복구하기 짜증난다는) 애로점이긴 하지만... 읽기 작업은 전체 디스크에 분산되어 속도가 향상되지만, 쓰기 작업은 적어도 둘 이상의 디스크(데이터+패리티)에서 진행되어야 하므로 성능이 약간 떨어진다.

RAID 1과 비슷하게 하드디스크가 하나가 사망해도 일단 작동은 해서 가용성은 높다. 그러나 패리티 연산을 통해서 데이터를 저장한다는 특징 때문에 취급상 유의가 필요하며 까다롭다. 다음은 RAID 5를 고려한다면 알아야 할 사항이다.
  1. RAID 0보단 안전하다는 인식과 달리 오히려 많은 량(보통 8개 이상)의 디스크를 스토리지로 묶으면, 패리티 연산오류 발생 확률이 높아져서 인해 RAID 0으로 묶은 것보다 깨질 확률이 높아진다고 한다. 그러므로 대단위로 스토리지를 만들려면 RAID 6 또는 RAID 10을 권한다.
  2. 데이터가 분산 저장되어 있기 때문에 어레이가 깨지거나 보장되는 내결함 디스크 개수(RAID 5는 최대 1개)를 초과하는 경우 전자는 데이터를 살리기가 대단히 어렵고 후자는 사실상 데이터를 살릴 수 없다.
  3. 어레이를 복구하려고 하드를 뽑았는데, 하필 정상이었던 하드를 잘못 뽑아서 어레이가 깨지는 경우도 심심치 않게 발생하니 주의하도록 할 것. 고급 레이드카드/소프트웨어 레이드들은 다시 붙이면 잘 붙긴 하나, 그래도 안 붙는 경우도 있으니 주의...
  4. 리빌딩(재구축)을 하고 있을 때 해당 어레이에 부하를 주지 말 것. 리빌딩 도중에 사용하면 리빌딩 시간이 늘어나고, 무엇보다 리빌딩 하다가 깨질 수도 있다. 서버 전체의 용량이 커지고 구조가 복잡해질 수록 리빌딩 시간이 기하급수적으로 늘어나는데, 몇 시간은 커녕 며칠, 몇 주가 걸리는 경우도 허다하며 당연하게도 그동안 장애로 어레이가 망가지면 모든 데이터는 날아간다. 따라서 유지보수 중 서버 다운타임을 최소화 하려는 목적에는 부합하지 않는다.

PC의 계산 성능이 급속도로 향상됨에 따라 더 이상 패리티 연산 프로세서가 필수적이지 않기 때문에, 윈도우 10에서도 이제 소프트웨어적으로 RAID 5를 구현할 수 있게 되었다. Manage Storage Spaces 기능을 사용해서 드라이브 여러 대를 Storage Pool로 구성할 때, Resilience 옵션을 Parity로 선택하면 된다.

현대의 8TB 이상 대용량 하드디스크에는 사용하지 않는 것이 권장된다. 복구에 매우 오랜 시간이 소요되기 때문이다. 일 단위로 소요되는 복구작업 중에 다른 디스크가 고장나면 그대로 어레이 전체가 망가진다. 몇시간 내외로 복구가 완료되던 과거에도 RAID5는 믿음직한 방법이 아니었는데, 현대의 대용량 하드디스크와 함께 사용하는 것은 의미 없는 용량 낭비에 불과하다.

복구시에도 다른 접근을 차단하고 오직 복구만 수행하는 것이 권장되는데, 이러면 무중단 운영이라는 목표도 달성할 수 없게 된다. 차라리 백업해둔 데이터를 새 디스크에 덮어 씌우는 것이 더 빠르게 끝난다. 백업이 잘 되어있는 환경이라면 이점이 거의 없으며, 백업이 안 되어있다면 더더욱 지양해야한다.

따라서 비용과 장비의 한계로 4TB 이하 정도의 저장장치를 3개 정도로 구성해야 되는 개인용 서버를 돌리며 조금이라도 있는 안정성과 최대한 용량을 뽑아내고 싶은 경우가 아니라면 그렇게 선택할 메리트가 크지 않은 방식이다. 그 또한 데이터가 날아가도 타격이 크지 않은 것들로 저장하는 것이 좋다.

3.6. RAID 6

Fault Tolerance using Distributed Double Parity Bit.

RAID 5와 원리는 같으며, 서로 다른 방식의 패리티 2개를 동시에 사용한다. 성능과 용량을 희생해서 가용성을 높인 셈. N개의 디스크를 사용하면 (N-2)개의 저장 공간을 사용할 수 있다. RAID 5가 1개까지의 고장을 허용하는 것에 반해 이쪽은 2개까지 허용한다.

스토리지 서버와 같이 디스크를 빼곡히 꽂는(기본 10개 단위) 환경에서 RAID 5는 유지보수가 어려우며, 어레이 안정성을 높이기 위한 목적으로 주로 사용된다. 하드 하나가 고장난 RAID 5 장비에서 교체 하려다가 실수로 멀쩡한 하드 하나를 뽑는다면 RAID 어레이 전체가 사망한다. (사실 소호가 아닌 이상 스토리지서버를 구축하는 경우 스페어를 무조건 구비하기 때문에 저럴 일이 없다.) 동일 상황에서 RAID 6는 문제가 없다. Disk fail이 2개동시에 나지않는 이상은. 컨트롤러가 RAID 5보다 더 비싸고, 멤버 디스크도 기본 4개 이상 확보해야 하므로 초기 구축 비용이 비싸다.

2020년대의 대용량 하드디스크 기준으로, RAID의 최소 기준에 가까운 방식이다. RAID 6보다 못한 내결함성을 지닌 어레이는 구성하지 않는 것이 권장된다.

3.7. RAID-Z3

오라클의 ZFS라는 파일 시스템에서 지원하는 소프트웨어 RAID에서 제공하는 모드. Z1과 Z2는 각각 RAID 5와 RAID 6과 유사하지만, Z3은 RAID 6 / Z2보다 패리티를 하나 더 쓴다.RAID-7? 그만큼 최소 구성 멤버 디스크도 하나 더 많고, 위에서 언급한 것처럼 스토리지 서버와 같이 디스크를 빼곡히 꽂는(기본 10개 단위) 환경에서, 특히 최근 또는 근미래의 고용량 HDD(개당 수 TB 이상)를 이용한 구성에서 고장난 HDD를 교체 시 거기에 데이터를 채워넣는 데 시간이 오래 걸리므로 그 사이에 또 다른 HDD가 죽고...하는 경우까지 생각해서 유지보수를 돕기 위해 패리티를 늘린 것이다. 패리티를 3중으로 사용하는 만큼 하드웨어 자원도 대단히 많이 사용한다.
출처 https://en.wikipedia.org/wiki/ZFS

3.8. Nested RAID(복합)

레이드 볼륨의 멤버로 다른 레이드 볼륨을 사용하는 형태. 볼륨 확장 과정에서 구성 편의성 문제로 형성되는 경우가 많다. 이 때 멤버 디스크를 묶는 배열을 하위 배열, 하위 배열을 묶는 배열을 상위 배열이라고 한다. 표기 방법은 (하위 배열 숫자)(상위 배열 숫자) 형식이다. 만약 하위 배열 숫자가 0이면 혼동을 피하기 위해 (하위 배열 숫자) “+” (상위 배열 숫자)를 적는다. 대표적인 예시로 10, 0+1, 15, 50, 0+5, 51 등이 존재한다.

아래 예시는 1TB 디스크 6개로 구성한다는 상황을 가정한다.

3.8.1. RAID 1 + RAID 0

3.8.2. RAID 5 + RAID 0

3.8.3. RAID 5 + RAID 1

4. 유사 방식

4.1. JBOD

Just Bunch of Disks, Linear[md], 스팬[Windows]

단순히 여러 저장매체를 하나로 보이게 선형적으로 논리 섹터를 이어 붙인 개념이다. 따라서 RAID 0처럼 멤버중 하나만 깨져도 모든 데이터가 손실되지는 않고 고장난 저장매체에 있던 부분만 날아간다. 용량은 각 멤버의 합과 같거나 작다.[11] 과거에 드라이브 용량이 작던 시절, 개개의 드라이브 용량보다 더 큰 파일을 저장하기 위해 사용됐었다.

논리 섹터를 이어붙인 개념이기 때문에 드라이브를 자유롭게 제거할 수는 없으나, 추가는 자유로워 심지어 작동중에도 드라이브 추가가 가능하기도 하다.[12]

대부분의 RAID와 달리 모든 멤버가 같은 용량, 같은 성능을 가질 필요가 없기 때문에,[13] JBOD는 멤버 디스크의 성능/용량이 달라도 구성 가능하다. 이러한 까닭에 성능을 특정하기 어렵다.

단일 읽기 성능은 읽을 부분이 어느 드라이브에 보관되었느냐에 따라 다르고, 병렬 읽기 성능은 읽을 영역들이 각각 다른 드라이브에 있는지, 한 드라이브에 있는지에 따라 또 다르다. 이상적으로 병렬 읽기를 각각 다른 드라이브에 저장된 부분들에 수행한다면 각 디스크 읽기 속도의 합만큼의 성능이 나오겠지만, 현실적으로 이런 경우는 거의 없고 일부 디스크에 몰리게 된다.

윈도우에서도 Stablebit Drivepool 라는 프로그램을 이용해 JBOD 비슷한 것을 이용할 수 있다. 30일 무료체험 후 5만원 정도 과금해야 한다.

여담으로, 구버전의 AMD StoreMI가 익스클루시브 캐시라는 특성 상 용량의 총합을 쓸 수 있다는 점이 JBOD랑 비슷했다.[14] 작동 방식이나 성능 특성은 완전히 다르다.

4.2. Union mount

UnionFS, OverlayFS, MergerFS 등이 있다. RAID 표준이 아니며 RAID 도 아니지만, 비슷한 용도로 쓰인다.

RAID와 달리 관리되는 각 저장매체 또는 경로를 하나로 묶어 보여주는 방식으로, 경로 / 마운트들을 그저 하나로 묶어서 보여주는 것이라 데이터 손실 걱정 없이 구성과 해제가 자유롭다. 이미 파일이 들어있는 상태에서도 손실없이 구성할 수 있다.

여러 다양한 드라이브를 활용한다는 점은 JBOD와 어느정도 유사하지만, 거대한 단일 파일은 저장하지 못한다는 단점이 있다. JBOD처럼 논리섹터를 이어붙이는 것이 아니라, 이미 존재하는 파일시스템을 그대로 이용하는 일종의 프록시라 단일 파일을 여러 디스크에 쪼개 넣을수 없기 때문이다. 이제는 저장장치의 용량이 크게 늘어 모든 드라이브를 한계까지 채워넣지 않는 한 보기 힘든 단점.

이런 특성 탓에, 현대에는 JBOD보다 Union mount 방식을 더 자주 사용한다. openmediavault 에서도 드라이브 풀을 관리할때 사용한다.

드물게 광디스크와 같은 읽기 전용 매체와 구성하기도 하는데, 이런 경우 읽기 전용 매체 전체를 복사하지 않으면서, 일부를 수정할 필요가 있을 때 사용된다.[15]

4.3. SHR

Synology Hybrid RAID

NAS 제조사인 Synology에서 만든 레이드 방식으로, 서로 다른 용량의 HDD를 사용할 때 남는 부분의 낭비 없이 사용 가능하도록 하여 RAID HDD를 점차 용량이 큰 것으로 업그레이드 하고자 할 때 유용한 기술이다. 용량 확보를 위해 RAID를 구축하고 남은 용량이 있는 디스크만을 이용해서 다시 RAID를 구축하는 방식으로, 디스크가 3개 이상인 부분에서는 RAID 5, 2개에서는 RAID 1을 이용하므로 디스크가 2개일 때도 이용이 가능하다.

예를 들어 1, 2, 3, 4TB HDD 4대를 SHR로 묶으면 6TB를 사용할 수 있다.
  1. 우선 가장 작은 1TB HDD의 용량대로 모든 HDD에서 1TB씩을 가져와서 RAID 5 볼륨을 구성. 3개는 데이터, 1개는 패리티로 이용하면 3TB(3 * 1TB)를 확보
  2. 다음으로 작은 HDD가 2TB이므로 이미 이용한 1TB를 뺀 나머지 1TB를 기준으로 남은 HDD 3대(2, 3, 4TB)에서 RAID 5 볼륨을 구성. 2개는 데이터, 1개는 패리티로 이용하여 2TB(2 * 1TB)를 확보
  3. 다음 3TB HDD에서 또 나머지 1TB를 기준으로 하는데, 이 때 남은 HDD가 2대(3, 4TB)이므로 RAID 5 대신 RAID 1을 이용하여 1TB를 확보
  4. 마지막 4TB의 남은 1TB 영역은 보호해줄 다른 디스크가 없으므로 이용되지 않음
이렇게 3TB+2TB+1TB로 총 6TB의 데이터 볼륨이 만들어진다. 기존의 RAID 5로도 수동으로 동일하게 패리티 구성은 가능하지만 1TB HDD에 맞춰서 3TB 볼륨이 만들어지며 전체 볼륨을 6TB로 묶을 수는 없다.

디스크가 1개일 때도 사용은 가능하나, RAID 볼륨 구성은 되지 않으며, 당연히 디스크 손상 보호도 되지 않는다.

RAID 5 대신 RAID 6을 이용하여 디스크 2개 손상에도 대응이 가능한 'SHR-2'가 있다. 단 SHR-2는 RAID 1을 이용하지 않으므로, 디스크가 4개 이상일 때만 이용이 가능하며 용량 확보가 덜 된다.

제조사의 설명 문서

인텔 매트릭스 스토리지 기술에서 유사한 기능을 제공한다.

4.4. Hot Spare

파일:hot_spare_종류.jpg
RAID 1, 5, 6 등 소수의 하드디스크가 고장나더라도 운영에 지장이 없는 RAID Level을 위해 존재한다. 전체 멤버 디스크에서 1개 이상의 디스크를 Spare로 지정해서, 평소에는 데이터를 읽고 쓰는 행위를 하지 않고 그냥 대기(stand-by) 시키다가 디스크가 고장났을 때 자동으로 해당 디스크에 리빌딩하여 원래 RAID 볼륨을 복구한다. 디스크가 1개 고장났을 때 RAID 볼륨을 알아서 복구해 주기 때문에 약간의 시간을 벌 수 있지만, 고장난 HDD를 빠르게 교체해 주지 않으면 Hot Spare가 없는 것과 마찬가지가 된다. 일반적으로 RAID 1에서는 2 + 1 의 구성으로, RAID 5에서는 멤버 디스크+1로, RAID 6에서는 멤버 디스크 + 2로 구성한다.

단점이라면 Hot Spare로 지정한 디스크는 평소에는 하는 일이 없기 때문에 전체 디스크 개수가 적다면 사용 용량 감소분이 상대적으로 더 커진다. RAID 볼륨을 여러 개 지정하는 중대형 스토리지에서는 Global Spare 기능으로 여러 RAID 볼륨에서 공용으로 Hot Spare를 사용하게 하는 경우도 있다.

5. 사용 환경

5.1. 개인/소규모 서버

서비스 가용성이 필요하지 않은 환경에서는 RAID[16]를 사용하여 얻는 이점이 크지 않다. 보통 개인용 서버는 처음부터 완성된 상태기 보다는 조금씩 저장장치를 증설하거나 조그만 규모로 시작해 용량이 부족해지면 업그레이드 하는 형태가 많아 RAID 구성이 오히려 귀찮아지는 경우가 많고 유지보수를 할때 서버를 내려버리고 백업에서 복구하면 그만이라 차라리 여러 하드를 볼륨이나 풀을 나누어 데이터를 따로 저장하는게 효율적인 경우가 대부분이다. 백업 구성을 따로 마련하는게 좋으나, 이건 RAID를 사용하는 서버도 마찬가지 필수적인 절차다.

그러나 자료의 크기가 수십 테라바이트에 육박하거나 4개 이상의 대용량 하드디스크를 사용하는 경우라면 RAID 6이나 이와 유사한 패리티 구성도 고려해야한다.

5.1.1. 성능

RAID 0, 5, 6 등을 구성하면 일반적으로 디스크의 숫자만큼 성능이 선형적으로 증가한다. 2개의 디스크를 RAID 0으로 구성하면 속도가 2배가 되는 식이다. 패리티가 포함된 RAID 5, 6 역시 디스크 숫자 만큼의 읽기 성능 향상을 기대할 수 있다.[17] 쓰기 속도의 경우 이론적으론 최대 (전체 디스크 숫자 - 패리티 디스크 숫자)배[18] 만큼의 향상이 가능하지만, 패리티 연산으로 인한 오버헤드가 존재하기 때문에 실제로는 이에 못 미치는 경우가 대부분이다.[19] 디스크 컨트롤러의 대역폭이 병목이 되어 기대만큼의 성능 향상이 이루어지지 않는 경우도 있으니 유의해야한다.
5.1.1.1. HDD
HDD의 경우 확연한 차이가 생기기 때문에 성능 측면에서는 확실히 이익이 있다.

다만 워크로드에 따라서는 RAID0보다 개별 디스크 구성이 더 높은 성능을 낼 때도 있다. 하드디스크의 특성으로 인해 벌어지는 일인데, 동시에 2개 이상의 액세스가 이루어지는 경우가 대표적이다. RAID0 구성에서 디스크 헤드를 움직이며 왔다갔다 하는 것 보다 각각의 디스크에서 하나씩 순차읽기를 할 때 전체 속도의 합이 더 높다. 동시 접근할 데이터를 명확하게 나눌 수 있다면 RAID를 구성하지 않는 편이 성능상 더 나을 수 있다.
5.1.1.2. SSD
SSD의 경우는 RAID를 통해 얻는 성능 이익이 크지 않다.

PCIE 3.0, 4.0 이상의 대역폭을 완전히 활용할 수 있는 NVME SSD의 경우는 RAID를 통한 성능 향상이 유의미한 경우가 드물다. 오히려 레이드 컨트롤러가 병목을 일으켜서 특정 상황의 성능이 저하되는 경우도 있다.

SATA SSD의 경우, PC에 직접 장착하여 사용한다면 성능 향상이 어느정도 의미가 있을 수 있다. 하지만 SATA 컨트롤러의 대역폭이 이를 받쳐주지 못하면 문제가 생길 수 있다. NAS 등의 스토리지 서버에 장착되는 경우라면 10기가비트 이더넷 환경이 아닌 이상 의미가 없다.

5.1.2. 안정성, 내결함성

개인 사용자 레벨에선 페일오버를 위한 RAID를 구성하는 것이 낭비라는 것이 과거의 통념이었다. 일반적으로 개인 사용자 수준에서는 무중단 서비스가 필요한 경우가 적으며, 디스크 고장이 일어나는 경우, 몇 시간 정도 복구에 시간을 소모하는 것이 큰 문제가 되지는 않는 경우가 대부분이었기 때문이다.

그러나, 과거와 달리 하드디스크의 개당 용량이 매우 커졌다는 점을 유의해야한다. 하드디스크의 속도는 1TB, 2TB 정도에 머물던 시절과 큰 차이가 없고, 시간당 고장률 역시 마찬가지이다. 그런데 하드디스크의 용량은 10배 이상 증가하였다. 이는 데이터 유실시 복구에 그만큼 더 많은 시간이 소요된다는 것을 의미하며, 복구중 백업 디스크가 고장나서 데이터가 유실될 가능성도 그만큼 증가했다는 말이 된다.

이러한 이유로, 패리티 1개로 구성되는 RAID 5는 2020년대엔 강력하게 비권장된다. 비슷한 시기에 생산된 동일 제품으로 RAID를 구성하는 경우 위험성은 더더욱 커진다. 하드디스크가 한 날 한 시에 같이 죽는다는 말이다.[20]

RAID 10은 RAID 5보다는 낫지만, 최악의 경우엔 RAID 5와 유사한 수준의 내결함성을 가진다.[21] 복구중에 RAID 1로 묶인 다른 디스크가 고장난다면 어레이 전체를 잃게 된다.

결론적으로, 8TB 이상의 대용량 하드디스크를 4개 이상 사용하는 환경이라면, 백업에 더해[22] RAID 6 수준의 내결함성을 확보하는 것이 권장된다. 1:1 백업이나 미러 구성만으로는 충분한 데이터 안정성을 확보할 수 없다.

5.1.3. 비용, 확장성

서버급 레이드 컨트롤러는 가격이 비싸며, 전력 소모량도 가정 기준에선 꽤나 높은 편이다. 호환되지 않는 레이드카드를 사용하면 어레이를 읽을 수 없다는 문제도 있다.[23] RAID 컨트롤러가 포함된 외장 DAS 역시 비슷한 단점을 공유한다. 소프트웨어 기반 RAID도 운영체제나 환경에 따라서 안정성/성능/호환성에 이슈가 발생할 가능성이 있다.

RAID 구성은 쉽지만 확장은 매우 어렵다는 문제도 있다. 여분의 저장매체가 상시 넉넉하게 구비된 환경이라면 큰 문제가 아니지만, 개인/소규모 환경이라면 금전적으로 부담이 된다.

5.1.4. 기타

RAID를 활용하면 여러개의 물리 디스크를 하나의 논리 디스크처럼 활용할 수 있다는 이점이 있다. 그러나, RAID 0의 경우 하나의 디스크만 고장나도 데이터를 전부 날린다는 치명적인 약점이 있다는 것을 유의해야한다. 위에서 설명한 이유로, 고용량 디스크에선 RAID 5도 사용하지 않는 것이 좋다.

RAID를 구성한 경우 아무리 작은 데이터에 접근하더라도 디스크 전부를 작동시키게 된다. 스핀다운을 통해 전력 소모를 최소화하는 경우엔 접근 빈도에 따라서 전체 디스크의 수명에 악영향을 줄 수도 있다.

5.1.5. 대안

단일 논리 디스크를 활용하려는 경우, RAID가 아닌 JBOD 등의 대안을 활용할 수 있다. NAS 운영체제인 UNRAID에서 제공하는 것과 유사한 패리티 구성을 활용하면 내결함성도 확보할 수 있다.

윈도우를 쓰는 개인이 여러 디스크를 하나로 묶어서 쓰고 싶은 경우 RAID 대신 StableBit DrivePool같은[24] 유료 소프트웨어를 사용하는 것도 방법이다. 위 JBOD의 장점을 공유하면서, 중요한 폴더나 파일은 복제를 통해 하나의 디스크가 날아가도 다른 디스크에 사본이 남아있도록 설정 가능하다. 또한 주기적으로 디스크들을 스캔해서 향후 문제가 발생할 수 있는 디스크가 있으면 자동으로 그 디스크의 데이터를 다른 드라이브로 옮겨주기도 한다.[25]

서버 등급의 레이드 컨트롤러를 구매할만한 여력이 되지 않는 경우, ZFS 등의 검증된 유사 소프트웨어 솔루션을 사용하는 것이 더 나은 선택일 수 있다.[26] 소프트웨어 기반인만큼 장비 호환성이 높으며, 어레이 복구시 전체 비트 대조 없이 데이터만 옮기기 때문에 복구시간이 단축된다는 장점도 있다. 부가적으로 스냅샷과 scrub 등의 데이터 무결성을 위한 기능도 지원한다. 다만 윈도우에선 사용이 어렵고, 가상머신에서도 제대로 사용하려면 디스크 컨트롤러채로 패스스루를 해줘야한다는 문제가 있다. NAS의 경우 TrueNAS, OMV, UNRAID 등의 운영체제에서 ZFS를 지원한다.

5.2. 대규모 서버

파일:disk_array_60.jpg 파일:disk_array_rack.jpg
일단 대규모라고 부르는 수준이 되면 HDD 의 수가 어마어마해진다. 위 사진은 장비 1대에 HDD 60개가 장착되며, 그런 장비가 랙당 10대, 랙이 수십개가 구성된다. 랙이 10개, HDD 1개당 18TB 용량이라고 치면 18TB * 60 * 10 * 10 = 108000 TB , 108 PB 라는 용량이 된다.

서버급 장비에서도 위에 언급한 백업 솔루션은 충분히 구축하지만, RAID가 아닌 이상은 어쨌든 서버 닫고 디스크 복구하고 다시 열어야 하는 건 매한가지라 속도와 디스크 내구성에 조금 손실을 입더라도 서버 가용성을 최대한 확보할 목적으로 사용한다. 자동 복구 솔루션을 구축해 놨을 경우 서버 담당자가 바로 달려가지 않더라도, 주기적으로 손상된 어레이만 점검하고 교체하는 것만으로도 충분한 안정성을 얻을 수 있기 때문 그로 인해 OS나 중요한 파일같은경우 RAID1로 묶고, 나머지 대용량 저장장치는 보통 주로 RAID5 또는 RAID6으로 묶는다.

위의 사진 처럼 '대규모'로 운용하는 경우에는, 서버가 다운되면 그 손해도 막심하기에, 더욱더 안정성을 높히는 구조를 사용한다. 또 그렇다고 성능을 포기할 수도 없기에, nested RAID 15 나 nested RAID 51 처럼 안전성을 극도로 높힌 구성이나, RAID 05, RAID 06 처럼 양쪽 모두를 잡는 구성을 사용할 수 있다. 물론 어느 경우에나 Hot spare 는 잔뜩 사용한다.


[1] 전체 시간 중 사용 가능한 시간이 차지하는 부분 [2] 건전지로 비유하면 RAID 1은 병렬, RAID 0은 직렬 연결이다. [Windows] Windows에서 부르는 이름 [Windows] [5] md 메뉴얼 의 RAID1 참조. [6] 단순화된 예시이며, 보다 복잡한 연산이 이루어진다. [7] 데이터가 기록되지 않은(0으로 채워진) 디스크는 패리티 연산에 영향을 주지 않는다. [8] 데이터 디스크 2개가 동시에 고장나도 복구할 수 있다. [md] [Windows] [11] 지정한 청크 사이즈로 딱 나눠떨어지지 않는 나머지 용량은 버려진다. [12] 리눅스 md가 이렇다. [13] RAID는 같은 환경을 전제하기 때문에 멤버 디스크 성능에 차이가 있으면, 가장 낮은 성능으로 하향 평준화된다. 예를 들어 160GB짜리와 1000GB짜리 하드디스크를 RAID 0으로 묶으면 160 x 2인 320GB만 쓸 수 있고, 840GB는 별도의 파티션을 구성하든 해야 한다. 이것도 그나마 개선된 것으로, 그 이전에는 정말로 320GB만 쓸 수 있고 나머진 그냥 액세스가 안 됐다. [14] 현재는 읽기 캐시용으로만 쓰게 되어 관련이 없다. [15] 읽기 전용 매체에 기록하는 게 아니라, 저장 가능한 맴버에 저장하여, 읽어올 때 읽기 전용 매체의 파일을 가리는 것. [16] 0, 1, 10, 5, 6 관계 없이 모두 [17] 6개의 디스크로 RAID 6를 구성하는 경우 최대 6배 [18] 6개의 디스크로 RAID 6을 구성하는 경우, 최대 4배(6-2) [19] 디스크 섹터 크기 등의 설정이 잘못되면 단일 디스크보다 못한 성능이 나오기도 한다. [20] 물론 동일 주차 동일 제품이라고 해도 같은 시간에 동시에 고장나는 경우는 드물다. 짧으면 몇 시간에서 길면 몇 주 정도의 차이가 있을 수 있으며, 아예 교체 주기가 될 때 까지 고장나지 않을 수도 있다. [21] RAID 1로 3개의 디스크를 묶는 경우엔 최악의 경우에도 RAID 6 수준이지만, 이러면 가용 용량이 고작 33% 밖에 안 되기 때문에 개인 사용자가 쓸만한 구성은 아니다. RAID 6의 가용 용량 최소치는 4개 구성시 50% 이며, 6개 구성시엔 66% 가량이다. 6개 구성으로 비교하면 가용 용량이 2배 차이가 난다. [22] 레이드는 백업이 아니다! [23] 호환성이 매우 큰 문제가 될 수 있기 때문에 메인보드 내장 컨트롤러 사용은 절대 지양해야한다. 메인보드에 RAID 어레이가 귀속되며, 동일 모델/리비전/펌웨어 버전이 아니라면 제조사가 동일하더라도 호환된다는 보장이 없다. 혹여라도 단종이 되었는데 고장이 난다면 어레이 복구가 매우 어려워진다. [24] 유료다. 1PC 평생 라이센스에 약 3만원, Scanner/CloudDrive/DrivePool 번들을 구매할 시 약 5만원 꼴. [25] 다만 이 기능을 쓰려면 StableBit Scanner라는 프로그램을 같이 써야 한다. [26] 서버급 장비에서도 하드웨어 레이드 대신 ZFS 등의 소프트웨어 기반 기술로 넘어가는 경우가 늘고 있다.