Extinderea porturilor RAID pentru controlerul SAS. Extindere porturi pentru controler RAID Controlere SAS Raid lsi

06.05.2020 Programe

Introducere Testarea controlerelor RAID este o sarcină dificilă și ingrată. Desigur, situația este oarecum salvată de faptul că procesul de testare este automatizat destul de bine, dar costurile de timp sunt totuși extrem de mari. Motivele sunt simple: există o mulțime de teste și durează mult, plus că numărul de „numere” primite este, ca să spunem ușor, mare. Oricum ar fi, în ultimele șase luni, șase controlere SAS RAID de ultimă generație au trecut prin mâinile noastre, câte unul de la fiecare producător important, și nu ne putem abține „să le dăm capul” într-un articol rezumat. Mai mult decât atât, există acum o oarecare acalmie pe piața controlerelor: modelele existente fac față sarcinilor cu succes, magistrala PCI-Express a împins PCI-X de pe piață, iar schimbarea interfețelor de unitate a dus la victoria completă și necondiționată a SAS serial (și SATA sa compatibil) prin SCSI și PATA paralel. Desigur, SAS 2.0 se profilează deja la orizont, cu lățimea de bandă crescută de la 3 Gbit/s la 6 Gbit/s, dar este încă doar în viitor, iar producătorii de controlere au avut timp pentru un răgaz. Desigur, nu îl irosesc în zadar - cu o regularitate de invidiat, toți lansează actualizări de firmware, eliminând erori enervante și crescând performanța. Să facem o rezervare imediat: vom compara controlerele cu exact firmware-ul care a fost cel mai recent atunci când controlerele au venit în mâinile noastre. Acest lucru poate să nu fie foarte corect, deoarece îi pune pe ultimii „oaspeți” într-o poziție ceva mai avantajoasă, dar sincer, nu avem ocazia să testăm simultan șase controlere simultan.

Înainte de a începe să comparăm controlerele, aș dori mai întâi să explic ce rezultate așteptăm de fapt de la ei. În primul rând, desigur, stabilitatea muncii și rezultate maxime, de preferință previzibile. Din păcate, stabilitatea funcționării este o valoare extrem de greu de verificat - în timp ce pe bancul nostru de testare toate controlerele au funcționat fără probleme, atunci în rețea se pot găsi reclamații, în majoritatea cazurilor legate de problema unor combinații de anumite modele de controlere și discuri. . Din păcate, nu putem testa toate opțiunile posibile - vă rugăm să consultați documentele oficiale de compatibilitate sau... sau continuați pe propriul risc. Desigur, acest lucru va fi puțin consolare pentru cei care au „ghinion”, dar totuși: controlerele moderne sunt supuse unor „eșecuri” inexplicabile într-o măsură mult mai mică decât predecesorii lor. În ceea ce privește performanța controlerelor, în acest caz există câteva puncte pe care aș dori să le menționez în mod special, deoarece încercăm să le acordăm atenție în mod regulat.

Cel mai simplu mod de a vorbi despre matrice RAID0 este cea mai simplă opțiune pentru controlere; trebuie doar să gestioneze corect sarcina și să arate viteze maxime în citire liniară și să efectueze cât mai multe operațiuni pe secundă cu acces aleatoriu. O linie separată include încărcări cu mai multe fire și operațiuni cu fișiere. După cum arată practica, toate controlerele pierd viteza pe mai multe fire, dar cât de mare este reducerea este de mare importanță. Situația este deosebit de dificilă pentru controlori atunci când cererile vin cu o adâncime minimă a cozii - majoritatea controlorilor în astfel de condiții aparent benigne demonstrează neașteptate viteze mici. Există și problema vitezelor atinse pe fișierele reale - de regulă, acestea sunt vizibil mai mici decât ceea ce vedem în testele sintetice. Uneori se ajunge la punctul de absurd - același fișier sau set de fișiere poate fi scris de controler mai repede decât poate fi citit. Desigur, acest lucru se datorează parțial memoriei tampon a controlerelor, care a crescut la volume impresionante de 256 sau chiar 512 MB, dar totuși, toate încărcările noastre de testare sunt proiectate în așa fel încât să nu se potrivească în întregime în cache. Deci, algoritmii de firmware ar trebui să fie considerați responsabili pentru astfel de exerciții de performanță.

Matricele care folosesc perechi oglindite sunt ceva mai complexe pentru controlere: RAID1, RAID10 și RAID1E. Apropo, dacă nu sunteți familiarizat cu ultimele dintre ele, vă recomandăm umple acest gol. Pentru ei, toate acele puncte despre care tocmai am vorbit rămân în vigoare și se adaugă câteva dintre ele, care sunt extrem de caracteristice matricelor cu oglindire.

În primul rând, aceasta este capacitatea controlerului de a citi datele de pe ambele discuri în perechi oglindite simultan. Pe unul dintre discuri, capul va fi întotdeauna puțin mai aproape de sectorul dorit, ceea ce înseamnă că datele vor ajunge de la acesta puțin mai repede. Drept urmare, un controler care cunoaște fluent această tehnologie are un avantaj vizibil în citirea aleatorie: matricea sa RAID10, în ceea ce privește performanța, nu degenerează în RAID0 de la jumătate din numărul de discuri, dar este destul de capabil să facă față RAID0 de la același număr de discuri (și uneori chiar îl depășesc).

Al doilea trăsătură caracteristică Un lucru pe care îl remarcăm întotdeauna este capacitatea (sau lipsa acesteia) de a paraleliza o sarcină de citire liniară pe două unități ale unei perechi în oglindă. Dacă, în cazul unei citiri secvențiale suficient de lungi, nu este ușor să citiți simultan și „simetric” de pe ambele discuri, ci trimiteți fiecare cerere pară pe un disc și pe cea impară pe celălalt, atunci avem o oportunitate excelentă. pentru a obține o creștere vizibilă a vitezei de citire liniară. De obicei, dimensiunea acestei creșteri depinde foarte mult nu numai de dimensiunea fișierului, ci și de dimensiunea cererilor în blocuri. Desigur, ne-am dori foarte mult ca creșterea să fie mai mare și dimensiunea blocului necesară să fie mai mică.

În cele din urmă, a treia caracteristică este capacitatea de a paraleliza o sarcină cu mai multe fire diferite discuriîn perechi de oglinzi. Dacă controlerul a fost capabil să recunoască natura încărcăturii, adică să determine că, de exemplu, două fluxuri liniare citesc din ea, atunci este foarte de dorit ca acesta să direcționeze fiecare flux către un disc separat dintr-o pereche în oglindă. Nu cred că merită să intru în detalii că acest lucru poate oferi o creștere foarte semnificativă a productivității.

Care este rezultatul final? Matricele în oglindă nu sunt atât de simple - algoritmii controlerului trebuie să fie capabili să recunoască în mod eficient natura încărcării și să aplice optimizări adecvate pentru a satisface pe deplin solicitările noastre. Și nu ar trebui să credem că ne dorim prea mult - toți acești algoritmi există de aproximativ zece ani, aparând pe controlere ATA cu procesoare extrem de slabe, conform standardelor moderne.

În cele din urmă, matricele de sumă de control rotativă RAID5 și RAID6. Pe de o parte, a devenit mult mai ușor pentru ultima generație de controlere să le facă față - procesoarele moderne de mare putere utilizate în ele pot face față calculelor destul de ușor. sume de control, chiar dacă nu există una dintre ele, ca în RAID5, ci două, ca în RAID6. Pe de altă parte, deficiențele algoritmilor au început să se simtă mult mai acut - dacă anterior erau ascunse pe fundalul vitezei insuficiente a calculelor XOR, acum au ieșit în prim-plan. Dar tocmai aceste tipuri de matrice devin din ce în ce mai solicitate - puțini oameni sunt de acord să-și piardă jumătate din capacitatea discului pentru a organiza matricele cu oglindire, în timp ce volumele de informații care necesită stocare sigură crește ca o avalanșă. Popularitatea RAID6 este cauzată de motive destul de simple. Matricele moderne realizează volume pur și simplu uimitoare - chiar dacă nu luați discuri complet noi, nimeni nu vă împiedică să construiți o matrice de 30 TB, de exemplu, Unități Seagate ST31000640SS cu interfață SAS. Și dacă unul dintre discurile unei astfel de matrice eșuează, atunci restaurarea unei astfel de matrice nu durează câteva ore, ci câteva (sau chiar zeci) zile. Și pentru a nu risca informațiile în acest moment (și gradul de risc în acest caz este destul de mare), ei folosesc nu RAID5, ci RAID6, care poate supraviețui eșecului nu a unuia, ci a două discuri simultan. Da, viteza scade catastrofal, dar totuși, aceasta se dovedește adesea a fi o opțiune mai potrivită decât utilizarea matricelor cu oglindire, deoarece capacitatea lor utilă cu același număr de discuri este aproape jumătate mai mare.

Și înainte de a termina această lungă introducere, aș dori să răspund la o întrebare destul de populară: „Mertă aceste controlere atât de multă atenție dacă puteți merge și obțineți o stare solidă Unități SSD pe memorie flash cu performanțe uimitoare? Da, ei fac. Costul stocării informațiilor pe discuri este încă de câteva ori (mai precis, un ordin de mărime) mai mic decât pe SSD-uri. Din nou, volumele de SSD-uri sunt încă foarte mici, așa că va trebui să luați câteva dintre ele pentru un sistem serios, iar în acest caz este mai bine să le conectați prin aceleași controlere RAID. Și în ceea ce privește performanța, nu totul este atât de simplu - dacă în citirea multi-canal (da, este timpul ca cei întrebați să se gândească la modul în care se formează acest multi-canal) SSD-urile sunt în mod evident mai bune decât orice matrice de discuri, atunci în scrierea discurilor matricele nu se vor retrage încă după al doilea plan. Și în combinație cu faptul că SSD-urile au un număr limitat de operațiuni de rescriere, acest lucru duce la faptul că este mai bine să construiți un subsistem de disc capabil să facă față unui număr mare de solicitări de scriere pe o matrice RAID de discuri SAS. Atât mai ieftin, cât și mai fiabil.

Participanții la test

Deci, faceți cunoștință cu eroii recenziei de astăzi:

3ware 9690SA-8I cu un singur pachet 9.5.1
Adaptec RAID ASR-5805 cu firmware 5.2.0 build 16116 și drivere 5.2.0.15728
Areca ARC-1680ix-16 cu firmware 1.46 și drivere 20.0.14
HighPoint RocketRAID HPT4320 cu firmware 1.2.12.11 și drivere 1.2.19.4
LSI MegaRAID SAS 8708EM2 cu firmware 9.1.1-0013 și drivere 2.20.0.32
Promite SuperTrak EX8650 cu firmware SR1 1.04 și drivere SR1

Dacă doriți, puteți urma linkurile pentru a vedea o prezentare detaliată a fiecărui controler, așa că aici ne vom limita la cuvinte generale scurte. Dorința producătorilor de unificare este din ce în ce mai vizibilă - ei încearcă să producă controlere în serii mari cu un singur design, care diferă, în mare, doar prin numărul de porturi, capacitatea memoriei și frecvența procesorului. Acesta din urmă nu diferă însă foarte mult - patru dintre cele șase modele prezentate aici folosesc procesorul Intel IOP81348 dual-core: controlerele Areca, Adaptec și HighPoint au o versiune de 1,2 GHz, iar Promise are o versiune de 800 MHz. 3Ware și LSI se țin în continuare de propriile dezvoltări: controlerul 3ware are un AMCC Power PC405CR cu o frecvență de 266 MHz, iar LSI are un LSISAS1078 (tot cu arhitectură PowerPC), care funcționează la 500 MHz.

Reducere impresionantă a costurilor memorie cu acces aleator a provocat o creștere naturală a memoriei tampon pe controlere. Deci, doar LSI are 128 MB, HighPoint și Promise au deja 256 MB, iar restul au 512 MB.

Mai mult, în controlerul Areca memoria nu este lipită, ci instalată ca un suport separat. Nu puteam rata această șansă - acest controler a trecut toate testele de două ori: cu o memorie de bază de 512 MB și cu un modul de 2 GB instalat. Sincer să fiu, rezultatele au fost extrem de neașteptate.

Toate controlerele acceptă marea majoritate a celor mai populare tipuri de matrice, inclusiv cele cu două niveluri, de exemplu RAID50. Desigur, puteți căuta cu atenție diferența și găsiți că cineva știe cum să RAID3, iar cineva nu știe despre existența RAID1E, dar este dificil să socotiți aceasta ca o diferență serioasă, deoarece este interesant doar pentru un extrem de cerc restrâns de utilizatori. De asemenea, toți cei șase subiecți de testare au un set serios de drivere pentru diferite sisteme de operare. Fiecare dintre ele se mândrește cu un sistem de control, monitorizare și configurare destul de dezvoltat din cadrul sistemului de operare. Toate aceste sisteme folosesc protocoale de rețea, oferind interacțiune nu numai cu locale, ci și cu la distanță, adică controlere situate pe alte mașini. Apropo, prezența unei infrastructuri existente determină adesea alegerea mărcii controlerului la crearea următorului subsistem: este mult mai convenabil să aveți un control centralizat convenabil și logic decât să suportați simultan echipamente de la mai multe mărci.

Toate controlerele enumerate acceptă instalarea unei unități de alimentare cache (BBU) - vă recomandăm să o utilizați întotdeauna. Credeți-mă, costul său este mult mai mic decât costul informațiilor stocate pe matrice, pe care riscați să le pierdeți în cazul unei pene de curent atunci când este activată scrierea întârziată. Puteți vedea ce se întâmplă cu performanța când scrierea leneșă este dezactivată folosind rezultatele Promise ca exemplu. Este imposibil să activați înregistrarea întârziată în acest controler dacă nu există baterie, iar aceasta din urmă nu a apărut la periferia universului în ultimele șase luni. Da, acest lucru pune controlerul într-o poziție evident de pierdere, dar ce poți face?

Metodologia de testare

În timpul testării au fost utilizate următoarele programe:

IOMeter versiunea 2003.02.15;
WinBench versiunea 99 2.0;
FC-Test versiunea 1.0;

Sistemul de testare a fost următorul:

carcasa Intel SC5200;
sistemică placa Intel SE7520BD2;
două procesoare Intel Xeon 2,8 GHz pe o magistrală de sistem de 800 MHz;
2 x 512 MB memorie înregistrată DDR PC3200 ECC
IBM DTLA-307015 15 GB hard disk ca unitate de sistem;
placa video - video integrat ATI Rage XL
sistem de operare Microsoft Windows 2000 Professional SP4

În timpul testelor, controlerele au fost instalate în slotul PCI-Express x8 de pe placa de bază. Pentru testare, am folosit hard disk-uri Fujitsu MBA3073RC instalate în suporturile standard ale șasiului SC5200 și fixate cu patru șuruburi pe marginea inferioară. Toate controlerele au fost testate folosind opt hard disk-uri în următoarele moduri:

RAID0;
RAID10;
RAID5;
RAID6;

Din păcate, a trebuit să lăsăm deoparte rezultatele pe matrice de patru discuri, precum și performanța matricelor degradate - vor exista deja o mulțime de date.

Dimensiunea stripe pe matrice de toate tipurile a fost setată la 64 kB.

IOMeter: Baza de date

Ca întotdeauna, să începem cu poate cel mai interesant test din punctul de vedere al încărcării controlerului - „Bază de date”, cu care aflăm capacitatea controlerelor de a lucra cu fluxuri de solicitări pentru citirea și scrierea datelor de 8 KB blocuri cu adresare aleatorie. În timpul testării, există o schimbare consistentă a procentului de solicitări de scriere de la zero la sută la sută (în incremente de 10%) din numărul total de solicitări și o creștere a adâncimii cozii de comenzi de la 1 la 256.

Puteți găsi, dacă doriți, rezultatele numerice ale măsurătorilor aici și mai jos în articolele anterioare dedicate recenzii detaliate fiecare controler, vom lucra doar cu grafice și diagrame.

Deci, sarcina minimă, adică adâncimea cozii de solicitare, este egală cu unu.

S-ar părea, de unde poate veni o diferență vizibilă în RAID0, chiar și cu cea mai simplă încărcare? Răspunsul este simplu - înregistrarea întârziată. Dacă toate matricele sunt foarte asemănătoare în timpul citirii, atunci cu un număr mare de solicitări de scriere, câștigătorul va fi cel care se poate „ascunde” rapid și mai mult în memoria tampon și apoi o „împrăștie” rapid pe discuri. În această categorie, Adaptec devine lider absolut, în timp ce LSI și Promise sunt învinși.



Vedem o imagine similară în cazul RAID10 - aceiași lideri și perdanți în zona de încărcare cu o pondere mare de solicitări de scriere. LSI se simte deosebit de rău - cedând deschis unei înregistrări curate.

Cu toate acestea, a apărut și o diferență în citire - motivul pentru aceasta este aceeași selecție a unui disc mai de succes în perechi oglindite. În acest caz, HighPoint s-a dovedit evident a fi mai bun decât alții. În cazul citirii pure, LSI este de asemenea excelent, dar se descurcă mai rău cu sarcini mixte.



Și aici vin matrice cu paritate rotativă. Una este să scrii un singur bloc în cazul matricelor RAID0 și RAID10 și cu totul altceva când folosești RAID5, deoarece fiecare operație de scriere se transformă de fapt în citirea a două blocuri, două operații XOR și două operațiuni de scriere. Adaptec trece în mod clar acest test mai bine decât altele. Controlerul 3ware nu este rău nici în cazul înregistrării pure, dar la sarcini mixte este vizibil inferior concurenților săi. Dar cei din afară au fost HighPoint, care are probleme evidente cu memorarea în cache a interogărilor, și Promise, care este complet lipsită de scriere leneșă. Scăderea catastrofală a performanței acestuia din urmă este greu de ignorat.



Vedem exact aceeași situație în RAID6, doar valorile absolute au scăzut, dar comportamentul controlerelor rămâne același ca în RAID5. Adăugarea unei a doua sume de control la algoritmul de calcul și înregistrare reduce viteza, dar nu face modificări radicale, deoarece puterea procesorului este destul de suficientă.

Dar am trecut cu vederea comportamentul controlerului Areca cu 2 GB memorie instalată. Cu toate acestea, acest lucru nu este surprinzător - rezultatele sale aproape exact în toate cazurile repetă datele obținute cu 512 MB de memorie. Deci, nu vor exista recorduri de viteză?

Dar să creștem încărcarea la 16 cereri în coadă.



În RAID0, controlerele demonstrează o unanimitate uimitoare - cele patru grafice practic se îmbină. Dar Adaptec iese în evidență prin scrierea leneșă mai eficientă. Și este imposibil să atribuiți acest lucru unei cantități mai mari de memorie - 3ware și Areca au cel puțin nu mai puțin (da, cei 1,5 GB suplimentari din nou nu se arată), iar acesta din urmă are, de asemenea, exact același procesor.

LSI și Promise au fost din nou învinși, dar merită remarcat că pierderea nu este atât de mare.



Uau, ce varietate de caractere provin din diferitele combinații de scriere leneșă, reordonare a interogărilor și algoritmi de recuperare cel mai bun disc. La înregistrare, Adaptec este din nou „în fața celorlalți” - acest controler intenționează în mod clar să demonstreze că are cea mai bună înregistrare întârziată. Dar LSI la înregistrare este sincer rău - are probleme evidente cu stocarea în cache. Și acest lucru cu greu poate fi justificat prin cantitatea minimă de memorie dintre cei prezenți.

Dar același LSI luptă cu succes cu HighPoint și 3ware pentru medalia „lectura excelentă din matrice oglindă”. Observați cât de mare este diferența dintre aceste trei matrice și concurenții lor.

Unele controlere sunt pentru scriere, altele sunt pentru citire - este extrem de bine să începeți să planificați un subsistem de server determinând natura încărcării viitoare. Cu toate acestea, 3ware poate fi numit generalist în acest caz - rezultatele sale sunt în mod constant bune pe întreaga gamă.



Prezența unei cozi permite controlorilor să memoreze mai mult sau mai puțin cu succes cererile în cache sau să efectueze mai multe acțiuni simultan. Cât de reușit? În diferite moduri: Adaptec rezistă bine, dar HighPoint face față înregistrărilor aproape de două ori mai proaste (rețineți, exact cu același procesor), dar cel puțin nu mai este un eșec, așa cum a fost cazul cu adâncimea minimă a cozii. Ei bine, nu se poate decât să simpatizeze cu Promise - fără înregistrarea întârziată este extrem de dificil pentru el.



Și din nou vedem o situație similară în cazul RAID6. Cu toate acestea, a apărut un punct interesant: cu toate înregistrările sale excelente, Adaptec, în cazul unei superiorități covârșitoare a solicitărilor de citire, pierde în fața tuturor celorlalți. Este un model sau un accident - să vedem sub sarcini grele.

Din păcate, nu este practic nimic de spus despre versiunea de 2 GB a Areca - capacitatea de memorie crescută nu se arată deloc. Comportament ciudat, extrem de ciudat.



Toate controlerele au făcut față cu succes sarcinilor grele, dar fiecare în felul său. Adaptec încă demonstrează cu succes cele mai bune capacități de scriere, 3ware a preluat conducerea în citire, iar Areca se potrivește perfect între ele sub sarcini mixte, demonstrând poate cel mai echilibrat comportament.



Este amuzant, dar un echilibru de putere similar s-a dezvoltat în cazul matricelor RAID10. Tabăra de lideri a rămas complet neschimbată, iar LSI s-a remarcat de restul. Mai mult decât atât, nu în bine - problemele sale cu scrierea sub sarcini mari au dus la o scădere foarte gravă a performanței pe toate încărcăturile în care există operații de scriere.



Adâncimea uriașă a cozii a fost un har salvator pentru Promise - la astfel de adâncimi de coadă, o parte din sortarea solicitărilor are loc în șofer înainte de a intra în controler, ceea ce a permis controlerului să-și ridice rezultatele la nivelul HighPoint.

Adaptec încă conduce la scrieri... și din nou, ca și în cazul RAID6 la 16 solicitări adânci, nu este atât de grozav cu un avantaj copleșitor de citire. Aparent, aceasta este într-adevăr o caracteristică a muncii sale - toată energia lui este aruncată în înregistrare.



În cazul RAID6, liderii sunt din nou la fel, dar HighPoint a devenit un străin evident - aparent, ceva este încă în neregulă cu algoritmii săi; undeva în ei există o risipă serioasă și nerezonabilă de resurse.

IOMeter: Timpul de răspuns al discului

Pentru a măsura timpul de răspuns, folosim IOMeter pentru a trimite un flux de solicitări către unitate pentru citirea sau scrierea blocurilor de date de 512 octeți în decurs de zece minute, cu o adâncime a cozii de solicitare egală cu unu. Numărul de cereri procesate de unitate depășește șaizeci de mii, astfel încât obținem un timp de răspuns stabil al unității, care nu depinde de dimensiunea memoriei tampon.


Timpul de răspuns la citire este o valoare destul de amuzantă. Pe de o parte, caracterizează foarte pe scurt performanța subsistemului de disc; este aproape imposibil să se facă vreo judecată doar pe baza acestuia. Pe de altă parte, această valoare este cea care caracterizează viteza de reacție a unității, cât de repede va răspunde la o solicitare și va permite sistemului să utilizeze datele primite. În cazul matricelor RAID, această valoare depinde în primul rând de timpul de răspuns al unităților utilizate. Dar, așa cum nu este greu de văzut, depinde și de controler: 3ware și Areca, care se luptă pentru titlul celor mai buni, sunt puțin înaintea celorlalți - diferența lor față de cel mai rău (care a fost Promise) este de aproximativ jumătate. o milisecundă. Ar părea așa de mici, dar cât de greu este să le obții, aceștiași 0,5 ms de câștig, în cazul în care timpul de răspuns este mai mic de 7 ms. Indiferent ce s-ar putea spune, acești doi controlori au atribuit 8% din câștiguri în contul lor.

Succesele HighPoint și LSI pe matrice care utilizează oglindire merită o mențiune specială. Datorită selecției extrem de eficiente a discului „de succes” în perechi, aceste controlere au reușit să recâștige încă o milisecundă. Rezultate excelente, algoritmi excelenți - toți ceilalți producători ar trebui să acorde în mod clar atenție acestor realizări. În mod obișnuit, matricele RAID10 sunt folosite pentru a stoca baze de date și, dacă baza de date nu se încadrează în totalitate în memoria RAM a serverului, atunci nu trebuie să neglijați o oportunitate atât de plăcută de a-și îmbunătăți performanța.


În cazul timpului de răspuns la înregistrare, liderul a fost destul de ușor de prezis - a devenit firesc Adaptec, care a demonstrat performanțe excelente de înregistrare pe parcursul întregului test „IOMeter:Bază de date”. Puțin câte puțin, dar pe toate matricele acest controler special depășește concurenții de aceeași clasă.
Rezultatele HighPoint și Promise pe matricele RAID5 și RAID6 sunt sincer întristătoare - problemele cu scrierea întârziată în primul sunt vizibile cu ochiul liber, iar absența sa în al doilea a dus la o creștere monstruoasă (cu mai mult de un ordin de mărime!) în timpul de răspuns.

Rezultatele Areca cu 2 GB de memorie par interesante: în trei cazuri repetă din nou valorile obținute cu 512 MB, dar în RAID6 2 GB arată vizibil mai avantajos. Poate că controlerul pur și simplu nu are suficientă încărcare pentru a folosi pe deplin acești 2 GB - dintr-un anumit punct de vedere, controlerele noastre funcționează într-un mod blând, fiecare disc are un canal de date separat, expandoarele nu sunt utilizate. Este posibil să vedem puterea maximă a 2 GB de memorie în cazurile în care există mai multe discuri pe fiecare canal și lățimea de bandă de 3 Gbit/s nu este suficientă pentru toată lumea (credeți-mă, situația nu este deloc speculativă - asta este exact ce se întâmplă în acele cazuri când un raft cu două duzini de discuri este atârnat de un conector extern). Dar, din păcate, nu avem cum să ne testăm presupunerea și până acum 2 GB nu se arată în niciun fel.

IOMeter: citire și scriere aleatorie

Să evaluăm acum dependența performanței controlerului în modurile de citire și scriere cu adresare aleatorie de dimensiunea blocului de date utilizat.

Luăm în considerare rezultatele obținute atunci când lucrăm cu adresarea aleatoare a datelor în două versiuni. La blocurile mici, numărul de operații pe secundă depinde de dimensiunea blocului utilizat. Iar pe blocurile mari, în locul numărului de operații, viteza măsurată în Megaocteți pe secundă este folosită ca criteriu de performanță. Această abordare vă permite să evaluați performanța matricelor în două cazuri tipice de încărcare simultan: lucrul în blocuri mici este tipic pentru baze de date și pentru aceasta numărul de operații pe secundă este mai important decât viteza obișnuită; dar lucrul în blocuri mari și foarte mari este aproape de munca adevarata cu fișiere mici, iar aici iese în prim-plan viteza în megaocteți obișnuiți pe secundă.

Să începem cu lectura.



Se potrivesc bine, bine! Da, nu ar trebui să vă așteptați la o mare diferență în RAID0. Totuși, Areca și 3ware gestionează interogările mici puțin mai bine decât altele.



În RAID10, LSI și HighPoint își demonstrează avantajul incontestabil - algoritmii excelenți pentru citirea din perechile oglindă ale acestor controlere nu lasă nicio șansă concurenților. Dintre restul, 3ware se remarcă cu rezultate ceva mai bune, iar câștigurile sale cresc odată cu creșterea dimensiunii blocurilor folosite.






În cazul matricelor RAID5 și RAID6, toate controlerele au format din nou un grup dens - în general, nu este nimic de optimizat, doar luați informații una câte una de pe discuri și nu trebuie să vă amintiți despre sumele de control.



Pe blocurile mari, chiar și în cazul RAID0, începe să apară o diferență notabilă - se simte influența vitezelor liniare și a citirii înainte. Drept urmare, LSI preia conducerea, cu 3ware puțin în urmă. Determinarea învinșilor devine din ce în ce mai dificilă - pe blocuri de câțiva megaocteți, HighPoint și Areca funcționează fără succes, dar apoi își iau viteza foarte repede, depășind cu încredere Promise și Adaptec.

Areca surprinde din nou: cu 512 MB de memorie citește mai repede decât cu 2 GB. Avem o singură ipoteză: mărimea cache-ului a crescut întârzierile de căutare în ea, ceea ce a cauzat acest efect. Nu pretindem că suntem adevărul, dar pur și simplu nu vedem alte explicații.



Pe matricele RAID10, atunci când citim blocuri relativ mari, alegerea unui disc de succes nu mai este o strategie câștigătoare și, ca urmare, vedem o schimbare a liderilor. 3ware a ocupat primul loc, urmat de LSI.

Areca este sincer dezamăgitoare - în ambele cazuri arată o scădere sincer inexplicabilă a vitezei. Aparent, există defecte în firmware-ul său și acestea sunt exact ceea ce vedem acum.



Echilibrul de putere în RAID5 repetă ceea ce s-a văzut în RAID0, ceea ce, în general, nu este surprinzător.



Nici în RAID6 nu se schimbă prea mult, cu excepția faptului că Adaptec iese oarecum din imaginea de ansamblu pe blocuri foarte mari, luând viteză nu suficient de repede.

Să trecem la scrierea operațiunilor cu adresare aleatorie.



Și aici înregistrarea funcționează deja în forma sa pură. Mai mult, aparent, cel care ține simultan cantitate mare linii cache. Drept urmare, primul loc cu un avantaj clar revine Adaptec - insistă cu încăpățânare că înregistrarea sa este cea mai bună, nu pentru prima dată în test. Perdanții clari au fost LSI și Promise.

Interesant este că Areca cu 2 GB pierde din nou față de omologul său cu memorie mai puțină (ce fel de câștig există datorită volumului mai mare pe care îl ai). Este într-adevăr acest lucru din cauza complexității crescute a căutării în memorie?



Hmm, se pare că nu mai putem vorbi despre lider la înregistrare. Dar despre învinși - merită. Dacă rezultatul scăzut al Promise poate fi explicat prin lipsa sa de scris leneș, atunci nu știm ce neajunsuri au cauzat o scădere atât de gravă a performanței pentru LSI în RAID10.






În matricele RAID5 și RAID6, controlerele se comportă extrem de similar. Adaptec este în mod clar lider în blocuri mici, urmat de 3ware cu un lag impresionant. Vedem o caracteristică interesantă a acestuia din urmă: pe blocurile de 512 octeți performanța sa este mai mică decât pe blocurile de 2 KB - aparent, în acest caz vedem exact limita de performanță a arhitecturii unice a acestui controler. Cu toate acestea, aceste caracteristici nu pot fi comparate cu problemele HighPoint și Promise. HighPoint nu poate face față scrierii de blocuri foarte mici - atunci când dimensiunea blocului este redusă sub 32 kB, performanța sa scade foarte vizibil. Procesorul său este același cu cel al lui Adaptec - în mod clar nu este vorba despre puterea sa. Controlerul Promise este și mai rău - fără scriere amânată, pur și simplu se sufocă sub fluxul de cereri mici.



În înregistrările bloc mari vedem o varietate magnifică de personaje. În primul rând, aș dori să remarc problemele Adaptec - pe cât de grozav a fost acest controler în a face față unui flux de blocuri mici cu adresare aleatorie, a fost la fel de prost să scrie blocuri mari. Se pare ca are un limitator de viteza de 120 MB/s. Areca, care este complet asemănătoare ca caracteristici, dimpotrivă, ocupă primul loc. În același timp, aceeași Areca cu 2 GB de memorie este deja vizibil mai proastă și se pare că și-a găsit și limitatorul...

În cele din urmă, LSI și Promise arată o scădere inexplicabilă, dar sincronă a vitezei pe blocurile de 512 kB. Mai mult, dacă Promise atunci, cu o creștere a blocului, se străduiește să-i ajungă din urmă pe lideri, atunci LSI se comportă prea modest. De ce aceste controlere au probleme la scrierea benzilor complete (pe opt discuri de 64 kB primim doar 512 kB) este absolut neclar pentru noi.



Nimeni nu are probleme atât de serioase când înregistrează în RAID10, cu excepția faptului că Promise demonstrează din nou o ușoară scădere a vitezei în aceeași zonă. Areca este din nou în frunte, și de data aceasta - sincron, în ambele versiuni.






Și pe tablourile cu sume de control înregistrate, ne confruntăm din nou cu confuzie și oscilații, deși nu atât de puternice. Din nou, Adaptec și Areca cu 2 GB de memorie au lovit bariere ciudate, iar în cazul RAID6 li s-a alăturat și LSI. Testul Promise trece testul Promise mult mai rău decât controlerele „de succes” (care, apropo, vin într-un grup dens). Scrierea blocurilor mari îi oferă posibilitatea de a lucra în dungi întregi, ceea ce îmbunătățește oarecum situația cu lipsa scrisului întârziat (permiteți-mi să vă reamintesc că atunci când scrieți o dungă completă, suma de control este calculată o singură dată pentru întreaga dungă, ceea ce reduce drastic deasupra capului), dar încă nu reușește să-și aducă productivitatea la nivelul celorlalți.

IOMeter: Citire și scriere secvențială

Să evaluăm abilitățile controlorilor în operațiuni secvențiale. În acest test, unitățile primesc un flux de solicitări cu o adâncime de patru în coada de comenzi. O dată pe minut, dimensiunea blocului de date crește. Ca rezultat, avem posibilitatea de a urmări dependența vitezelor liniare ale tablourilor de citire și scriere de dimensiunile blocurilor de date utilizate și de a estima vitezele maxime realizabile.



Toate controlerele, cu excepția 3ware (ale căror rezultate au fost clar afectate de caracteristicile arhitecturale), au demonstrat viteza maximă de citire în RAID0 la același nivel. Dar au ajuns la el pe blocuri marimi diferite: Areca și HighPoint, care au devenit lideri, au intrat deja pe blocuri de 16 kB, LSI necesita o dimensiune de 64 kB, Adaptec - 128 kB și Promise - 512 kB (o bandă completă de opt discuri de 64 kB).



Citirea liniară de la RAID10 demonstrează în mod clar capacitatea controlerelor de a paraleliza citirea pe două discuri în perechi oglindite. Nimeni nu a putut demonstra un comportament ideal, dar Areca este în mod clar mai bun și mai rapid decât ceilalți în acest test (apropo, rețineți că cu 2 GB de memorie și cu 512 MB, vedem din nou aceleași rezultate). De asemenea, deține din nou liderul în viteza de citire în blocuri mici. Adaptec și HighPoint funcționează bine, dar acesta din urmă este prea solicitant în ceea ce privește dimensiunea blocului. Dar Promise, LSI și 3ware sunt sincer dezamăgitoare în acest test.






Echilibrul de putere nu se schimbă atunci când citiți din matricele RAID5 și RAID6 - precum Adaptec a făcut față scrierilor aleatorii, Areca și HighPoint funcționează excelent la citirea liniară.

3ware este sincer dezamăgitor - a făcut-o viteza maxima mai mică decât celelalte, iar pe blocuri mici viteza este mică. Iar pe cele foarte mari sunt probleme evidente.



Când vine vorba de înregistrarea în RAID0, HighPoint preia conducerea. Areca rămâne aproape, dar tot mai rău. Mai mult decât atât, doar versiunea cu 512 MB de memorie - versiunea de 2 GB și-a pierdut brusc viteza. Ce sa întâmplat cu el și de ce nici nu putem ghici. Totuși, Adaptec a suferit aceleași probleme - scrie extrem de lent, de parcă nu am avea o matrice, ci un singur disc.



Areca are aceleasi probleme cu 2 GB de memorie si inregistrarea in RAID10. Dar Adaptec se comportă ciudat - este cel mai bun dintre cei „medii” pe blocuri mici, în același timp cel mai bun din clasamentul absolut în ceea ce privește viteza maximă și, în același timp, suferă de o scădere inexplicabilă a vitezei pe 128. -kB blocuri. În ceea ce privește impresiile de ansamblu, Areca cu 512 MB arată mai bine decât restul - are rezultate excelente pe blocurile mici și foarte stabilă și cu viteză destul de mare pe cele mari. Dar HighPoint a rămas din nou în urmă - are probleme pe blocuri mari.



În RAID5, înregistrarea liniară de succes a fost realizată de puțini - doar Areca (și doar cu o capacitate de memorie de bază, 2 GB are din nou probleme semnificative) și HighPoint sunt plăcute ochiului. LSI și 3ware sunt pur și simplu în urmă semnificativ în urma liderilor, Adaptec are din nou unele probleme și nu este nimic de spus despre Promise - arată doar orice viteză vizibilă pe blocurile de 128 KB și mai mari.



În RAID6 situația este în multe privințe similară cu RAID5, așa că vom numi doar principalele diferențe. Areca funcționează deja cu succes în ambele variante, HighPoint pierde în mod neașteptat viteza pe blocuri mari, iar LSI are probleme foarte serioase acolo. Lucrurile sunt încă triste pentru Adaptec și Promise. Dar dacă performanța abismal de slabă a lui Promise este explicată cu acuratețe printr-o scriere amânată lipsă, atunci ceea ce s-a întâmplat cu Adaptec este un mister.

IOMeter: Citire și scriere cu mai multe fire

Acest test vă permite să evaluați comportamentul controlerelor sub sarcină cu mai multe fire. Emulează o situație în care de la una la patru aplicații funcționează cu unitatea, iar numărul de solicitări de la acestea variază de la unu la opt, iar spațiile de adrese ale fiecărei aplicații, ale cărei roluri sunt jucate de lucrătorii din IOMeter, nu se intersectează.

Ca întotdeauna, ca fiind cele mai orientative și interesante, vom lua în considerare diagramele de scriere și citire pentru situații cu o adâncime de coadă de o solicitare. Exact aceasta este situatia care se dezvolta de obicei in conditii reale. Ceea ce îl face deosebit de intrigant este că, după cum arată observațiile noastre, nu toate controlerele sunt capabile să demonstreze viteza maximă la o adâncime minimă a cozii.


În RAID0, Areca și HighPoint arată în mod clar mai bine decât altele la citirea unui singur flux - pierderile lor în adâncimea minimă a cozii sunt minime, ceea ce nu se poate spune despre celelalte. Adaptec și LSI arată doar aproximativ jumătate din viteza maximă posibilă pe ele, iar Promise și 3ware arată doar un sfert.

Creșterea numărului de fire la două, trei și patru arată clar că pe două fire toate controlerele își pierd vizibil viteza, dar în viitor nu vor exista modificări semnificative. În general, Areca iese câștigătoare la acest test - acest controler demonstrează viteze maxime la toate sarcinile. Dar companiile Promise și 3ware trebuie în mod clar să corecteze situația - vitezele modelelor lor sunt prea mici.


Pe un singur flux în RAID10 echilibrul de putere este același ca în RAID0, doar superioritatea Areca față de celelalte este vizibil mult mai puternică, deoarece face față mai bine citirii alternante din perechile oglindite. Același controler este din nou mult mai bun decât alții la citirea mai multor fire. Mai mult, acordați atenție cât de repede controlerul citește două fluxuri - aici este, separarea eficientă a fluxurilor în discuri diferite în oglinzi.

Din rest, doar Adaptec (din păcate, cu doar două fire) și HighPoint cu trei și patru fire de citire se remarcă cu rezultate decente.




Citirea din matricele RAID5 și RAID6 este foarte asemănătoare: Areca și HighPoint fac față mai bine unui flux decât alții. HighPoint gestionează mai multe fire de execuție puțin mai bine decât altele, dar în general toate matricele se comportă destul de bine, cu excepția Promise și 3ware, care demonstrează din nou rezultate foarte slabe. viteze mari.


Când vine vorba de scrierea în RAID0, imaginea nu este mai puțin amuzantă: pe de o parte, scrierea cu mai multe fire este mai simplă, deoarece este facilitată vizibil de mecanismele de scriere leneșă. Pe de altă parte, așa cum nu este greu de văzut, chiar și înregistrarea unui fir cu o adâncime minimă de coadă nu este o încărcare simplă pentru toată lumea. Numai Areca și HighPoint pot vorbi despre viteze cu adevărat mari. Mai mult decât atât, doar Areca menține aceeași viteză mare (și chiar puțin mai mult) pe mai multe fire. Dar există deja trei controlere care ne-au supărat cu rezultate scăzute: Promise (motivele rezultatelor sale scăzute la înregistrare sunt deja blocate în dinți) li s-au alăturat Adaptec și LSI.


Areca este bine cu viteza chiar și atunci când scrie pe RAID10. Adaptec s-a îmbunătățit și la același tip de matrice - cu mai multe fire concurează cu succes cu Areca pentru titlul de lider. LSI și Promise sunt din nou printre învinșii acestui test.




Și din nou vedem un comportament similar al controlerelor pe matricele RAID5 și RAID6. Cu câte un fir pe înregistrare, Areca și HighPoint arată mult mai bine decât celelalte, dar cu creșterea numărului de fire, Areca rămâne în frunte într-o izolare splendidă. Interesant este că versiunea de 2 GB este foarte diferită de data aceasta. Singura păcat este că nu este în bine - viteza sa la toate sarcinile este de peste două ori mai mică. Totuși, Areca prezintă un comportament ciudat la creșterea memoriei de la bord; se pare că pur și simplu nu este conceput pentru astfel de volume.

În ceea ce privește rezultatele Promise, lipsite de scriere amânată, sunt ridicol de mici sub o asemenea încărcătură.

IOMeter: server web, server de fișiere și stație de lucru

În acest grup de teste, unitățile sunt testate sub sarcini tipice serverelor și stațiilor de lucru.

Permiteți-mi să vă reamintesc că în „Webserver” și „Fileserver” este emulată funcționarea unității în serverele corespunzătoare, în timp ce în „Workstation” simulăm funcționarea unității într-un mod tipic de sarcină de lucru pentru o stație de lucru, cu o coadă maximă. adâncime limitată la 32 de cereri. Desigur, „Webserver” și „Fileserver” nu sunt altceva decât nume colective; primul va emula în mod foarte asemănător încărcarea oricărui server care funcționează de fapt doar cu cereri de citire, iar al doilea va emula un server cu o predominanță a cererilor de citire, dar în același timp cu o anumită cotă de scriere, vizibil diferită de zero. cereri.

Pentru a nu aglomera articolul cu un număr complet nebun de grafice, în această secțiune le-am postat pe toate pe pagină separată , și vom vorbi pe baza de diagrame.


Marea majoritate a matricelor se descurcă la fel de bine cu o încărcare constând exclusiv din solicitări de citire (în mare parte aleatorii) - diferența este de doar 5%. Mai mult, tipul de matrice nu joacă un rol special - RAID6 funcționează la fel de rapid ca RAID0. Dar există o excepție semnificativă: matricele RAID10 de pe acele controlere care pot căuta foarte eficient un disc „de succes” în perechi oglindite, adică pe 3ware, HighPoint și LSI, sunt net superioare ca performanță.


Apariția solicitărilor de scriere în încărcare duce deja la o diversitate vizibilă a rezultatelor. În primul rând, RAID5 și RAID6 încep să rămână vizibil în urma RAID0 și RAID10. În al doilea rând, caracteristicile individuale ale controlerelor încep să afecteze. Deci, în RAID10, 3ware și HighPoint sunt încă cele mai bune (motivele pentru „căderea din cușcă” a LSI sunt simple, uitați-vă doar la grafic - performanța acestui controler încetează să crească de la o anumită adâncime a cozii). După cum v-ați putea aștepta, Promise gestionează matrice cu sume de control mult mai proaste decât altele. Pe aceleași matrice, HighPoint rămâne în urmă cu celelalte.


O situație similară este observată în Workstation, dar este agravată și mai mult de un număr mai mare de solicitări de scriere și de o imagine foarte diferită a solicitărilor din încărcare. Drept urmare, Areca preia conducerea în RAID0. În RAID10, HighPoint și 3ware sunt încă în mod evident mai bune decât altele. Ei bine, în RAID5 și RAID6 decalajul dintre HighPoint și Promise devine foarte semnificativ.


Aceeași încărcare, dar lansată pe matrice limitate la doar 32 GB de capacitate (se folosesc doar cele mai rapide zone de pe discuri, timpul de răspuns este minim), schimbă semnificativ echilibrul de putere. Deci, în RAID0 au rămas în urmă evidente - erau LSI și Promise. În RAID10, avantajul 3ware și HighPoint a fost redus la minimum - alegerea unui disc bun practic nu mai este importantă, deoarece răspunsul este minim peste tot. Dar a apărut un rămas în urmă - a devenit din nou Promise. În cazul RAID5 și RAID6 performanța generală a crescut, dar decalajul dintre HighPoint și Promise nu a dispărut.

FC-Test

Programul nostru de testare se încheie astăzi cu Testul FileCopy. Două partiții de 32 GB sunt create pe unitate, partiționate în două etape de testare, mai întâi în NTFS și apoi în FAT32, după care un anumit set de fișiere este creat pe partiție, citite, copiate în cadrul partiției și copiate din partiție în compartimentare. Se înregistrează ora tuturor acestor operațiuni. Să vă reamintim că seturile „Windows” și „Programe” includ un număr mare de fișiere mici, iar celelalte trei modele („MP3”, „ISO” și „Instalare”) sunt caracterizate de un număr mai mic de fișiere peste marime mare, cu „ISO” folosind cele mai mari fișiere.

Nu uitați că testul de copiere nu numai că vă spune viteza de copiere într-o unitate, dar vă permite și să judecați comportamentul acesteia în condiții de sarcină grea. De fapt, în timpul copierii, unitatea funcționează simultan cu două fire, unul dintre ele pentru citire, iar al doilea pentru scriere.

Vom lua în considerare doar în detaliu valorile atinse pe seturile de fișiere „Instalare”, „ISO” și „Programe” în NTFS, care sunt mai tipice pentru utilizarea normală a matricelor. Dacă doriți, puteți, ca întotdeauna, să aflați restul rezultatelor în tabelele disponibile în articolele pentru fiecare controlor individual


Înregistrarea unui set de fișiere „Instalare” poate fi împărțită clar în două cazuri. Pe matricele RAID0 și RAID10, câștigătorii sunt Areca și Adaptec, iar învinșii, pe lângă destul de așteptat, Promise, sunt LSI.

Pe matricele RAID5 și RAID6, conducerea Adaptec este deja 3ware. LSI nu mai este atât de rău, dar Promise este sincer neajutorat.

Vă rugăm să rețineți că fișierele Areca cu 2 GB de memorie se descurcă mult mai rău decât controlerul original. Miracole și atât.


Areca se descurcă în mod clar mai bine la scrierea fișierelor mari decât altele în RAID0 și RAID10, dar pe matrice cu o sumă de control HighPoint concurează cu succes. În toate cazurile, cu excepția RAID0, singurul regret este rezultatele Adaptec și LSI - sunt prea mici. Ei bine, tăcem complet despre Promise - nu are nicio șansă la testul de înregistrare.


Dar toată lumea se descurcă cu scrierea fișierelor în aproximativ același mod. Și la fel de lent - rețineți cât de vizibil scade viteza de înregistrare pe măsură ce dimensiunea fișierelor scade.


În marea majoritate a cazurilor, controlerele LSI și HighPoint sunt puțin mai bune la citirea unui set mixt de „Instalări”. În ceea ce îi privește pe întârziați, erau 3ware și Promise (și aici nu se mai poate justifica prin intrarea amânată lipsă).


Pe fișierele mari, Areca „se aprinde” – chiar și HighPoint, care îl urmează, cu greu poate fi numit un concurent. Rezultatele sunt deosebit de remarcabile în RAID10, unde Areca demonstrează clar de ce trebuie să poți citi alternativ de pe discuri.

Dar cei care au rămas în urmă sunt încă aceleași - 3ware și Promise, iar LSI pare sincer slab atunci când citiți din RAID10 (rambursare pentru o selecție excelentă a unui disc de succes?).


Avem aceiași ratați în fișiere mici. Dar liderii sunt noi: LSI și HighPoint se luptă pentru primul loc.




Când copiați un set mixt de „Instalări” pe trei dintre tipurile de matrice, grupul Adaptec, HighPoint și LSI este în mod clar în frunte. Dar în RAID10 LSI iese din lideri, dar Areca intră în el, ocupând imediat primul loc. În toate cazurile, există un singur ratat - cel care suferă de lipsa unei înregistrări amânate de Promisiune.




Pe fișierele mari există doar doi lideri: HighPoint și Areca. Acesta din urmă este mult mai rapid în RAID10, dar este puțin în urmă cu alte matrice. Restul acestor controlori, sincer vorbind, sunt concurenți slabi.




Copierea fișierelor mici în „Programe” este destul de dificilă pentru toate controlerele. Deși, poate, LSI și Adaptec arată puțin mai bine decât altele.

Rezumând

Poate că rezultatul principal al acestei încercări se va mulțumi cu un gând banal: idealul nu există. Toate controlerele au avantajele și dezavantajele lor, așa că cel mai bine este să presupunem că unele controlere sunt mai potrivite pentru anumite sarcini decât altele. Principalul lucru este să nu uităm că firmware-ul poate schimba uneori dramatic comportamentul controlerelor. Acum vom distribui premii și ne vom exprima opiniile, ghidându-ne doar de impresiile noastre despre ceea ce au demonstrat controlerele pe firmware-ul actual.

Poate că Adaptec RAID ASR-5805 și Areca-1680x-16 au lăsat cele mai bune impresii. Aceste două modele sunt cele care au trecut testele cel mai constant și au cele mai puține defecte majore în firmware. În general, Adaptec este puțin mai potrivit pentru gestionarea bazelor de date, în timp ce Areca este mai bun la multi-threading și la procesarea fișierelor. În orice caz, ambii sunt reprezentanți destul de demni ai controlorilor moderni. Este curios, dar sunt construite de fapt pe platforme foarte asemănătoare - au același procesor și aceeași cantitate de RAM.

Da, Areca vă permite să schimbați memoria și să-i creșteți volumul, dar testele noastre nu au arătat niciun efect pozitiv din această acțiune, mai degrabă opusul - versiunea cu 2 GB s-a dovedit adesea a fi puțin mai proastă. Totuși, repetăm: este posibil ca 2 GB să-și demonstreze întregul potențial la conectarea unui controler de disc prin expandoare, când lățimea de bandă a interfeței nu mai este pe deplin suficientă pentru toate discurile.

3ware 9690SA-8I și HighPoint RocketRAID HPT4320 au lăsat o impresie oarecum mixtă. Primul ar fi un controler foarte bun, dar este destul de stricat de rezultatele slabe atunci când lucrați cu fișiere, așa că, în opinia noastră, calea sa este bazele de date, unde se va dovedi a fi un echilibrat și dispozitiv puternic. Al doilea are algoritmi excelenți pentru lucrul cu RAID10 și înregistrare foarte bună, dar încă are prea multe probleme cu matricele cu înregistrarea sumei de control. Aș dori să sper că în firmware-ul următor vor fi rezolvate, iar pe viitor alegerea controlerelor bune va deveni încă un model.

În ceea ce privește LSI MegaRAID SAS 8708EM2 și Promise SuperTrak EX8650, în forma lor actuală sunt dezamăgitoare. Desigur, în testele noastre, Promise a fost în mod evident în condiții puțin mai proaste din cauza scrierii amânate care nu funcționează, dar totuși, rezultatele sale de citire sunt adesea prea scăzute în comparație cu concurenții săi. Și LSI pur și simplu are prea multe neajunsuri, deși munca cu fișiere mici și selecția excelentă a unui disc de succes în perechi oglindă sunt impresionante. Dar firmware-ul este lansat, ceea ce înseamnă că toată lumea are o șansă. Din nou, repetăm: în multe cazuri, prezența unei infrastructuri existente de controlori de lucru din orice companie este mult mai importantă decât performanța, cu excepția cazului în care aceasta din urmă suferă într-un mod complet ireparabil.

Alte materiale pe această temă


Testarea controlerului Areca ARC-1680ix-16 SAS RAID
Testarea controlerului HighPoint RocketRAID HPT4320 SAS RAID
Testarea controlerului LSI MegaRAID SAS 8708EM2 SAS RAID
Testarea controlerului Adaptec RAID ASR-5805 SAS RAID
Testarea controlerului 3ware 9690SA-8I SAS RAID
Testarea controlerului Promise SuperTrak EX8650 SAS RAID

nu este inclus.

Controler hardware RAID de 6 Gb/s de înaltă performanță 9260-8i cu 8 porturi interne (2 conectori SFF8087) și 512 MB de memorie încorporată, permițându-vă să conectați până la 128 de unități SAS și SATA cu Tehnologia RAID-pe-cip.

Linia de produse de înaltă performanță MegaRAID SATA+SAS 9260 vă permite să obțineți cele mai mari viteze de transfer de date de până la 2880MB/s de citire, 1850MB/s de scriere și până la 147.000 de operațiuni I/O cu acces aleatoriu la date, ceea ce vă permite pentru a rula chiar și cele mai solicitante aplicații, cum ar fi bazele de date și procesarea video.

Aceste produse permit utilizarea mediilor de 3 Gb/s și 6 Gb/s cu suport pentru conexiunea internă a ambelor unități SATA și SAS.

Conexiune internă a unităților SATA sau SAS ale serverului. Vă permite să lucrați cu 128 de dispozitive folosind extensii SAS. Tehnologia LSI RAID-on-Chip (ROC) și interfața gazdă PCI Express pentru aplicații cu lățime de bandă mare.

Baterie de rezervă opțională pentru a preveni pierderea datelor în cazul defecțiunii serverului.

Suportă software-ul suplimentar CacheCade, FastPath și Recovery/Snapshots.

Caracteristici cheie

  • Nivelul maxim de performanță disponibil: modul citire: 2.875 MB/s, modul scriere: 1.850 MB/s
  • PCI Express 2.0 oferă viteze de semnal mai mari pentru aplicații cu lățime de bandă mare
  • Flexibilitate maximă a soluției datorită suportului pentru unități de disc SATA și SAS 3Gbit/s și 6Gbit/s
  • Tehnologia SafeStore Encryption oferă o protecție mai puternică a datelor
  • Designul cu profil redus al MD2 se potrivește cu ușurință în arhitecturile compacte 1U și 2U

Specificații

Parametru Descriere
CPULSISAS2108 RAID-on-Chip (ROC) 800MHz PowerPC®
PerformanţăPână la 6 Gbps per port
Interfețe

Opt porturi interne SATA+SAS
Două interfețe interne ale SFF-8087

MemorieCache - 512 MB DDRII (800 MHz)
Numărul de dispozitive acceptatepână la 32 de unități de disc SATA și/sau SAS
Niveluri RAID acceptateRAID - nivelul 0, 1, 5 și 6
RAID extins 10, 50 și 60
Interfață controler gazdăX8 PCI Express versiunea 2.0
Factor de formăFormat MD2 cu profil redus (167,64 mm x 64,42 mm)
Funcționalitate

Alimentare de urgență (opțional, conexiune directă)

Reluare automată după actualizare

Reluare automată după recuperare

Extinderea capacității online (OCE)

Migrare online de la unul la altul nivel RAID (RLM)

Sistemul de codare a datelor SafeStore

Caracteristica de ștergere imediată a datelor

Suport SSD cu tehnologia SSD Guard™

Backup global și dedicat, backup la cald de urgență cu funcție de recuperare a datelor

Recuperare automată

Integritate structurală pentru standby la cald

Standby de urgență SATA pentru matrice SAS

Structură de suport multicanal pentru un controler (failover)

Distribuția sarcinii

Software cuprinzător de management RAID

Dragi clienți.
Vă rugăm să rețineți că informațiile de referință despre produse postate pe acest site nu constituie o ofertă; disponibilitatea și costul echipamentelor trebuie clarificate cu managerii NAG LLC, care vă vor ajuta cu plăcere în alegerea echipamentelor și plasarea unei comenzi pentru acesta. .

Producătorul își rezervă dreptul de a modifica aspectul, specificațiile tehnice și echipamentul fără notificare.

Pe scurt despre controlerele RAID moderne

În prezent, controlerele RAID ca soluție separată sunt destinate exclusiv segmentului de server specializat al pieței. Într-adevăr, toate plăcile de bază moderne pentru PC-uri de consum (nu plăcile de server) au software integrat și controlere SATA RAID hardware, ale căror capacități sunt mai mult decât suficiente pentru utilizatorii de PC-uri. Cu toate acestea, trebuie să rețineți că aceste controlere sunt concentrate exclusiv pe utilizarea sistemului de operare Windows. În sistemele de operare Linux, matricele RAID sunt create în software și toate calculele sunt transferate de la controlerul RAID la procesorul central.

Serverele folosesc în mod tradițional fie controlere RAID software-hardware, fie pur hardware. Un controler RAID hardware vă permite să creați și să mențineți o matrice RAID fără participarea sistemului de operare și a procesorului central. Astfel de matrice RAID sunt văzute de sistemul de operare ca un singur disc (disc SCSI). În acest caz, nu este nevoie de un driver specializat - se folosește un driver de disc SCSI standard (inclus în sistemul de operare). În acest sens, controlerele hardware sunt independente de platformă, iar matricea RAID este configurată prin Controller BIOS. Un controler RAID hardware nu folosește procesorul central atunci când calculează toate sumele de control etc., deoarece folosește propriul procesor specializat și RAM pentru calcule.

Controlerele hardware-software necesită un driver specializat, care înlocuiește driverul de disc SCSI standard. În plus, controlerele hardware și software sunt echipate cu utilități de management. În acest sens, controlerele software și hardware sunt legate de un anumit sistem de operare. Toate calculele necesare în acest caz sunt efectuate și de procesorul controlerului RAID în sine, dar utilizarea software-ul driverului iar utilitățile de gestionare vă permit să controlați controlerul prin sistem de operare, și nu doar prin BIOS-ul controlerului.

Având în vedere faptul că unitățile SCSI de server au fost deja înlocuite cu unități SAS, toate controlerele moderne RAID de server sunt proiectate să suporte fie unități SAS, fie SATA, care sunt utilizate și în servere.

Anul trecut, discuri cu noi interfata SATA 3 (SATA 6 Gbit/s), care a început să înlocuiască treptat interfața SATA 2 (SATA 3 Gbit/s). Ei bine, discurile cu interfață SAS (3 Gbit/s) au fost înlocuite cu discuri cu interfață SAS 2.0 (6 Gbit/s). Natural, nou standard SAS 2.0 este pe deplin compatibil cu vechiul standard.

În consecință, au apărut controlere RAID cu suport pentru standardul SAS 2.0. S-ar părea, care este rostul trecerii la standardul SAS 2.0, dacă chiar și cele mai rapide discuri SAS au o viteză de citire și scriere a datelor nu mai mare de 200 MB/s și debitul protocolului SAS (3 Gbit/s sau 300 MB/s) este destul de suficient pentru ei?

Într-adevăr, atunci când fiecare unitate este conectată la un port separat al controlerului RAID, 3 Gbps de debit (care, în teorie, este de 300 MB/s) este suficient. Cu toate acestea, nu numai discuri individuale, ci și matrice de discuri (cuști de discuri) pot fi conectate la fiecare port al controlerului RAID. În acest caz, un canal SAS este partajat între mai multe unități simultan, iar un debit de 3 Gbit/s nu va mai fi suficient. Ei bine, în plus, trebuie să țineți cont de prezența unităților SSD, ale căror viteze de citire și scriere au depășit deja nivelul de 300 MB/s. De exemplu, noua unitate Intel SSD 510 are viteze secvenţiale de citire de până la 500 MB/s şi viteze secvenţiale de scriere de până la 315 MB/s.

După o scurtă introducere în situația actuală de pe piața controllerelor RAID pentru server, să ne uităm la caracteristicile controlerului LSI 3ware SAS 9750-8i.

Caracteristicile controlerului RAID 3ware SAS 9750-8i

Acest controler RAID se bazează pe un procesor XOR specializat LSI SAS2108 cu o frecvență de ceas de 800 MHz și arhitectură PowerPC. Acest procesor utilizează 512 MB de RAM DDRII 800 MHz Cod de corectare a erorilor (ECC).

Controlerul LSI 3ware SAS 9750-8i este compatibil cu unitățile SATA și SAS (sunt acceptate atât unitățile HDD, cât și SSD) și vă permite să conectați până la 96 de dispozitive folosind expandoare SAS. Este important ca acest controler să accepte unități cu interfețe SATA 600 MB/s (SATA III) și SAS 2.

Pentru a conecta unități, controlerul are opt porturi, care sunt combinate fizic în doi conectori Mini-SAS SFF-8087 (patru porturi în fiecare conector). Adică, dacă unitățile sunt conectate direct la porturi, atunci un total de opt unități pot fi conectate la controler, iar când cuștile de discuri sunt conectate la fiecare port, volumul total de unități poate fi crescut la 96. Fiecare dintre cele opt unități. porturile controlerului au o lățime de bandă de 6 Gbps, ceea ce corespunde standardelor SAS 2 și SATA III.

Desigur, atunci când conectați discuri sau cuști de discuri la acest controler, veți avea nevoie de cabluri specializate, care la un capăt au un conector intern Mini-SAS SFF-8087, iar la celălalt capăt - un conector care depinde de ceea ce este conectat exact la controlor. De exemplu, atunci când conectați unități SAS direct la controler, trebuie să utilizați un cablu care are un conector Mini-SAS SFF-8087 pe o parte și patru conectori SFF 8484 pe cealaltă, care vă permit să conectați direct unități SAS. Vă rugăm să rețineți că cablurile în sine nu sunt incluse în pachet și trebuie achiziționate separat.

Controlerul LSI 3ware SAS 9750-8i are o interfață PCI Express 2.0 x8, care oferă o capacitate de 64 Gbps (32 Gbps în fiecare direcție). Este clar că acest debit este suficient pentru opt porturi SAS încărcate complet, cu un debit de 6 Gbps fiecare. De asemenea, rețineți că controlerul are un conector special în care puteți conecta opțional o baterie de rezervă LSIiBBU07.

Este important ca acest controler să necesite instalarea driverului, adică este un controler RAID hardware-software. Acceptă sisteme de operare precum Windows Vista, Windows Server 2008, Windows Server 2003 x64, Windows 7, Windows 2003 Server, MAC OS X, LinuxFedora Core 11, Red Hat Enterprise Linux 5.4, OpenSuSE 11.1, SuSE Linux Enterprise Server (SLES) 11, OpenSolaris 2009.06, VMware ESX/ESXware 4.0/4.0 update-1 și alte sisteme din familia Linux. Pachetul include și software-ul 3ware Disk Manager 2, care vă permite să gestionați matricele RAID prin sistemul de operare.

Controlerul LSI 3ware SAS 9750-8i acceptă tipuri standard de matrice RAID: RAID 0, 1, 5, 6, 10 și 50. Poate că singurul tip de matrice care nu este acceptat este RAID 60. Acest lucru se datorează faptului că acest controler este capabil să creeze o matrice RAID 6 cu doar cinci unități conectate direct la fiecare port de controler (teoretic, RAID 6 poate fi creat pe patru unități). În consecință, pentru o matrice RAID 60, acest controler necesită cel puțin zece discuri, care pur și simplu nu există.

Este clar că suportul pentru o matrice RAID 1 este irelevant pentru un astfel de controler, deoarece acest tip Matricea este creată pe doar două discuri, iar utilizarea unui astfel de controler pentru doar două discuri este ilogică și extrem de irosită. Dar suportul pentru matricele RAID 0, 5, 6, 10 și 50 este foarte relevant. Deși, poate, ne-am grăbit prea mult cu matricea RAID 0. Cu toate acestea, această matrice nu are redundanță și, prin urmare, nu oferă o stocare fiabilă a datelor, așa că este folosit extrem de rar pe servere. Cu toate acestea, teoretic, această matrice este cea mai rapidă în ceea ce privește viteza de citire și scriere a datelor. Cu toate acestea, să ne amintim ce tipuri diferite Matricele RAID sunt diferite unele de altele și ce sunt.

Niveluri RAID

Termenul „matrice RAID” a apărut în 1987, când cercetătorii americani Patterson, Gibson și Katz de la Universitatea din California din Berkeley în articolul lor „A case for redundant arrays of inexpensive discs, RAID” au descris cum, în acest fel, puteți combina mai multe hard disk-uri ieftine într-un singur dispozitiv logic, astfel încât capacitatea rezultată și performanța sistemului să fie crescute, iar defecțiunea unităților individuale nu duce la defecțiunea întregului sistem. Au trecut aproape 25 de ani de la publicarea acestui articol, dar tehnologia de construire a matricelor RAID nu și-a pierdut actualitatea astăzi. Singurul lucru care s-a schimbat de atunci este decodarea acronimului RAID. Cert este că inițial matricele RAID nu au fost construite deloc pe discuri ieftine, așa că cuvântul Ieftin („necostisitor”) a fost schimbat în Independent („independent”), ceea ce era mai în concordanță cu realitatea.

Toleranța la erori în matricele RAID se realizează prin redundanță, adică o parte din capacitatea de spațiu pe disc este alocată în scopuri de service, devenind inaccesibilă utilizatorului.

Performanța sporită a subsistemului de discuri este asigurată de funcționarea simultană a mai multor discuri, iar în acest sens, cu cât mai multe discuri în matrice (până la o anumită limită), cu atât mai bine.

Operarea în comun a discurilor dintr-o matrice poate fi organizată folosind fie acces paralel, fie independent. Cu acces paralel, spațiul pe disc este împărțit în blocuri (fâșii) pentru înregistrarea datelor. În mod similar, informațiile care trebuie scrise pe disc sunt împărțite în aceleași blocuri. La scriere, blocurile individuale sunt scrise pe discuri diferite, iar blocurile multiple sunt scrise pe discuri diferite simultan, ceea ce duce la o performanță crescută în operațiunile de scriere. Informațiile necesare sunt citite și în blocuri separate simultan de pe mai multe discuri, ceea ce crește și performanța proporțional cu numărul de discuri din matrice.

Trebuie remarcat faptul că modelul de acces paralel este implementat numai dacă dimensiunea cererii de scriere a datelor este mai mare decât dimensiunea blocului în sine. În caz contrar, înregistrarea în paralel a mai multor blocuri este aproape imposibilă. Să ne imaginăm o situație în care dimensiunea unui bloc individual este de 8 KB, iar dimensiunea unei cereri de scriere a datelor este de 64 KB. În acest caz, informațiile sursă sunt tăiate în opt blocuri a câte 8 KB fiecare. Dacă aveți o matrice de patru discuri, puteți scrie patru blocuri, sau 32 KB, la un moment dat. Evident, în exemplul luat în considerare, vitezele de scriere și citire vor fi de patru ori mai mari decât atunci când se utilizează un singur disc. Acest lucru este valabil doar pentru o situație ideală, dar dimensiunea cererii nu este întotdeauna un multiplu al mărimii blocului și al numărului de discuri din matrice.

Dacă dimensiunea datelor înregistrate este mai mică decât dimensiunea blocului, atunci este implementat un model fundamental diferit - acces independent. Mai mult, acest model poate fi folosit și atunci când dimensiunea datelor care sunt scrise este mai mare decât dimensiunea unui bloc. Cu acces independent, toate datele dintr-o singură solicitare sunt scrise pe un disc separat, adică situația este identică cu lucrul cu un singur disc. Avantajul modelului de acces independent este că dacă mai multe solicitări de scriere (citire) ajung simultan, toate vor fi executate pe discuri separate, independent unele de altele. Această situație este tipică, de exemplu, pentru servere.

În conformitate cu tipuri variate acces, există diferite tipuri de matrice RAID, care sunt de obicei caracterizate de niveluri RAID. Pe lângă tipul de acces, nivelurile RAID diferă prin modul în care găzduiesc și generează informații redundante. Informațiile redundante pot fi fie plasate pe un disc dedicat, fie distribuite între toate discurile.

În prezent, există mai multe niveluri RAID care sunt utilizate pe scară largă - RAID 0, RAID 1, RAID 5, RAID 6, RAID 10, RAID 50 și RAID 60. Anterior, erau folosite și RAID 2, RAID 3 și RAID 4, totuși Aceste RAID nivelurile nu sunt utilizate în prezent și controlerele RAID moderne nu le acceptă. Rețineți că toate controlerele RAID moderne acceptă și funcția JBOD (Just a Bench Of Disks). În acest caz, nu vorbim despre o matrice RAID, ci pur și simplu despre conectarea unor discuri individuale la un controler RAID.

RAID 0

RAID 0, sau striping, nu este, strict vorbind, o matrice RAID, deoarece o astfel de matrice nu are redundanță și nu oferă stocare fiabilă a datelor. Cu toate acestea, istoric este numit și o matrice RAID. O matrice RAID 0 (Fig. 1) poate fi construită pe două sau mai multe discuri și este utilizată atunci când este necesar pentru a asigura o performanță ridicată a subsistemului de discuri, dar fiabilitatea stocării datelor nu este critică. Când se creează o matrice RAID 0, informațiile sunt împărțite în blocuri (aceste blocuri se numesc dungi), care sunt scrise simultan pe discuri separate, adică se creează un sistem cu acces paralel (dacă, desigur, dimensiunea blocului permite). Permițând I/O simultană de pe mai multe unități, RAID 0 oferă cele mai rapide viteze de transfer de date și eficiență maximă a spațiului pe disc, deoarece nu este necesar spațiu de stocare pentru sumele de verificare. Implementarea acestui nivel este foarte simplă. RAID 0 este utilizat în principal în zonele în care este necesar transferul rapid de cantități mari de date.

Orez. 1. Matrice RAID 0

Teoretic, creșterea vitezei de citire și scriere ar trebui să fie un multiplu al numărului de discuri din matrice.

Fiabilitatea unei matrice RAID 0 este evident mai mică decât fiabilitatea oricărui disc individual și scade odată cu creșterea numărului de discuri incluse în matrice, deoarece eșecul oricăruia dintre ele duce la inoperabilitatea întregii matrice. Dacă MTBF-ul fiecărui disc este un disc MTTF, atunci MTBF-ul unei matrice RAID 0 constând din n discurile este egal cu:

MTTF RAID0 = disc MTTD /n.

Dacă notăm probabilitatea de defectare a unui disc într-o anumită perioadă de timp ca p, apoi pentru o matrice RAID 0 de n discuri, probabilitatea ca cel puțin un disc să eșueze (probabilitatea unui accident de matrice) va fi:

P (picătură de matrice) = 1 – (1 – p) n.

De exemplu, dacă probabilitatea de eșec a unui disc în trei ani de funcționare este de 5%, atunci probabilitatea de eșec a unei matrice RAID 0 de două discuri este deja de 9,75% și a opt discuri - 33,7%.

RAID 1

RAID 1 (Figura 2), numit și oglindă, este o matrice de două discuri cu redundanță de 100%. Adică, datele sunt complet duplicate (oglindite), datorită cărora se atinge un nivel foarte ridicat de fiabilitate (precum și cost). Rețineți că pentru a implementa RAID 1, nu este necesar să partiționați mai întâi discurile și datele în blocuri. În cel mai simplu caz, două discuri conțin aceleași informații și sunt un singur disc logic. Dacă un disc eșuează, funcțiile sale sunt îndeplinite de altul (care este absolut transparent pentru utilizator). Recuperarea matricei în curs copiere simplă. În plus, teoretic, o matrice RAID 1 ar trebui să dubleze viteza de citire a informațiilor, deoarece această operație poate fi efectuată simultan de pe două discuri. Acest tip de schemă de stocare a informațiilor este utilizat în principal în cazurile în care costul securității datelor este mult mai mare decât costul implementării unui sistem de stocare.

Orez. 2. RAID 1 matrice

Dacă, ca și în cazul precedent, notăm probabilitatea de defecțiune a unui disc într-o anumită perioadă de timp ca p, atunci pentru o matrice RAID 1 probabilitatea ca ambele discuri să eșueze în același timp (probabilitatea de defecțiune a matricei) este:

P (scădere de matrice) = P 2.

De exemplu, dacă probabilitatea de defecțiune a unui disc în trei ani de funcționare este de 5%, atunci probabilitatea de defecțiune simultană a două discuri este deja de 0,25%.

RAID 5

Matricea RAID 5 (Fig. 3) este tolerantă la erori matrice de discuri cu stocarea distribuită a sumelor de control. La scriere, fluxul de date este împărțit în blocuri (stripe) la nivel de octeți, care sunt scrise simultan pe toate discurile matricei în ordine ciclică.

Orez. 3. Matrice RAID 5

Să presupunem că matricea conține n discuri, iar dimensiunea dungii este d. Pentru fiecare porțiune de n Se calculează suma de control –1 dungi p.

Dunga d 1înregistrat pe primul disc, stripe d 2- pe al doilea și așa mai departe până la dungă d n–1, care este scris pe discul (n–1). În continuare al n-lea disc se scrie suma de control p n, iar procesul se repetă ciclic de pe primul disc pe care este scris banda d n.

Procesul de înregistrare ( n–1) dungile și suma lor de control sunt produse simultan pentru toate n discuri.

Suma de control este calculată utilizând o operație exclusivă sau (XOR) pe biți aplicată blocurilor de date care sunt scrise. Deci, dacă există n hard disk-uri și d- bloc de date (stripe), apoi suma de control este calculată folosind următoarea formulă:

pn=d1d 2 ⊕ ... dn–1.

Dacă un disc nu reușește, datele de pe acesta pot fi restaurate folosind datele de control și datele rămase pe discurile de lucru. Într-adevăr, folosind identitățile (Ab) A b= aȘi AA = 0 , obținem că:

p n⊕ (dkp n) = d ld n⊕ ...⊕ ...⊕ dn–l⊕ (dkpn).

d k = d 1d n⊕ ...⊕ d k–1d k+1⊕ ...⊕ p n.

Astfel, dacă un disc cu un bloc eșuează dk, apoi poate fi restaurat folosind valoarea blocurilor rămase și suma de control.

În cazul RAID 5, toate discurile din matrice trebuie să aibă aceeași dimensiune, dar capacitatea totală a subsistemului de disc disponibil pentru scriere devine cu exact un disc mai mică. De exemplu, dacă cinci discuri au o dimensiune de 100 GB, atunci dimensiunea reală a matricei este de 400 GB, deoarece 100 GB sunt alocați pentru informațiile de control.

O matrice RAID 5 poate fi construită pe trei sau mai multe hard disk-uri. Pe măsură ce numărul de hard disk-uri dintr-o matrice crește, redundanța acestuia scade. Rețineți, de asemenea, că o matrice RAID 5 poate fi restaurată dacă un singur disc eșuează. Dacă două discuri eșuează în același timp (sau dacă al doilea disc eșuează în timpul procesului de restaurare a matricei), atunci matricea nu poate fi restaurată.

RAID 6

S-a demonstrat că RAID 5 poate fi recuperat atunci când o unitate se defectează. Cu toate acestea, uneori este necesar să se asigure un nivel mai mare de fiabilitate decât într-o matrice RAID 5. În acest caz, puteți utiliza o matrice RAID 6 (Fig. 4), care vă permite să restaurați matricea chiar dacă două discuri eșuează la acelasi timp.

Orez. 4. Matrice RAID 6

RAID 6 este similar cu RAID 5, dar folosește nu una, ci două sume de control care sunt distribuite ciclic pe discuri. Prima sumă de control p este calculat folosind același algoritm ca într-o matrice RAID 5, adică este o operație XOR între blocuri de date scrise pe discuri diferite:

pn=d1d2⊕ ...⊕ dn–1.

A doua sumă de control este calculată folosind un algoritm diferit. Fără a intra în detalii matematice, aceasta este, de asemenea, o operație XOR între blocuri de date, dar fiecare bloc de date este mai întâi înmulțit cu un coeficient polinomial:

q n = g 1 d 1g 2 d 2⊕ ...⊕ g n–1 d n–1 .

În consecință, capacitatea a două discuri din matrice este alocată pentru sumele de verificare. Teoretic, o matrice RAID 6 poate fi creată pe patru sau mai multe unități, dar în multe controlere poate fi creată pe minim cinci unități.

Rețineți că performanța unei matrice RAID 6 este de obicei cu 10-15% mai mică decât cea a unei matrice RAID 5 (presupunând același număr de unități), datorită cantității mari de calcule efectuate de controler (este necesar să calculați a doua sumă de control, precum și citiți și suprascrieți mai multe blocuri de disc de fiecare dată când este scris un bloc).

RAID 10

O matrice RAID 10 (Figura 5) este o combinație de niveluri 0 și 1. Acest nivel necesită cel puțin patru unități. Într-o matrice RAID 10 de patru discuri, acestea sunt combinate în perechi în matrice RAID 1 și ambele matrice ca discuri logice sunt combinate într-o matrice RAID 0. O altă abordare este de asemenea posibilă: inițial discurile sunt combinate în matrice RAID 0. , iar apoi discuri logice bazate pe aceste matrice - la o matrice RAID 1.

Orez. 5. Matrice RAID 10

RAID 50

O matrice RAID 50 este o combinație de niveluri 0 și 5 (Figura 6). Cerința minimă pentru acest nivel este de șase discuri. Într-o matrice RAID 50, sunt create mai întâi două matrice RAID 5 (cu minimum trei unități fiecare), care sunt apoi combinate ca unități logice într-o matrice RAID 0.

Orez. 6. Matrice RAID 50

Metodologie de testare a controlerului LSI 3ware SAS 9750-8i

Pentru a testa controlerul RAID LSI 3ware SAS 9750-8i, am folosit un pachet de testare specializat IOmeter 1.1.0 (versiunea 2010.12.02). Stand de testare avea urmatoarea configuratie:

  • procesor - Intel core i7-990 (Gulftown);
  • placa de baza - GIGABYTE GA-EX58-UD4;
  • memorie - DDR3-1066 (3 GB, mod de operare cu trei canale);
  • disc de sistem- WD Caviar SE16 WD3200AAKS;
  • placa video - GIGABYTE GeForce GTX480 SOC;
  • Controler RAID - LSI 3ware SAS 9750-8i;
  • Unitățile SAS conectate la controlerul RAID sunt Seagate Cheetah 15K.7 ST3300657SS.

Testarea a fost efectuată sub sistemul de operare Microsoft Windows 7 Ultimate (32 de biți).

Am folosit driverul de controler RAID Windows versiunea 5.12.00.007 și, de asemenea, am actualizat firmware-ul controlerului la versiunea 5.12.00.007.

Unitatea de sistem a fost conectată la SATA, implementată printr-un controler integrat în podul de sud al chipset-ului Intel X58, iar unitățile SAS au fost conectate direct la porturile controlerului RAID folosind două cabluri Mini-SAS SFF-8087 -> 4 SAS.

Controlerul RAID a fost instalat în slotul PCI Express x8 de pe placa de bază.

Controlerul a fost testat cu următoarele matrice RAID: RAID 0, RAID 1, RAID 5, RAID 6, RAID 10 și RAID 50. Numărul de discuri combinate într-o matrice RAID a variat pentru fiecare tip de matrice de la o valoare minimă la opt.

Dimensiunea stripe pe toate matricele RAID nu s-a schimbat și a fost de 256 KB.

Să vă reamintim că pachetul IOmeter vă permite să lucrați atât cu discuri pe care a fost creată o partiție logică, cât și cu discuri fără o partiție logică. Dacă un disc este testat fără o partiție logică creată pe el, atunci IOmeter funcționează la nivelul blocurilor de date logice, adică, în locul sistemului de operare, transmite comenzi către controler pentru a scrie sau a citi blocuri LBA.

Dacă pe disc este creată o partiție logică, atunci utilitarul IOmeter creează inițial un fișier pe disc care, implicit, ocupă întreaga partiție logică (în principiu, dimensiunea acestui fișier poate fi modificată prin specificarea acestuia în numărul de sectoare de 512 octeți), și apoi funcționează cu acest fișier, adică citește sau scrie (suprascrie) blocuri LBA individuale în cadrul acestui fișier. Dar din nou, IOmeter funcționează ocolind sistemul de operare, adică trimite direct cereri către controler pentru a citi/scrie date.

În general, la testarea discurilor HDD, așa cum arată practica, practic nu există nicio diferență între rezultatele testării unui disc cu o partiție logică creată și fără ea. În același timp, credem că este mai corect să se efectueze testarea fără o partiție logică creată, deoarece în acest caz rezultatele testului nu depind de Sistemul de fișiere(NTFA, FAT, ext, etc.). Acesta este motivul pentru care am efectuat testarea fără a crea partiții logice.

În plus, utilitarul IOmeter vă permite să setați dimensiunea blocului de solicitare (Transfer Request Size) pentru scriere/citire a datelor, iar testul poate fi efectuat atât pentru citire, cât și pentru scriere secvențială, atunci când blocurile LBA sunt citite și scrise secvențial unul după altul. , și pentru aleatoriu (Random), când blocurile LBA sunt citite și scrise în ordine aleatorie. Când creați un scenariu de încărcare, puteți seta timpul de testare, raportul procentual dintre operațiunile secvenţiale și aleatorii (distribuţie procentuală aleatorie/secvenţială), precum şi raportul procentual dintre operaţiile de citire şi scriere (distribuţie procentuală de citire/scriere). În plus, utilitarul IOmeter vă permite să automatizați întregul proces de testare și să salveze toate rezultatele într-un fișier CSV, care este apoi exportat cu ușurință într-o foaie de calcul Excel.

O altă setare pe care utilitarul IOmeter vă permite să o faceți este așa-numita aliniere a blocurilor de cereri de transfer de date (Aliniere I/O activată) de-a lungul granițelor sectoare de hard disc. În mod implicit, IOmeter aliniază blocurile de solicitare la limitele sectorului de disc de 512 octeți, dar puteți specifica o aliniere personalizată. De fapt, majoritatea hard disk-urilor au o dimensiune a sectorului de 512 octeți și doar recent au început să apară discuri cu o dimensiune a sectorului de 4 KB. Să ne amintim că în discurile HDD, un sector este dimensiunea minimă adresabilă a datelor care pot fi scrise sau citite de pe disc.

La testare, este necesar să setați alinierea blocurilor de solicitare de transfer de date la dimensiunea sectorului de disc. Deoarece unitățile Seagate Cheetah 15K.7 ST3300657SS au o dimensiune a sectorului de 512 octeți, am folosit alinierea limitelor sectorului de 512 octeți.

Folosind suita de teste IOmeter, am măsurat viteza de citire și scriere secvențială, precum și viteza de citire și scriere aleatorie a matricei RAID create. Dimensiunile blocurilor de date transferate au fost de 512 octeți, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 și 1024 KB.

În scenariile de încărcare enumerate, timpul de testare cu fiecare cerere de transfer a unui bloc de date a fost de 5 minute. De asemenea, rețineți că, în toate testele enumerate, am setat adâncimea cozii de activități (număr de I/O-uri restante) la 4 în setările IOmeter, ceea ce este tipic pentru aplicațiile utilizator.

Rezultatele testului

După ce am analizat rezultatele testelor, am fost surprinși de performanța controlerului RAID LSI 3ware SAS 9750-8i. Și atât de mult încât au început să revizuiască scripturile noastre pentru a identifica erorile din ele și apoi au repetat testele de multe ori cu alte setări ale controlerului RAID. Am schimbat dimensiunea stripe și modul de operare al cache-ului controlerului RAID. Acest lucru, desigur, sa reflectat în rezultate, dar nu a schimbat natura generală a dependenței ratei de transfer de date de dimensiunea blocului de date. Dar nu am putea explica această dependență. Loc de munca a acestui controler ni se pare complet ilogic. În primul rând, rezultatele sunt instabile, adică pentru fiecare dimensiune fixă ​​a blocului de date, viteza se modifică periodic, iar rezultatul mediu are o eroare mare. Rețineți că, de obicei, rezultatele testării discurilor și controlerelor folosind utilitarul IOmeter sunt stabile și diferă foarte puțin.

În al doilea rând, pe măsură ce dimensiunea blocului crește, rata de transfer de date ar trebui să crească sau să rămână neschimbată în modul de saturație (când viteza atinge valoarea maximă). Cu toate acestea, în cazul controlerului LSI 3ware SAS 9750-8i, se observă o scădere bruscă a vitezei de transfer de date la anumite dimensiuni de bloc. În plus, rămâne un mister pentru noi de ce, cu același număr de discuri pentru matricele RAID 5 și RAID 6, viteza de scriere este mai mare decât viteza de citire. Într-un cuvânt, nu putem explica funcționarea controlerului LSI 3ware SAS 9750-8i - putem spune doar faptele.

Rezultatele testelor pot fi clasificate în diferite moduri. De exemplu, după scenarii de pornire, în care pentru fiecare tip de pornire sunt date rezultate pentru toate matricele RAID posibile cu un număr diferit de discuri conectate, sau pe tipuri de matrice RAID, când pentru fiecare tip de matrice RAID rezultatele sunt afișate cu un număr diferit de discuri în citire secvențială scenarii, scriere secvențială, citire aleatorie și scriere aleatorie. De asemenea, puteți clasifica rezultatele după numărul de discuri din matrice, când pentru fiecare număr de discuri conectate la controler sunt date rezultate pentru toate matricele RAID posibile (pentru un anumit număr de discuri) în scenariile de citire secvențială și secvențială scrieți, citiți aleatoriu și scrieți aleatoriu.

Am decis să clasificăm rezultatele după tipul de matrice, deoarece, în opinia noastră, în ciuda numărului destul de mare de grafice, această prezentare este mai clară.

RAID 0

O matrice RAID 0 poate fi creată cu două până la opt discuri. Rezultatele testului pentru matricea RAID 0 sunt prezentate în Fig. 7-15.

Orez. 7. Viteza secvenţială de citire şi scriere
cu opt discuri într-o matrice RAID 0

Orez. 8. Viteza secvenţială de citire şi scriere
cu șapte discuri într-o matrice RAID 0

Orez. 9. Viteza de citire secvenţială
și înregistrarea cu șase discuri într-o matrice RAID 0

Orez. 10. Viteza secvenţială de citire şi scriere
cu cinci discuri într-o matrice RAID 0

Orez. 11. Viteza secvenţială de citire şi scriere
cu patru discuri într-o matrice RAID 0

Orez. 12. Viteza secvenţială de citire şi scriere
cu trei discuri într-o matrice RAID 0

Orez. 13. Viteza secvenţială de citire şi scriere
cu două discuri într-o matrice RAID 0

Orez. 14. Viteza de citire aleatorie
într-o matrice RAID 0

Orez. 15. Viteza de scriere aleatorie în matricea RAID 0

Este clar că cele mai mari viteze secvenţiale de citire şi scriere într-o matrice RAID 0 sunt atinse cu opt discuri. Merită să acordați atenție faptului că, cu opt și șapte discuri într-o matrice RAID 0, vitezele secvențiale de citire și scriere sunt aproape identice unele cu altele, iar cu mai puține discuri, viteza de scriere secvențială devine mai mare decât viteza de citire.

De asemenea, trebuie remarcat faptul că există scăderi caracteristice în viteza de citire și scriere secvențială la anumite dimensiuni de bloc. De exemplu, cu opt și șase discuri în matrice, astfel de eșecuri sunt observate cu dimensiuni de bloc de date de 1 și 64 KB și cu șapte discuri - cu dimensiuni de 1, 2 și 128 KB. Eșecuri similare, dar cu dimensiuni diferite ale blocurilor de date, există și cu patru, trei și două discuri în matrice.

În ceea ce privește viteza de citire și scriere secvențială (ca o caracteristică medie pentru toate dimensiunile blocurilor), matricea RAID 0 depășește toate celelalte matrice posibile în configurații cu opt, șapte, șase, cinci, patru, trei și două discuri.

Accesul aleatoriu într-o matrice RAID 0 este, de asemenea, destul de interesant. Viteza de citire aleatorie pentru fiecare dimensiune de bloc de date este proporțională cu numărul de discuri din matrice, ceea ce este destul de logic. Mai mult, cu o dimensiune a blocului de 512 KB, cu orice număr de discuri în matrice, se observă o scădere caracteristică a vitezei de citire aleatorie.

Cu înregistrarea aleatorie pentru orice număr de discuri din matrice, viteza crește odată cu dimensiunea blocului de date și nu există scăderi de viteză. În același timp, trebuie remarcat faptul că cea mai mare viteză în acest caz este atinsă nu cu opt, ci cu șapte discuri în matrice. Următorul în viteza de scriere aleatorie este o matrice de șase discuri, apoi cinci și numai apoi opt discuri. Mai mult, în ceea ce privește viteza de scriere aleatorie, o matrice de opt discuri este aproape identică cu o matrice de patru discuri.

În ceea ce privește viteza de scriere aleatorie, RAID 0 depășește toate celelalte matrice disponibile în configurații cu opt, șapte, șase, cinci, patru, trei și două discuri. Dar în ceea ce privește viteza de citire aleatorie într-o configurație cu opt discuri, RAID 0 este inferior matricelor RAID 10 și RAID 50, dar într-o configurație cu mai puține discuri, RAID 0 este lider în viteza de citire aleatorie.

RAID 5

O matrice RAID 5 poate fi creată cu trei până la opt discuri. Rezultatele testului pentru matricea RAID 5 sunt prezentate în Fig. 16-23.

Orez. 16. Viteza secvenţială de citire şi scriere
cu opt unități într-o matrice RAID 5

Orez. 17. Viteza secvenţială de citire şi scriere
cu șapte discuri într-o matrice RAID 5

Orez. 18. Viteza secvenţială de citire şi scriere
cu șase unități într-o matrice RAID 5

Orez. 19. Viteza secvenţială de citire şi scriere
cu cinci discuri într-o matrice RAID 5

Orez. 20. Viteza secvenţială de citire şi scriere
cu patru unități într-o matrice RAID 5

Orez. 21. Viteza secvenţială de citire şi scriere
cu trei discuri într-o matrice RAID 5

Orez. 22. Viteza de citire aleatorie
într-o matrice RAID 5

Orez. 23. Viteza de scriere aleatorie
într-o matrice RAID 5

Este clar că cele mai mari viteze de citire și scriere sunt atinse cu opt discuri. Merită să acordați atenție faptului că pentru o matrice RAID 5, viteza de scriere secvențială este în medie mai mare decât viteza de citire. Cu toate acestea, la o anumită dimensiune a cererii, vitezele de citire secvențială pot depăși vitezele de scriere secvențială.

Nu se poate să nu remarce scăderile caracteristice ale vitezelor secvenţiale de citire şi scriere la anumite dimensiuni de bloc pentru orice număr de discuri din matrice.

La viteze de citire și scriere secvențială cu opt unități, RAID 5 este inferior RAID 0 și RAID 50, dar superior RAID 10 și RAID 6. În configurațiile cu șapte unități, RAID 5 este inferior RAID 0 și RAID 5 în citire și RAID secvențial. viteze de scriere.superioare matricei RAID 6 (alte tipuri de matrice nu sunt posibile cu acest număr de discuri).

În configurațiile cu șase unități, RAID 5 este inferior ca viteză de citire secvențială față de RAID 0 și RAID 50 și al doilea doar față de RAID 0 ca viteză de scriere secvențială.

În configurațiile cu cinci, patru și trei unități, RAID 5 este al doilea după RAID 0 în ceea ce privește vitezele de citire și scriere secvențiale.

Accesul aleatoriu într-o matrice RAID 5 este similar cu accesul aleator într-o matrice RAID 0. Astfel, viteza de citire aleatorie pentru fiecare dimensiune de bloc de date este proporțională cu numărul de discuri din matrice și cu o dimensiune a blocului de 512 KB, pt. orice număr de discuri din matrice, există o scădere caracteristică a vitezei de citire aleatorie. Mai mult, trebuie remarcat faptul că viteza de citire aleatorie depinde slab de numărul de discuri din matrice, adică pentru orice număr de discuri este aproximativ aceeași.

În ceea ce privește viteza de citire aleatorie, matricea RAID 5 în configurații cu opt, șapte, șase, patru și trei discuri este inferioară tuturor celorlalte matrice. Și numai într-o configurație cu cinci unități este marginal înaintea unei matrice RAID 6.

În ceea ce privește viteza de scriere aleatorie, o matrice RAID 5 într-o configurație cu opt discuri este a doua după matricele RAID 0 și RAID 50, iar într-o configurație cu șapte și cinci, patru și trei discuri este a doua după o matrice RAID 0. .

Într-o configurație cu șase unități, RAID 5 este inferior în ceea ce privește performanța de scriere aleatorie față de RAID 0, RAID 50 și RAID 10.

RAID 6

Controlerul LSI 3ware SAS 9750-8i vă permite să creați o matrice RAID 6 cu un număr de discuri de la cinci la opt. Rezultatele testului pentru matricea RAID 6 sunt prezentate în Fig. 24-29.

Orez. 24. Viteza secvenţială de citire şi scriere
cu opt unități într-o matrice RAID 6

Orez. 25. Viteza secvenţială de citire şi scriere
cu șapte discuri într-o matrice RAID 6

Observăm, de asemenea, scăderi caracteristice ale vitezei de citire și scriere secvențială la anumite dimensiuni de bloc pentru orice număr de discuri din matrice.

În ceea ce privește viteza de citire secvențială, matricea RAID 6 este inferioară tuturor celorlalte matrice în configurații cu orice număr (de la opt până la cinci) de discuri.

În ceea ce privește viteza de înregistrare secvențială, situația este oarecum mai bună. În configurație cu opt Discuri RAID 6 este înaintea matricei RAID 10 și într-o configurație cu șase discuri - ambele matrice RAID 10 și RAID 50. Cu toate acestea, în configurațiile cu șapte și cinci discuri, atunci când se creează matrice RAID 10 și RAID 50 este imposibilă, această matrice este în ultimul loc în ceea ce privește înregistrările secvențiale de viteză.

Accesul aleatoriu într-o matrice RAID 6 este similar cu accesul aleatoriu în matricele RAID 0 și RAID 5. Astfel, viteza de citire aleatorie cu o dimensiune a blocului de 512 KB pentru orice număr de discuri din matrice are o scădere caracteristică a vitezei de citire aleatorie. Rețineți că viteza maximă de citire aleatorie este atinsă cu șase discuri în matrice. Ei bine, cu șapte și opt discuri, viteza de citire aleatorie este aproape aceeași.

Cu înregistrarea aleatorie pentru orice număr de discuri din matrice, viteza crește odată cu dimensiunea blocului de date și nu există scăderi de viteză. În plus, deși viteza de scriere aleatorie este proporțională cu numărul de discuri din matrice, diferența de viteză este nesemnificativă.

În ceea ce privește viteza de citire aleatorie, matricea RAID 6 în configurațiile cu opt și șapte discuri este doar înaintea matricei RAID 5 și inferioară tuturor celorlalte matrice posibile.

Într-o configurație cu șase unități, RAID 6 este inferior RAID 10 și RAID 50 în performanța de citire aleatorie, iar într-o configurație cu cinci unități, este inferior RAID 0 și RAID 5.

În ceea ce privește viteza de scriere aleatorie, matricea RAID 6, cu orice număr de discuri conectate, este inferioară tuturor celorlalte matrice posibile.

În general, se poate afirma că matricea RAID 6 este inferioară ca performanță față de matricele RAID 0, RAID 5, RAID 50 și RAID 10. Adică, din punct de vedere al performanței, acest tip de matrice a fost pe ultimul loc.

Orez. 33. Viteza de citire aleatorie
într-o matrice RAID 10

Orez. 34. Viteza de scriere aleatorie în matricea RAID 10

Este tipic ca în matrice de opt și șase discuri viteza de citire secvențială să fie mai mare decât viteza de scriere, iar într-o matrice de patru discuri aceste viteze sunt aproape aceleași pentru orice dimensiune de bloc de date.

Matricea RAID 10, precum și toate celelalte matrice luate în considerare, se caracterizează printr-o scădere a vitezei de citire și scriere secvențială pentru anumite dimensiuni de bloc de date pentru orice număr de discuri din matrice.

Cu înregistrarea aleatorie pentru orice număr de discuri din matrice, viteza crește odată cu dimensiunea blocului de date și nu există scăderi de viteză. În plus, viteza de scriere aleatorie este proporțională cu numărul de discuri din matrice.

În ceea ce privește viteza de citire secvențială, matricea RAID 10 urmează matricele RAID 0, RAID 50 și RAID 5 în configurații cu opt, șase și patru discuri, iar în ceea ce privește viteza de scriere secvențială este inferioară chiar și matricei RAID 6, adică , urmează matricele RAID 0. RAID 50, RAID 5 și RAID 6.

Dar în ceea ce privește viteza de citire aleatorie, matricea RAID 10 este înaintea tuturor celorlalte matrice în configurații cu opt, șase și patru discuri. Dar în ceea ce privește viteza de scriere aleatorie, această matrice este inferioară matricelor RAID 0, RAID 50 și RAID 5 într-o configurație cu opt discuri, matricelor RAID 0 și RAID 50 într-o configurație cu șase discuri și matricelor RAID 0 și RAID 5 în o configurație cu patru discuri.

RAID 50

O matrice RAID 50 poate fi construită pe șase sau opt unități. Rezultatele testului pentru matricea RAID 50 sunt prezentate în Fig. 35-38.

În scenariul de citire aleatorie, ca și pentru toate celelalte matrice luate în considerare, există o scădere caracteristică a performanței cu o dimensiune a blocului de 512 KB.

Cu înregistrarea aleatorie pentru orice număr de discuri din matrice, viteza crește odată cu dimensiunea blocului de date și nu există scăderi de viteză. În plus, viteza de scriere aleatorie este proporțională cu numărul de discuri din matrice, dar diferența de viteză este nesemnificativă și se observă doar cu o dimensiune mare a blocului de date (mai mult de 256 KB).

În ceea ce privește viteza de citire secvențială, RAID 50 este al doilea după RAID 0 (configurații cu opt și șase discuri). În ceea ce privește viteza de scriere secvențială, RAID 50 este, de asemenea, pe locul doi după RAID 0 într-o configurație cu opt unități, iar într-o configurație cu șase unități este inferior RAID 0, RAID 5 și RAID 6.

Dar în ceea ce privește viteza de citire și scriere aleatorie, matricea RAID 50 este a doua după matricea RAID 0 și este înaintea tuturor celorlalte matrice posibile cu opt și șase discuri.

RAID 1

După cum am observat deja, o matrice RAID 1, care poate fi construită doar pe două discuri, nu este practic de utilizat pe un astfel de controler. Cu toate acestea, pentru a fi complet, prezentăm și rezultatele pentru o matrice RAID 1 pe două discuri. Rezultatele testului pentru matricea RAID 1 sunt prezentate în Fig. 39 și 40.

Orez. 39. Viteza secvenţială de scriere şi citire în matricea RAID 1

Orez. 40. Viteză aleatorie de scriere și citire în matricea RAID 1

Matricea RAID 10, precum și toate celelalte matrice luate în considerare, se caracterizează printr-o scădere a vitezei de citire și scriere secvențială la anumite dimensiuni de bloc de date.

În scenariul de citire aleatorie, ca și în cazul altor matrice, există o scădere caracteristică a performanței cu o dimensiune a blocului de 512 KB.

Cu înregistrarea aleatorie, viteza crește odată cu dimensiunea blocului de date și nu există scăderi de viteză.

O matrice RAID 1 poate fi mapată numai la o matrice RAID 0 (deoarece în cazul a două discuri nu sunt posibile alte matrice). Trebuie remarcat faptul că RAID 1 este inferior ca performanță față de RAID 0 cu două discuri în toate scenariile de încărcare, cu excepția citirilor aleatorii.

concluzii

Am avut impresii destul de mixte de la testarea controlerului LSI 3ware SAS 9750-8i în combinație cu unitățile SAS Seagate Cheetah 15K.7 ST3300657SS. Pe de o parte, are excelent funcţionalitate, pe de altă parte, scăderile de viteză la anumite dimensiuni ale blocurilor de date sunt alarmante, ceea ce, desigur, se reflectă în performanța vitezei matricelor RAID atunci când funcționează într-un mediu real.

După trecerea de la SCSI la șine seriale, controlerele RAID profesionale și semi-profesionale s-au schimbat semnificativ. Interfața SCSI paralelă oferă până la 320 MB/s lățime de bandă, care este partajată între toate dispozitivele conectate la magistrală folosind un cablu scump și capricios. Serial Attached SCSI (SAS), pe de altă parte, acceptă 300 MB/s per port, cabluri multi-link sau single-link, legături redundante, dispozitive externe și interne. Controlerele sunt, de asemenea, compatibile cu interfața SATA, ceea ce înseamnă că puteți utiliza atât unități SATA de mare capacitate, cât și hard disk-uri SAS de înaltă performanță. În cele din urmă, tranziția de la PCI-X la PCI Express este în plină desfășurare. Credem că este timpul să ne uităm la patru controlere RAID pentru servere entry-level.

Mulți utilizatori încă se întreabă dacă merită să cumpere un controler RAID separat, având în vedere disponibilitatea unor astfel de soluții SATA integrate puternice precum Intel ICH9R, care pot fi găsite pe multe plăci de bază de top, de exemplu, Asus P5K-WS (chipset P35 cu PCI-). interfață).X) sau P5K64-WS (patru sloturi PCI Express). Deoarece producătorii își echipează modelele de top cu regulatoare de tensiune de înaltă calitate și cele mai bune componente, diferența de calitate dintre o placă de bază desktop de ultimă generație și un produs server de ultimă generație este doar în setul de caracteristici. Cu șase porturi SATA/300 pe această placă de bază, funcții avansate de management RAID și un procesor dual sau quad-core care poate calcula și informațiile de redundanță RAID 5, de ce să cumpărați un controler RAID extern scump?

Soluțiile integrate ca acestea sunt probabil potrivite pentru un server de grup de lucru mic, unde matricea este necesară pentru a stoca datele proiectului, informații despre utilizatorși aplicații, dar pe măsură ce sarcina crește, limitările vor apărea foarte repede. Dacă aveți nevoie de niveluri RAID mai complexe, cum ar fi RAID 50 sau 60, atunci soluțiile încorporate vor fi de puțin folos. Sau, să zicem, dacă brusc trebuie să conectați mai mult de șase hard disk-uri, va trebui să treceți la un alt controler. Și dacă trebuie să rulați matricea într-un snap-in extern sau doriți să obțineți întregul set de funcții de gestionare hard disk-uri, apoi SAS, soluțiile vechi SCSI sau alte tehnologii proprietare rămân singurele opțiuni.

Cu siguranță nu recomandăm tehnologiile proprii ale producătorilor, care limitează alegerea controlerului și echipamentelor. Toate informatie necesara despre Serial Attached SCSI este dat în articol Teste ale hard disk-urilor și controlerelor SAS: zilele SCSI sunt numărate, inclusiv detalii de interfață, cabluri, opțiuni de extindere, snap-in-uri, hard disk-uri, adaptoare gazdă etc. Ultima generație de hard disk-uri SAS va oferi performanțe mult mai bune decât modelele SATA, dar compatibilitatea și flexibilitatea SATA sunt un motiv bun pentru a utiliza un controler RAID unificat în sistemul dumneavoastră.


Poți să faci diferența? Conectorul de sus este SATA, iar cel de jos îi aparține Unitatea Seagate Savvio S.A.S.

Conexiunile SAS și SATA sunt comutate full-duplex punct la punct, ceea ce înseamnă că nu este nevoie să atribuiți fiecărui dispozitiv propriul ID sau să terminați magistrala. Datele printr-o conexiune pot fi trimise și primite simultan. SAS și SATA acceptă conectarea la cald. Pentru a accelera protocoalele paralele, cum ar fi Ultra320 SCSI, a fost necesar fie extinderea magistralei, ceea ce a dus la mai multe fire, fie creșterea vitezele ceasului, dar au existat probleme cu întârzierile semnalului. A conexiuni seriale punct la punct pot fi pur și simplu utilizate împreună. De fapt, SAS acest principiu Acesta este exact ceea ce se folosește atunci când mai multe conexiuni SAS sunt combinate împreună pentru a conecta snap-in-uri externe.

Există o singură diferență mecanică între SAS și SATA: ambele interfețe folosesc același aspect pentru date și alimentare, dar SATA are doi conectori care sunt separați fizic. Pentru SAS, ambii conectori sunt conectați, adică puteți conecta un hard disk SATA la un controler SAS, dar nu veți putea conecta o unitate SAS la un controler SATA prin conector SATA(SFF 8482). Funcționarea hard disk-urilor SATA pe un controler SAS este posibilă datorită faptului că protocolul Serial ATA mai puțin complex și pur și simplu tunelat la SAS în timpul transmisiei. Dispunând de conectori SAS largi și unificați conexiune fizică Se realizează foarte fiabil, conectorii nu pot cădea accidental. Motivul principal pentru mica diferență dintre cei doi conectori este setul îmbunătățit de caracteristici SAS pe care nu îl veți găsi pe controlerele SATA: SAS acceptă conexiuni cu două porturi, oferind conectivitate redundantă hard disk(o opțiune necesară pentru stocarea high-end) și acceptă așa-numitele expansoare pentru a extinde dispozitivele de stocare, similar modului în care un comutator de rețea funcționează cu mai mulți clienți.

În ceea ce privește performanța, există o mică diferență între cele două interfețe. Serial ATA 2.5 oferă un debit maxim de 3 Gbps per port cu codare de 8/10 biți, rezultând 2,4 Gbps sau 300 MB/s per port pentru transferul de date. Același lucru este valabil și pentru SAS, deși planurile includ apariția unor interfețe de 6 și 12 Gbit/s, care vor oferi un throughput de 600 și 1.200 MB/s per port.


SAS în stânga, SATA în dreapta.


Pentru a grupa porturile SAS (de obicei patru), este utilizat conectorul Mini SAS 4i (SFF-8087).

Tendințe hard disk: ofensiva modelelor de 2,5".

Motivul principal pentru care hard disk-urile de 3,5" continuă să domine sectorul profesional este dimensiunea fizică, care se potrivește perfect în cablurile SCSI largi. Cu toate acestea, factorul de formă mai mic de 2,5" este mult mai atractiv deoarece combină viteze mari ale axului cu o sarcină mai mică. on componente datorită diametrului mai mic al plăcilor rotative. Dar interfețele SCSI complexe nu au reușit niciodată să pătrundă în lumea de 2,5". Interfața SAS a schimbat situația: conectorul SFF 8484 vă permite să conectați unități de 2,5" sau 3,5" folosind protocoale SAS sau SATA. Factor de formă de 2,5" mai atractiv pentru performanța stocării deoarece densitatea unității poate fi crescută, crescând debitul și IOPS. În același timp, hard disk-urile de 2,5" consumă mult mai puțină energie decât modelele de 3,5". Consumul de energie devine o problemă majoră în mediile profesionale și centrele de date unde există zeci, sute sau chiar mii de hard disk-uri care trebuie alimentate și răcite, ceea ce necesită, de asemenea, multă energie. Prin urmare, este destul de clar că forța motrice din spatele factorului de formă de 2,5 inchi este prețul.

Linia Savvio de la Seagate a devenit prima de succes comercial în sectorul hard disk-urilor de întreprindere de 2,5". Unitățile Savvio 10K.2 au înlocuit primele modele 10K.1, iar hard disk-urile Savvio 15K.1 sunt unul dintre cele mai productive modele SAS. pe piață.Nu am putut obține opt hard disk-uri Savvio 15K.1 la timp, așa că am decis să mergem cu opt modele Savvio 10K.2.Astăzi există opțiuni cu o capacitate de 73 și 146 GB.Am ales unul mai mic dimensiune astfel încât testele noastre au fost efectuate într-o perioadă rezonabilă de timp. Hard disk-urile sunt echipate cu 16 MB de cache, folosesc un wafer de 2,5" și o interfață SAS de 3 Gbps. Ca și alte unități de tip enterprise, acestea vin cu o garanție de cinci ani.

Dar modelele de 3,5"?

Nu vor muri, dar hard disk-urile SAS de 3,5" vor fi forțate treptat din sectorul corporativ de înaltă performanță, dând loc modelelor cu un factor de formă de 2,5". Când vine vorba de capacitate mare, modelele SATA de 7.200 rpm rămân cel mai bun compromis între performanță și capacitate, ajungând deja la 1 TB de capacitate pe hard disk, în timp ce modelele SAS și SCSI de 10.000 rpm rămân la 300 rpm.GB. A satisface cerintele depozitare corporativă, Toate marii producatori hard disk-urile sunt oferite de hard disk-uri SATA, validate pentru funcționare 24/7 cu o garanție de cinci ani. Exemple bune includ Seagate Barracuda ES, Hitachi UltraStar A7K1000 sau E7K500 și Western Digital RAID Edition (RE).

Firmware: 5.2.0 Build 12415.

Primul controler RAID din testarea noastră este Adaptec RAID 3805. Această companie face diferența între produsele entry-level și soluțiile de performanță, dar numerotarea acestui model necesită unele explicații. Fiecare produs care începe cu numărul „3”, ca și în acest caz, este un model unificat SAS/SATA cu 3 Gbps per port. Al doilea număr indică numărul de porturi disponibile, adică patru pentru RAID 3405, opt pentru RAID 3805 sau 16 pentru RAID 31605. Dacă numărul de unități este precedat de un „0”, atunci controlerul acceptă snap-in-uri externe. . Ultima cifră poate fi „0” sau „5”, unde „0” înseamnă suport RAID gazdă, iar „5” înseamnă accelerarea hardware a RAID 5 și RAID 6. Toate controlerele unificate folosesc interfața PCI Express, deci modelele PCI-X rămâne în trecut. Apropo, nu confundați RAID 3805 și RAID 3085, unde acesta din urmă este card extern cu un procesor IOP mai rapid.

RAID 3805 - model modern cu opt porturi SAS și accelerare hardware RAID pentru interfața PCI Express. Produsul este poziționat la nivelul entry-level/intermediar și poate fi utilizat sub un număr mare de sisteme de operare, inclusiv toate versiuni Windows, începând cu Windows 2000, precum și Red Hat și SuSe Linux, Novell Netware, SCO Open Server, Sun Solaris, FreeBSD, UnixWare și VMware ESX Server. Controlerul pentru calcularea operațiunilor XOR folosește un procesor Intel 80333 la 500 MHz și este echipat cu 128 MB de memorie DDR2 cu ECC. Cu un factor de formă cu profil redus și doi conectori SFF 8487, fiecare oferind patru porturi pe o conexiune fizică, RAID 3805 poate fi instalat pe servere compacte 1U care au un slot PCI Express x4.

Adaptec acceptă RAID 0, 1, 1E (la fel ca RAID 10), 5, 5EE (de rezervă), 6, 10, 50, 60 și JBOD, oferind administratorilor o oarecare flexibilitate. În ceea ce privește funcțiile, lista este lungă, incluzând toate funcțiile RAID obișnuite - extinderea capacității online, migrarea nivelurilor RAID, inițializarea rapidă/în fundal, suport pentru coada de comandă nativă (NCQ), diferite moduri de specificare a discurilor de rezervă (global/dedicat). /pooled ), lucrul cu echipamentul prin SCSI-accesat Fault-Tolerant Enclosure (SAFTE), timpul de pornire întârziat al axului etc. Printre funcțiile interesante, remarcăm așa-numita „copyback hot spare”, care, după înlocuirea unui hard disk defect, transformă noul hard disk în cel vechi. Deci nu trebuie să schimbați etichetele discului în snap-in. În tabelul de mai jos am comparat funcțiile celor trei controlere.

Pachetul include un controler, un slot cu profil redus, instrucțiuni de instalare rapidă în mai multe limbi, un CD cu software și două cu patru porturi. Cablu mini Standardele SAS la SATA/SAS SFF 8487 și SFF 8484. Există un modul de baterie opțional care vă permite să salvați datele din cache în RAM după o pierdere de energie. Compania a decis să nu mai vândă pachetul Advanced Data Protection (RAID 6 și funcții suplimentare) ca actualizare opțională. Dar backup-ul prin copie de rezervă instantanee va fi disponibil numai după achiziționarea unei chei de înregistrare. Controlerul RAID vine cu o garanție de trei ani.

La momentul publicării, Adaptec RAID 3805 costa 600 USD.


Click pe poza pentru marire.

Atto lansează două controlere RAID 5 SAS/SATA cu interfață PCI Express: R380, cu două porturi externe, cu patru unități fiecare și R348, cu un port pentru patru unități externe (SFF 8088) și două porturi pentru a suporta până la opt hard disk-uri interne (SFF 8087). Cu toate acestea, puteți utiliza maximum opt porturi, numărând interne și externe. Potrivit informațiilor de pe site-ul web Atto, această funcție este unic. Am decis să testăm R348 pentru că acest model mai flexibil decât R380.

În primul rând, dezavantajele: acest controler nu acceptă RAID 6 și nu are atât de mult suport pentru sistemul de operare ca modelele Adaptec. De asemenea, vine cu o garanție de doi ani, deși Adaptec, ICP și Ciprico/Raidcore oferă trei ani. De asemenea, am fost informați că setările implicite ale controlerului ar putea să nu ofere performanțe optime, dar, din păcate, asta a fost după ce ne-am terminat testele. O caracteristică numită „RGSSpeedRead” permite citirea înainte de matricele RAID, dar trebuie să fie activată prin interfața de comandă. O scurtă descriere a acestei funcții am găsit în ultimele pagini ale instrucțiunilor. Nu am avut timp să repetăm ​​toate testele, dar după ce am activat „RGSSpeedRead” viteza de citire crește cu adevărat. Este păcat că Atto nu a inclus această caracteristică în fabrică. Sau nu a dedicat un capitol separat în instrucțiunile de optimizare a performanței. R348 are o interfață Java care este ușor de utilizat, dar nu oferă multe opțiuni. De asemenea, nu înțelegem de ce ar trebui să li se solicite utilizatorilor să se înregistreze la Atto înainte de a descărca ceva.

Ca și alte controlere, Express SAS R348 este o placă PCI Express cu profil redus care utilizează opt benzi PCIe. Dar, spre deosebire de cardurile Adaptec și ICP, este echipat cu 256 MB de memorie DDR2 cu suport ECC. În plus, este utilizat un procesor XScale IOP 348 mai puternic la 800 MHz. A oferit rezultate bune, deși nu excelente, la testele I/O.

În ceea ce privește caracteristicile, controlerul Atto RAID acceptă toate modurile RAID majore: 0, 1, 10, 5, 50. Poate funcționa în modul JBOD și chiar RAID 4, care stochează toate informațiile de redundanță pe un singur hard disk. Dar, spre deosebire de RAID 3, RAID 4 creează blocuri stripe mai mari decât blocuri cu un singur octet, cum ar fi RAID 3, ceea ce oferă RAID 4 un spor de performanță față de RAID 3. Nivelurile RAID 6 și 60 nu sunt încă acceptate, dar Atto promite că vor fi adăugat în curând. Același lucru este valabil și pentru bateria opțională, care nu este încă disponibilă. Sisteme de operare acceptate: Windows Server 2003, Windows 2000, Windows XP și Windows Vista, Max OS X 10.4, precum și trei diferite distribuție Linux, dar Solaris, FreeBSD și Netware sunt excluse din listă.


Click pe poza pentru marire.
Click pe poza pentru marire.

Versiunea de firmware: 5.2.0 Build 12415.

Acest produs este identic din punct de vedere tehnic cu Adaptec RAID 3805, în principal pentru că ICP Vortex face parte din familia de companii Adaptec. Eșantionul pe care l-am primit nu a acceptat RAID 6 și funcția „copyback”, care s-a datorat firmware-ului învechit. Actualizarea a adăugat suport pentru RAID 6 și „copyback spare”. Cu toate acestea, există o diferență serioasă între Adaptec RAID 3805 și ICP 5085BL: ICP utilizează un procesor IOP333 mai rapid la 800 MHz, în timp ce Adaptec RAID 3805 rulează la 500 MHz. ICP utilizează 256 MB de cache DDR2 cu suport ECC, în timp ce Adaptec este limitat la 128 MB. Drept urmare, obținem performanțe mai mari la teste în RAID 5. Setul de funcții, software și conținutul pachetului sunt identice cu controlerul Adaptec.


Click pe poza pentru marire.


Click pe poza pentru marire.

Versiunea de firmware: 3.0.0.

Prima noastră privire asupra controlerelor Raidcore a avut loc în 2003și s-a dovedit a fi destul de impresionant: controlerul gazdă folosește o arhitectură numită Fulcrum, care vă permite să creați controlere RAID puternice, independente de nivelul hardware. Drept urmare, Raidcore a fost una dintre primele companii care a oferit soluții care sprijină distribuția matricelor RAID pe mai multe controlere. Acest lucru a devenit posibil datorită logicii speciale care rulează pe mașina gazdă. Dar există și un dezavantaj - toate calculele informațiilor de redundanță trebuie efectuate de procesoarele centrale ale sistemului gazdă, deși astăzi, odată cu apariția procesoarelor dual și quad-core, aceasta nu mai este o problemă atât de acută.

Soluțiile Raidcore moderne sunt promovate de o companie numită Ciprico. Sunt patru în linia RC5000 diferite modele: Două carduri cu profil redus cu patru și opt porturi și două carduri cu înălțime completă cu 12 și 16 porturi. Cifra „8” înseamnă doar prezența a opt porturi; modelele 5100 folosesc interfața PCI-X, iar 5200 utilizează PCI Express x1 sau x4. Ciprico este singurul producător care oferă controler spanning, permițându-vă să creați matrice RAID mari pe mai multe (sau chiar diferite) controlere Raidcore. Lista de funcții este mai completă decât cea a Adaptec/ICP sau Atto, inclusiv roaming de disc (transferul hard disk-urilor pe orice port al oricărui controler), aspect flexibil al discului pentru înlocuire/rezervă (dedicat/global/distribuit), divizare în oglindă, array hiding (ascunderea matricei), etc.

Raidcore nu acceptă încă matrice redundante duale RAID 6 sau RAID 60, dar există suport pentru RAID 0, 1, 10, JBOD, 5, 50, 1n și 10n. Driverele sunt disponibile pentru toate versiunile comune de Windows, Red Hat, Suse și Fedora Linux. Novell Netware, Sun Solaris și alte sisteme de operare nu sunt acceptate. Ciprico oferă o garanție de trei ani, iar software-ul de control este foarte logic și puternic. Performanța RC5252-8 a fost bună, deși depinde în mare măsură de sistemul gazdă. În cazul nostru, un procesor Xeon dual-core (nucleu Nocona) la 3,6 GHz s-a dovedit a fi buna alegere. Cu toate acestea, orice Xeon 5200 dual-core (Woodcrest sau Clovertown) va oferi performanțe și mai mari.


Click pe poza pentru marire.


Producător Adaptec La ICP Raidcore
Model RAID 3805 ExpressSAS R348 RC5252-8
Conectori interni 2x SFF 8087 2x SFF 8087 2x SFF 8087 2x SFF 8087
Conectori externi N / A 1x SFF 8088 N / A N / A
Numărul total de porturi SAS 8 8 8 8
Memorie cache 128 MB DDR2 ECC 256 MB DDR2 ECC 256 MB DDR2 ECC Nu
Interfață PCI Express x4 PCI Express x8 PCI Express x4 PCI Express x4
motor XOR Intel 80333 500 MHz IOP 348 800 MHz Intel 80333 800 MHz Program
Migrarea nivelurilor RAID da da da
Extinderea capacității online da da da da
Mai multe matrice RAID da da da da
Întârzierea rotației axului da da da
Suport flexibil pentru hard disk de rezervă da da da da
Failover automat da da
Baterie pentru alimentare de rezervă Opțional Opțional Opțional Nu este necesar, fără cache
Ventilator Nu Nu Nu Nu
Suport OS

Novell NetWare 6.5
SCO OpenServer
UnixWare
Sun Solaris 10 x86
FreeBSD
Windows Vista, Server 2003, XP, 2000
Mac OS X (10.4.x)
Linux (Fedora, Red Hat și SuSE)
Windows 2000, XP, Server 2003, Vista
Red Hat Enterprise Linux (RHEL)
SUSE Linux Enterprise Server (SLES)
Novell NetWare 6.5
SCO OpenServerUnixWare
Sun Solaris 10 x86
FreeBSD
Windows 2000, XP, Server 2003, Vista
Red Hat Enterprise Linux (RHEL) 4.5
SuSE 9.3, 10.1, 10.2
SUSE Linux Enterprise Server (SLES)
Fedora Core 5.6
Alte Copyback DVRAID Copyback Controller Spanning
Garanție 3 ani 2 ani 3 ani 3 ani
Preț de vânzare cu amănuntul recomandat $575 $1 095 $650

Hardware de sistem
Procesoare 2x Intel Xeon (nucleu Nocona), 3,6 GHz, FSB800, 1 MB cache L2
Platformă Asus NCL-DS (Socket 604), chipset Intel E7520, BIOS 1005
Memorie Corsair CM72DD512AR-400 (DDR2-400 ECC, reg.), 2x 512 MB, latențe CL3-3-3-10
Hard disk de sistem Western Digital Caviar WD1200JB, 120 GB, 7.200 rpm, 8 MB cache, UltraATA/100
Controlere de acționare Intel 82801EB UltraATA/100 (ICH5)
Promit SATA 300TX4
Promiteți FastTrak TX4310
Driver 2.06.1.310
Net Broadcom BCM5721 încorporat 1 Gbps
Placa video ATI RageXL încorporat, 8 MB
Teste
Teste de performanță Atto Diskmark
Performanță I/O IOMeter 2003.05.10
Fileserver Benchmark
Benchmark server web
Benchmark baze de date
Stația de lucru Benchmark
Software de sistem și drivere
OS Microsoft Windows Server 2003 Enterprise Edition, Service Pack 1
Șofer de platformă Intel Chipset Installation Utility 7.0.0.1025
Driver grafic Grafic driver Windows Mod implicit

Rezultatele testului

Timp de inițializare RAID

Am folosit opt ​​hard disk-uri Seagate Savvio 10K.2 și am determinat timpul necesar controlerelor pentru a crea matrice RAID 5 sau RAID 6.

Controlor RAID 5 RAID 6
1 oră 12 minute 1 oră 2 minute
La 23 de minute N / A
57 de minute 57 de minute
2 ore 42 minute

Este logic că controlerele cu cele mai rapide procesoare XOR s-au dovedit a fi cele mai rapide. Cu toate acestea, toate controlerele acceptă inițializarea în fundal, ceea ce reduce performanța, dar vă permite să utilizați imediat matricea.

Debit redus de RAID 6

Toate cele patru controlere sunt foarte puternice și oferă performanțe ridicate de stocare și un set bogat de caracteristici care vă permite să creați matrice flexibile și de înaltă performanță pentru servere de nivel mediu și entry-level. Toate controlerele au opt porturi SAS, dar la ele pot fi conectate și hard disk-uri SATA, inclusiv variante mixte SAS/SATA. Folosind expandoare SAS (expander), puteți conecta mai multe hard disk-uri. Considerăm că cele patru controlere analizate sunt potrivite pentru conectarea a până la 12 hard disk-uri, deoarece majoritatea modelelor sunt destinate hard disk-urilor interne. Dacă doriți să conectați echipamente externe, acordați atenție modelelor cu porturi externe Mini-SAS.

Controlerul ICP 5085BL este foarte asemănător cu Adaptec RAID 3805, dar oferă performanțe mai mari cu un procesor XOR mai rapid și cache de două ori mai mare. Cu toate acestea, prețul este puțin mai mare: cei 650 USD recomandati în loc de 575 USD pentru Adaptec RAID 3805. Ambele plăci oferă un set impresionant de caracteristici și vin cu un set complet de software, care s-a îmbunătățit mult în ultimii ani. Să nu uităm că Adaptec este unul dintre cei mai cunoscuți jucători de pe piața sistemelor profesionale de stocare. Atto percepe 1.095 USD pentru controlerul său, iar pentru acel preț veți obține mai puține funcții RAID (cu excepția suportului RAID 4) și va trebui să faceți niște reglaje suplimentare pentru a face controlerul să funcționeze mai repede. Nu e mare lucru, dar setările implicite dezactivează o funcție care accelerează performanța de citire. Controlerul funcționează bine cu RAID 5 redus, deoarece nu există nicio scădere a performanței de scriere, spre deosebire de alte produse.

Raidcore oferă cel mai funcțional software, care este rezultatul unei arhitecturi diferite: este legat de mașina gazdă și depinde de performanța acesteia. Din păcate, Raidcore nu acceptă încă RAID 6 (nici Atto, de fapt), dar puteți distribui matrice RAID pe mai multe controlere Raidcore, iar nivelurile de performanță în testele I/O pe serverul nostru Xeon cu socket dublu au fost excelente. Ratele de transfer de date au fost, de asemenea, mari, dar alți controlere au învins de obicei Raidcore în această disciplină.

Dacă nu vă deranjează controlerul care încarcă serverul gazdă cu calcule XOR și lista de sisteme de operare acceptate vi se potrivește, atunci modelul Ciprico/Raidcore va oferi un raport preț/calitate excelent. Cu toate acestea, Adaptec oferă performanțe mai bune în multe domenii, iar prețul de 575 USD este, de asemenea, destul de rezonabil.

Au trecut aproximativ doi ani de la anunțarea controlerelor din seria 9260, excluzând modelele cu prefixul „CV”. În acest timp, în partea în limba rusă a internetului, colegii noștri din jurnalismul IT au publicat mai multe recenzii care descriu meritele acestei serii și au efectuat multe teste. Pentru a nu repeta întregul drum al colegilor noștri, am decis să dezvăluim semnificația abrevierei „CV” în controlerele seriei actualizate. Prin urmare, am efectuat teste pentru a identifica diferența dintre controlerele deja familiare pieței și cele actualizate, etichetate „CV”. Desigur, mai trebuie să parcurgem aceiași pași ca și colegii noștri și anume să luăm rezultatele testelor de nivel RAID. Dar sperăm că o analiză comparativă a rezultatelor controlerului cu „Cache Cade” va fi apreciată de cititorii noștri. Dar mai întâi lucrurile.

Specificațiile controlerului

Să începem prin a ne uita la hardware-ul controlerului, cel mai mult caracteristici importanteși capabilitățile, funcționalitățile pe care le poartă „la bord” și care sunt furnizate de software suplimentar.

Hardware de bază și caracteristicile software-ului sunt date în tabel

LSI MegaRAID SAS 9260CV-8i

Soluţie Controlere interne SATA+SAS cu opt porturi pentru aplicații intensive I/O. Lățime de bandă largă, conectivitate SAS, SATA sau SSD. Reduceți costurile de întreținere și costul total de proprietate cu tehnologia CacheVault
Dimensiuni Format MD2 Low Profile (6,6" X 2,536")
Conectori Doi conectori interni Mini-SAS SFF-8087
Suport pentru dispozitiv Până la 128 HDD-uri și SSD-uri SAS și/sau SATA
Tipul magistralei procesorului principal PCI Express x8 versiunea 2.0
Rata de transfer de date Până la 6 Gbps (per port)
Procesor I/O Controller SAS LSISAS2108 cu tehnologie RAID on Chip (ROC).
Mărimea cache-ului 512 MB DDRII SDRAM
Protecție cache Protecție cache flash MegaRAID CacheVault
Caracteristici cheie ale protecției datelor RAID
  • RAID – nivelurile 0, 1, 5 și 6
  • Extindere RAID la 10, 50 și 60
  • Extinderea capacității operaționale (OCE)
  • Migrare online de la unul la altul nivel RAID (RLM)
  • Recuperare automată după pană de curent din cauza upgrade-ului sau reconstrucției matricei (RLM)
  • Structură de suport multicanal pentru un controler (failover)
  • Distribuția sarcinii
  • Configurare segment de bandă de date de până la 1 MB
  • Inițializare rapidă care permite configurarea rapidă a matricei
  • Verificarea coerenței integrității datelor
  • Verificare regulată - scanare și recuperare a suporturilor
  • Suportă 64 de unități logice
  • Suportă până la 64 TB per unitate logică (LUN)
  • Configurația discului (COD) compatibilă cu formatul DDF
  • Suport S.M.A.R.T
  • Standby la cald partajat și separat cu funcție de recuperare
Management RAID
  • Suita de management MegaRAID
  • Manager de stocare MegaRAID
  • MegaCLI (interfață de linie de comandă)
  • WebBIOS
Optimizare SSD opțională

Software-ul MegaRAID CacheCade îmbunătățește performanța I/O folosind memoria cache unitate SSD
Software-ul MegaRAID Fast Path oferă până la 150.000 de performanțe IOPS pentru matricele SSD

Controlerul 9260CV-8i aparține seriei Value Line (o serie de soluții accesibile). Acest model se distinge de controlerele din seria Feature Line mai scumpe prin prezența CacheVault (memorie flash NAND) „la bord” controlerului și prin utilizarea ionistorilor (supercondensatori) în locul bateriilor obișnuite de rezervă litiu-ion (BBU). Spre deosebire de dispozitivele din seria Entry, 9260CV-8i folosește un procesor LSISAS2108 800 MHz mai puternic cu arhitectură PowerPC.

Tipurile de niveluri RAID acceptate nu s-au schimbat. Sunt declarate aceleași tipuri de RAID familiare și modificările acestora: 0, 00, 1, 10, 5, 50, 6 și 60.

După cum am menționat mai sus, locul bateriei obișnuite de rezervă BBU a fost luat de supercondensatori, care au devenit parte integrantă a noii protecție a cache (Cache Vault). Principiul de bază al Cache Vault este aproape identic cu utilizarea BBU. Un supercondensator alimentează memoria cache. Dar, dacă în cazul unui BBU clasic cu celule litiu-ion, informațiile din memoria RAM a controlerului sunt stocate aproximativ 72 de ore, după care datele dispar, atunci ionistorul, pe lângă menținerea cache-ului în stare de funcționare, vă permite pentru a scrie informații din cache în modulul de memorie flash NAND situat pe controler. Când sursa de alimentare este restabilită, informațiile din NAND vor fi din nou rescrise în memoria cache a controlerului. Conform LSI (LSI MegaRaid CacheVault Technology), informațiile din NAND pot fi stocate timp de aproximativ trei ani.

Software

Cel mai convenabil mod de a gestiona controlerul și de a-l configura este prin MegaRAID Storage Manager. Există și așa-numitul WebBIOS - BIOS-ul controlerului, numit în timpul inițializării în timpul pornirii serverului, precum și linia de comandă (CLI).

Pentru niște bani, funcțiile controlerului pot fi extinse semnificativ. Funcționalitățile suplimentare includ următoarele tehnologii proprietare LSI.

MegaRAID FastPath

Vă permite să optimizați Funcționare SSD discuri conectate la controler și crește numărul de operațiuni I/O ale aplicațiilor tranzacționale. LSI susține o creștere de trei ori a performanței, până la 150.000 IOPS, atunci când se utilizează MegaRAID FastPath.

MegaRAID CacheCade

O caracteristică care utilizează o unitate SSD ca cache pentru o serie de hard disk-uri, permițând performanțe de aproximativ 50 de ori mai bune în aplicațiile web, bazele de date și procesarea tranzacțiilor în timp real (OLTP)

Recuperare MegaRAID

Folosind tehnologia snapshot, această caracteristică vă permite să creați imagini de sistem la nivel de bloc. Este posibil să restaurați atât folderele și fișierele individuale, cât și stările anterioare ale sistemului ca întreg.

MegaRAID SafeStore

Împreună cu sistemul de criptare SED (unități cu auto-criptare) încorporat în unități, oferă un nivel ridicat de securitate împotriva accesului neautorizat și a încercărilor de modificare a datelor.

Există două opțiuni pentru activarea funcțiilor enumerate. Prima este să folosiți o cheie hardware, adică un cip instalat direct pe controler. Al doilea este să introduceți cheia software prin consola RAIDweb sau prin snap-in MegaRAID Storage Manager, instalat direct în sistemul de operare. Opțiunile sunt echivalente din punct de vedere al rezultatelor, iar utilizatorul poate alege modalitatea cea mai convenabilă pentru el de a activa funcțiile.

Metodologia de testare

Metodologia noastră se bazează pe propria noastră experiență de mulți ani în lucrul cu software-ul server. Dar, așa cum este de obicei cazul, există o oarecare subiectivitate. Prin urmare, suntem pregătiți să perfecționăm metodologia împreună cu cititorii. Lasă-ți dorințele la sfârșitul articolului.

Noi am folosit Platforma Windows 2008 R2 și versiunea utilitarului IOMeter 2006.07.27 a fost folosită pentru a evalua subsistemul I/O.

La testare am folosit serverul Asustek RS720-E6. Configurația este prezentată în tabelul de mai jos.

Configurare server de testare Asustek RS720-E6
Componentă Caracteristici
Placa de baza ASUS Z8PE-D18
Microprocesor 2 x Intel Xeon E5620 (Westmere-EP), 2,40 GHz, 12 MB cache
RAM 12 x Samsung DIMM DDR3-1333 4 GB PC3-10600 ECC înregistrat M393B5273BH1-CH9
Hard disk-uri 7 x Hitachi Ultrastar 15K600 SAS-2.0 600 GB 15000 rpm 64 MB HUS156060VLS600
Unitate solidă Intel SSD 510 250 GB

Am alocat unul dintre cele șapte discuri pentru sistemul de operare. Carcasa serverului pe care am folosit-o suportă instalarea a 12 unități, dar datorită faptului că echipamentul său backplane nu conține un expander, iar controlerul este conectat prin cabluri SATA obișnuite cu 7 pini, am folosit doar 7 unități. De asemenea, am folosit un loc pentru un SSD pentru CacheCade.

Pentru testare am folosit șabloane gata făcute în IOmeter și anume WebServer, DataBase, FileServer, WorkStation. Am folosit, de asemenea, modele de citire/scriere aleatoare și secvențiale cu blocuri de date de diferite dimensiuni - de la 512 octeți la 1 MB cu un pas de două ori blocul anterior. Adâncimea cozii de comenzi a fost aleasă să fie de 30, ceea ce a făcut posibilă încărcarea subsistemului de disc. O adâncime mare în coada de comenzi este tipică pentru mediile corporative în care subsistemul de disc se confruntă cu o sarcină mare. O astfel de încărcare poate fi mașini virtuale și servere terminale. După cum se poate vedea din caracteristicile platformei noastre, aceasta este destinată în mod special sectorului corporativ. S-a descoperit experimental că 30 de comenzi este limita inferioară la care începe încărcarea crescută a subsistemului de disc. Au fost testate toate nivelurile RAID și modificările lor suportate de controler, cu și fără Cache Cade: 0, 00, 1, 10, 5, 50, 6. Nivelul 60 a fost o excepție, deoarece lipsa unui expander nu permitea instalarea a opt discuri.

În prima etapă, a fost testată performanța I/O a 14 configurații. Lista este prezentată în tabel.

Testați configurațiile RAID
RAID-00 4 discuri
RAID-00 + CacheCade 4 discuri
RAID-0 5 discuri
RAID-0 + CacheCade 5 discuri
RAID-1R 4 discuri
RAID-1 + CacheCade 4 discuri
RAID-5 5 discuri
RAID-5 + Cache Cade 5 discuri
RAID-6 5 discuri
RAID-6 + CacheCade 5 discuri
RAID-10 4 discuri
RAID-10 + CacheCade 4 discuri
RAID-50 6 discuri
RAID-50 + CacheCade 6 discuri

RAID-1 de patru discuri este similar cu RAID10, ceea ce este confirmat de teste.

În a doua etapă, am făcut mai multe măsurători cu mașini virtualeb, pentru care am implementat rolul Hyper-V și am lansat simultan 4 mașini virtuale cu Windows 7. Fiecare mașină virtuală corespundea unui șablon IOmeter: două servere web, de exemplu, un corporativ. (intern) și un server extern baze de date și server de fișiere. În acest fel, este posibil să observați funcționarea dispozitivului într-un scenariu real. S-a decis testarea performanței acestui test cu cea mai populară configurație de matrice din practică - RAID5. CacheCade a fost implicat.

Rezultatele testului

Cifrele detaliate pentru toate graficele pot fi găsite în.

Șablon de bază de date fără a utiliza CacheCade (CC)

Șablon FileServer fără a utiliza CacheCade (CC)

Șablon WorkStation fără a utiliza CacheCade (CC)

Șablon WebServer fără a utiliza CacheCade (CC)

În primele trei grafice, pozițiile de frunte sunt ocupate de RAID-0 și RAID-50. RAID-50 bate RAID-10. În graficul rezultatelor lucrului cu șablonul WebServer, RAID-50 este deja în frunte și toți ceilalți ajung din urmă în urma lui. Motivul pentru care RAID-50 preia conducerea este numărul de discuri - unul mai mult decât alte niveluri RAID, cu excepția RAID-6. În al doilea rând, în șablonul web, blocurile de date sunt doar citite, în ciuda faptului că citirea este efectuată aleatoriu. RAID-6 în toate șabloanele, cu excepția WebServer, este în general dificil, deoarece controlerul trebuie să calculeze suma de control pentru două discuri.

Să ne uităm la aceleași șabloane numai folosind CacheCade:

Testul este conceput pentru a arăta câștigul sau lipsa de performanță în operațiunile I/O

Șablon de bază de date folosind CacheCade (CC)

Șablon FileServer folosind CacheCade (CC)

Șablon WorkStation folosind CacheCade (CC)

Șablon WebServer folosind CacheCade (CC)

La compararea rezultatelor, se poate observa că graficele sunt aproape identice, dar este încă prezentă o ușoară creștere a numărului de operațiuni pe unele tipuri de matrice RAID, dar este atât de mic încât poate fi neglijat în aproape toate rezultatele.

De asemenea, este de remarcat faptul că pentru unele niveluri RAID rezultatele cu CacheCade s-au dovedit a fi, deși ușor, mai mici decât fără utilizarea acestuia. Acest lucru este evident mai ales în șablonul FileServer, la nivelurile RAID 00, 5, 6 și 10. Scăderea a fost cel mai puțin evidentă în șablonul WebServer - doar în RAID5 rezultatul a fost vizibil mai mic decât cel obținut fără Cache Cade. Este dificil de spus cu ce anume poate fi asociată această scădere. Putem presupune că acest lucru se întâmplă din cauza celor 20% din operațiunile de scriere specificate în setările șablonului.

Acum să vedem câtă memorie cache suplimentară este în formular unitate SSD va da o creștere a vitezei de citire și scriere secvențială. Este foarte posibil să pară de prisos, deoarece caracteristicile vitezei Matricele RAID sunt cel puțin comparabile cu cele ale unităților SSD unice. Oricum ar fi, testele vor arăta.

Citire secvențială, megaocteți pe secundă, fără a utiliza CacheCade

Graficul arată că RAID 0 ocupă primul loc, ceea ce este logic, deoarece citirea se realizează în paralel de pe mai multe discuri; pe 5 discuri, viteza maximă atinge 930 megaocteți pe secundă. Este urmat, aproape în egală măsură, de trei matrice: RAID5, RAID00 și RAID50, care au suferit o reducere a blocurilor de 16 KB. RAID1 și RAID10 arată rezultate identice, deoarece, așa cum am menționat mai sus, sunt în esență identice și își dezvăluie potențialul în acest test pe blocuri de 512 KB. RAID6 arată rezultate uniforme, începând cu blocuri de 4 KB în dimensiune.

Citire secvențială, megaocteți pe secundă, folosind CacheCade

Opțiunea care folosește Cache Cade dă rezultate aproape identice, singura diferență fiind că scăderea vitezei pe blocurile de 16 KB în cazul RAID50 se produce mai brusc. Se știe că viteza de citire depinde de dimensiunea benzii - o secvență continuă de blocuri de disc. Este posibil ca această defecțiune să fi fost influențată de dimensiunea sa, care este setată implicit la 64 KB pentru controlere și care a rămas neschimbată în timpul tuturor testelor. Este posibil ca accidentul să fi fost cauzat de firmware-ul controlerului care lucrează cu acest bloc la acest nivel RAID. Vom încerca să aflăm ce cauzează acest comportament al controlerului de la inginerii LSI.

Scriere secvențială, megaocteți pe secundă, fără a utiliza CacheCade

La scriere, sarcina pe discuri crește și, în consecință, viteza de scriere va fi mai mică în comparație cu citirea. Rezultatele sunt mai stabile - nu există astfel de eșecuri ca atunci când citiți. Când blocul de date înregistrate crește la 4-16 kbytes, viteza de înregistrare crește, apoi practic nu se schimbă.

Scriere secvențială, megaocteți pe secundă, folosind CacheCade

Din nou, rezultatele sunt foarte asemănătoare. Pentru unele blocuri din acest test, diferența a fost literalmente de 100 kB/s, și nu în favoarea CacheCade. Dar o astfel de diferență poate fi din nou neglijată. Singurele niveluri RAID care beneficiază de cache sunt RAID1 și RAID5. Viteza de scriere în cazul RAID1 crescută cu 100 MB/s în cazul blocurilor de 2 KB, iar în RAID5 - 50 MB/s cu blocuri de 8 KB.

Citire aleatorie, megaocteți pe secundă, fără a utiliza CacheCade

Citirea aleatorie nu este puternică, dar totuși a împărțit matricele RAID în trei grupuri diferite în funcție de rezultatele obținute. Acest lucru este vizibil la blocurile mari. În primul grup sunt RAID1 și RAID10, în al doilea - RAID0 și RAID00, în al treilea - RAID5, RAID50 și RAID6. În timpul citirii, matricele nu sunt supuse restricțiilor care apar la scriere - deducerea sumei de control (RAID5, 50 și 6) și duplicarea informațiilor (RAID1 și RAID10). Liderii aici sunt RAID1 și RAID10, deoarece au mai puține discuri în comparație cu alte niveluri RAID.

Citire aleatorie, megaocteți pe secundă, folosind CacheCade

Graficul este similar cu cel precedent, singura diferență fiind că tehnologia Cache Сade a crescut ușor viteza de lucru cu blocuri de 256 KB și 512 KB pentru RAID1 și RAID10.

Scriere aleatorie, megaocteți pe secundă, fără a utiliza CacheCade

Înregistrarea face propriile ajustări. Comparativ cu graficele anterioare, viteza a scăzut cu aproximativ 50 MB/s. Pe lângă faptul că capetele sunt forțate să „alergă” pe disc în căutarea datelor într-o manieră haotică, introducând întârzieri, au impact și parametrii matricelor RAID care asigură fiabilitatea acestora (sume de control și duplicare).

Scriere aleatorie, megaocteți pe secundă folosind CacheCade

Din nou, variațiile sunt minime. În modelele de scriere aleatoare, memoria cache SSD încearcă să mărească performanța subsistemului de disc, dar întâmpină dificultăți. În ciuda performanței ridicate a SSD-urilor în timpul scrierilor aleatorii, totul se reduce la calcularea sumelor de control suplimentare (RAID5, 50 și 6), duplicarea informațiilor (RAID1, 10) și numărul de discuri (RAID0, 00) - un SSD nu va ajutați cu aceste sarcini generale.

Acum să ne întoarcem la rezultatele măsurării numărului de operațiuni I/O.

Citiri secvențiale, operații pe secundă, fără a utiliza CacheCade


Citiri secvențiale, operații pe secundă, folosind CacheCade

Scrieri secvențiale, operații pe secundă, fără a utiliza CacheCade

Operații de scriere secvențială pe secundă folosind CacheCade

Graficele arată că CacheCade își dezvăluie întregul potențial atunci când lucrează cu operațiuni I/O secvențiale. Diferența dintre testele cu și fără CacheCade pentru unele blocuri de date este de peste 100.000 de operații pe secundă. De exemplu, pentru RAID5, în cazul citirii, este de 275.000 IOPS cu CacheCade față de 167.000 IOPS fără cache. Dar acest lucru nu este valabil pentru toate nivelurile RAID, de exemplu pentru RAID0, RAID10, RAID6 puteți observa o diferență care nu este în favoarea CacheCade. De ce se întâmplă acest lucru, ne este greu să răspundem. Vom pune întrebarea specialiștilor LSI și, după ce am primit un răspuns, vom adăuga precizări articolului.

Citire aleatorie, operații pe secundă, fără a utiliza CacheCade

Operații de citire aleatoare pe secundă folosind CacheCade

Scriere aleatorie, operații pe secundă, fără a utiliza CacheCade

Operații de scriere aleatoare pe secundă folosind CacheCade

Operațiunile arbitrare nu beneficiază de utilizarea CacheCade.

Teste de mașini virtuale

Rezultate pentru o mașină virtuală

Rezultatele pentru patru lucrează simultan mașini virtuale.

În general, ideea noastră de a testa mașinile virtuale se încadrează în categoria „de ce nu încercați?”. Am încercat să ne uităm la funcționarea controlerului în condiții practice apropiate de „luptă”.

Rezultatele testului mașinii virtuale nu ne-au surprins. Singura diferență care mi-a atras atenția se referă la rezultate puțin mai mari în șabloane gata făcute(Bază de date, FileServer și WebSer). Poate că motivul constă în modul în care funcționează mașina virtuală subsistem de disc. Când lucrați direct cu subsistemul de disc, o matrice nealocată (Raw) a fost transmisă utilitarului de testare IOmeter. În cazul lucrului cu o mașină virtuală, matricea a fost mai întâi formatată (dimensiunea clusterului 4 KB), apoi a fost alocat un pool pentru fiecare mașină virtuală prin crearea unui fișier *.VHD cu o capacitate de 100 GB, care a acționat ca un disc. pentru mașina virtuală. Se poate presupune că acest lucru a permis cumva rezultate sporite în șabloanele standard.

Cu toate acestea, atunci când rulați simultan patru mașini virtuale, rezultatele, așa cum era de așteptat, au fost reduse cu aproximativ patru. Numărul de mașini virtuale nu l-am ales întâmplător - patru mașini virtuale au apărut în recomandările angajaților VmWare și Microsoft.

Concluzie

Pe baza rezultatelor testelor, ne-am convins că tehnologia CacheCade funcționează, cu unele rezerve, dar își îndeplinește funcțiile. Rezultatele testelor noastre au fost puțin mai mari decât cele existente în rețea pentru controlerul 9260-8i. Acest lucru nu are legătură cu particularitatea instanței de controler pe care am primit-o, deoarece nu diferă de fratele său în altceva decât Cache Vault - nici în viteza memoriei, nici în caracteristicile procesorului, nici în alți parametri. Mai degrabă, rolul a fost jucat de componentele productive pe care le-am folosit: noua platforma, discuri rapide(15.000 rpm) cu interfață SAS2 și, bineînțeles, cu funcția CacheCade, deși controlerul dă rezultate bune fără ajutorul unui SSD.