Розширення портів RAID контролера SAS. Розширення портів RAID контролера SAS Raid контролери lsi

06.05.2020 Програми

Тяжке і невдячне це заняття - тестування RAID-контролерів. Звичайно, дещо рятує ситуацію те, що процес тестування досить непогано автоматизується, але все ж таки тимчасові витрати виходять вкрай високі. Причини прості: тестів багато і йдуть вони довго, плюс кількість циферок, що отримуються, м'яко кажучи, велика. Як би там не було, за минулі півроку через наші руки пройшли шість SAS RAID-контролерів останнього покоління, по одному від кожного великого виробника і ми не можемо утриматися від того, щоб не "зіштовхнути їх лобами" в одній зведеній статті. Тим більше, що зараз на ринку контролерів утворилося деяке затишшя: існуючі моделі досить успішно справляються з навантаженнями, шина PCI-Express витіснила з ринку PCI-X, а зміна інтерфейсів накопичувачів закінчилася повною та беззастережною перемогою послідовного SAS (і сумісного з ним SATA) над паралельними SCSI та PATA. Звичайно, на горизонті вже маячить SAS 2.0, зі збільшеною з 3 Гбіт/с до 6 Гбіт/с пропускною спроможністю, але поки що він тільки в перспективі, а у виробників контролерів видався час для деякого перепочинку. Звичайно, вони не витрачають його задарма - із завидною регулярністю усі вони випускають оновлення прошивок, прибираючи з них прикрі недоробки та збільшуючи продуктивність. Відразу обмовимося: ми порівнюватимемо контролери саме з тими прошивками, які були найсвіжішими на момент потрапляння контролерів до наших рук. Це, можливо, не дуже коректно, оскільки ставить останніх «гостей» у дещо вигідніше становище, але слово честі, у нас немає можливості одночасно протестувати одразу шість контролерів.

Перш ніж почати порівнювати контролери, хотілося б спершу пояснити, а яких, власне, результатів ми від них очікуємо. Насамперед, звичайно ж, стабільності роботи та максимальних результатів, бажано передбачуваних. На жаль, стабільність роботи відноситься до вкрай важко перевіряються - якщо на нашому тестовому стенді всі контролери працювали без проблем, то в мережі можна зустріти нарікання, в більшості випадків пов'язані з проблемністю деяких поєднань певних моделей контролерів і дисків. На жаль, ми не в змозі перевірити всі можливі варіанти - керуйтеся офіційними документами про сумісність або... чи дійте на свій страх та ризик. Звичайно, це буде слабкою втіхою тим, кому «не пощастить», але все ж таки: сучасні контролери схильні до незрозумілих «глюків» набагато меншою мірою, ніж їхні попередники. Що ж до продуктивності контролерів, то в даному випадку є кілька пунктів, які хочеться обговорити особливо, оскільки ми намагаємося з регулярністю звертати на них увагу.

Найпростіше говорити про масиви RAID0 - це найпростіший для контролерів варіант, у ньому необхідно лише коректно справлятися з навантаженням, і показувати максимальні швидкості в лінійному читанні та здійснювати якнайбільше операцій на секунду при випадковому характері звернень. Окремим рядком йдуть багатопотокові навантаження та операції з файлами. Як показує практика, всі контролери втрачають швидкість на кількох потоках, але має велике значення те, наскільки велике це зниження. Особливо складною для контролерів є ситуація, коли запити йдуть з мінімальною глибиною черги – більшість контролерів у таких, здавалося б, щадних умовах демонструє несподівано. низькі швидкості. Поруч стоїть проблема швидкостей, досягнутих на реальних файлах - як правило, вони помітно нижчі від тих, що ми бачимо в синтетичних тестах. Деколи доходить до абсурду - один і той же файл або набір файлів контролер може записати швидше, ніж рахувати. Звичайно, в цьому є певна заслуга буферної пам'яті контролерів, що виросла до значних обсягів в 256, а то й 512 МБ, але все ж таки - всі наші тестові навантаження розраховані за обсягом таким чином, що поміститися в кеш цілком вони не можуть. Так що відповідальними за такі екзерсиси з продуктивністю все ж таки варто вважати алгоритми прошивок.

Дещо складнішими для контролерів є масиви з використанням дзеркальних пар: RAID1, RAID10 та RAID1E. До речі, якщо ви не знайомі з останнім із них, то рекомендуємо заповнити цю прогалину. Для них залишаються в силі всі ті моменти, про які ми щойно говорили і додається кілька своїх, вкрай характерних саме для масивів із дзеркалюванням.

Насамперед це вміння контролера читати дані відразу з обох дисків у дзеркальних парах. На одному з дисків головка завжди буде трохи ближче до шуканого сектора, а значить дані з нього надійдуть трохи швидше. В результаті, контролер, який досконало володіє цією технологією, має помітну перевагу на випадковому читанні: його масив RAID10 з точки зору продуктивності, не вироджується в RAID0 з удвічі меншого числа дисків, а цілком здатний боротися з RAID0 з такого ж числа дисків (а часом і обганяти його).

Другий характерною особливістю, Яку ми завжди відзначаємо, є вміння (або відсутність такого) розпаралелювати лінійне навантаження читання на два диски дзеркальної пари. Якщо у разі досить тривалого послідовного читання не просто одночасно і «симетрично» читати з обох дисків, а кожен парний запит відправляти на один диск, а непарний - на інший, ми маємо чудову можливість отримати відчутну додаток у швидкості лінійного читання. Зазвичай, розмір цієї добавки дуже залежить не тільки від розміру файлу, але і від того, блоками якого розміру йдуть запити. Природно, що нам дуже хотілося б, щоб збільшення було більше, а необхідний розмір блоків - менше.

Нарешті, третьою характерною особливістю є вміння розпаралелювати багатопотокове навантаження на різні дискиу дзеркальних парах. Якщо контролер зумів розпізнати характер навантаження, тобто визначити, що з нього читають, скажімо, два лінійних потоки, то для нього вкрай бажано направити кожен потік на один окремий диск із дзеркальної пари. Думаю, не варто докладно розписувати, що це здатне дати значний приріст продуктивності.

Що ж у результаті? Масиви із дзеркалюванням не такі вже й прості - алгоритми контролера повинні ефективно вміти розпізнавати характер навантаження та застосовувати відповідні оптимізації, щоб цілком і повністю задовольнити наші запити. І не варто вважати, що ми хочемо занадто багато - всі ці алгоритми існують вже близько десяти років, з'явившись ще на ATA-контролерах з вкрай слабкими, за сучасними мірками, процесорами.

Нарешті, масиви з обертовою контрольною сумою RAID5 і RAID6. З одного боку, останньому поколінню контролерів стало значно простіше з ними справлятися - сучасні високопотужні процесори, що використовуються в них, досить легко справляються з розрахунком контрольних сумнавіть якщо їх не одна, як у RAID5, а дві як у RAID6. З іншого боку - набагато гостріше стали відчуватися недоліки алгоритмів - якщо раніше вони ховалися на тлі недостатньої швидкості розрахунку XOR, то тепер вийшли на перший план. Адже саме ці типи масивів стають все більш затребуваними - мало хто згоден втрачати половину дискової ємності на організацію масивів з дзеркалюванням, при цьому обсяги інформації, що вимагає захищеного від збоїв зберігання, зростають лавиноподібно. Популярність RAID6 викликана досить простими причинами. Сучасні масиви досягають просто приголомшливих обсягів - навіть якщо не брати зовсім нові диски, ніхто не заважає побудувати 30-ТБ масив з, припустимо, дисків Seagate ST31000640SS із SAS-інтерфейсом. І якщо один із дисків такого масиву приходить у несправність, то відновлення такого масиву займає зовсім не кілька годин, а кілька (а то й десятки) днів. І щоб не ризикувати в цей час інформацією (а ступінь ризику в такому випадку досить велика), застосовують не RAID5, а саме RAID6, здатний перенести вихід з ладу не одного, а одразу двох дисків. Так, швидкість падає катастрофічно, але все ж таки, часто це виявляється більш відповідним варіантом, ніж використання масивів з дзеркалюванням, оскільки їхня корисна ємність при тій же кількості дисків майже вдвічі менша.

І перш ніж закінчити цей вступ, хотілося б відповісти на досить популярне запитання: «А чи стоять ці контролери такої уваги, якщо можна піти і взяти твердотілі накопичувачі SSDна флеш-пам'яті, що демонструють приголомшливу продуктивність?» Так, стоять. Вартість зберігання інформації на дисках поки що в рази (точніше, на порядок) нижча, ніж на SSD. Знову ж таки, обсяги SSD поки ще дуже невеликі, так що брати їх для серйозної системи доведеться кілька, а в такому випадку їх краще підключати через ті ж RAID-контролери. Та й у питанні продуктивності не все так просто - якщо на читанні багатоканальні (так-так, саме час запитуючим замислитися про те, як утворюється ця сама багатоканальність) SSD свідомо краще за будь-який масив дисків, то ось на записі дискові масиви поки не збираються відступати на другий план. А у поєднанні з тим, що SSD мають обмежену кількість операцій перезапису, це призводить до того, що дискову підсистему, здатну впоратися з великою кількістю запитів на запис, будувати краще все ж таки на RAID-масиві з SAS-дисків. І дешевше, і надійніше.

Учасники тестування

Отже, зустрічайте героїв сьогоднішнього огляду:

3ware 9690SA-8I із єдиним пакетом 9.5.1
Adaptec RAID ASR-5805 з прошивкою 5.2.0 build 16116 та драйверами 5.2.0.15728
Areca ARC-1680ix-16 з прошивкою 1.46 та драйверами 20.0.14
HighPoint RocketRAID HPT4320 з прошивкою 1.2.12.11 та драйверами 1.2.19.4
LSI MegaRAID SAS 8708EM2 з прошивкою 9.1.1-0013 та драйверами 2.20.0.32
Promise SuperTrak EX8650 з прошивкою SR1 1.04 та драйверами SR1

За бажанням, за посиланнями ви можете побачити докладний огляд кожного контролера, тому тут ми обмежимося лише короткими загальними словами. Все більше помітне прагнення виробників до уніфікованості - вони намагаються випускати контролери великими серіями з єдиним дизайном, що відрізняються, за великим рахунком, лише кількістю портів, об'ємом пам'яті та частотою процесора. Втім, остання не відрізняється - чотири з представлених тут шести моделей використовують двоядерний процесор Intel IOP81348: у контролерах Areca, Adaptec і HighPoint стоїть версія з частотою 1,2 ГГц, а в Promise - 800-МГц варіант. Компанії 3Ware і LSI поки що дотримуються власних розробок: у контролері 3ware стоїть AMCC Power PC405CR з частотою 266 МГц, а LSI - LSISAS1078 (також з архітектурою PowerPC), що працює на 500 МГц.

Значне зниження вартості оперативної пам'ятівикликало закономірне зростання буферної пам'яті на контролерах. Так, 128 МБ у нас присутній лише у LSI, у HighPoint і Promise її вже 256 МБ, а в інших 512 МБ.

Більше того, у контролері Areca пам'ять не впаяна, а встановлена ​​окремою планкою. Втратити такий шанс ми не могли – цей контролер двічі пройшов усі тести: з базовим об'ємом пам'яті 512 МБ та з встановленим 2-ГБ модулем. Право слово, результати вийшли вкрай несподівані.

Всі контролери підтримують переважну більшість найпопулярніших типів масивів, у тому числі і дворівневих, наприклад RAID50. Звичайно, можна ретельно пошукати різницю, і знайти, що хтось вміє RAID3, а хтось не знає про існування RAID1E, але це важко зарахувати за серйозні відмінності, оскільки цікаво лише вузькому колу користувачів. Також у всіх шести піддослідних у наявності по серйозному набору драйверів під різні операційні системи. Кожен з них може похвалитися і досить розвиненою системою управління, спостереження та налаштування з-під операційної системи. Всі ці системи використовують мережеві протоколи, забезпечуючи взаємодію не тільки з локальними, але і з віддаленими, тобто контролерами, що знаходяться на інших машинах. До речі, саме наявність інфраструктури, що вже існує, найчастіше визначає вибір марки контролера при створенні чергової підсистеми: набагато зручніше мати зручне і логічне централізоване управління, ніж підтримувати одночасно обладнання декількох марок.

Всі перелічені контролери підтримують установку батареї живлення кешу (BBU) - ми вам рекомендуємо завжди користуватися нею. Повірте, її вартість набагато нижча за вартість інформації, що зберігається на масиві, яку ви ризикуєте втратити у разі будь-якого перебою з харчуванням при включеному відкладеному записі. Що ж відбувається з продуктивністю при відключенні відкладеного запису, ви можете побачити на прикладі результатів Promise. У цьому контролері неможливо активувати відкладений запис, якщо немає батареї, а останній на наших задвірках всесвіту за півроку так і не з'явився. Так, це ставить контролер у свідомо програшне становище, але що вдієш.

Методика тестування

Під час тестування використовувалися такі програми:

IOMeter версії 2003.02.15;
WinBench версії 99 2.0;
FC-Test версії 1.0;

Тестова система була такою:

корпус Intel SC5200;
системна плата Intel SE7520BD2;
два процесори Intel Xeon 2,8 ГГц на 800-МГц системній шині;
2 х 512 МБ регістрової пам'яті DDR PC3200 ЕСС
жорсткий диск IBM DTLA-307015 об'ємом 15 ГБ як системний диск;
відеокарта - вбудоване відео ATI Rage XL
операційна система Microsoft Windows 2000 Professional SP4

Контролери під час тестів встановлювалися у слот PCI-Express x8 на материнській платі. Для тестування використовувалися жорсткі диски Fujitsu MBA3073RC, встановлені в штатні санки корпусу SC5200 та закріплені в них чотирма гвинтами за нижню грань. Усі контролери тестувалися з використанням восьми жорстких дисків у наступних режимах:

RAID0;
RAID10;
RAID5;
RAID6;

На жаль, нам довелося відкласти в бік результати на масивах з чотирьох дисків, а також показники масивів, що деградували, - даних і без того буде найчудовіше.

Розмір страйпу на масивах всіх типів задавався рівним 64 кБ.

IOMeter: Database

Як завжди, почнемо з, мабуть, найцікавішого з погляду навантаження на контролер, тесту – "Database", за допомогою якого ми з'ясовуємо здатність контролерів працювати з потоками запитів на читання та запис 8-кБ блоків даних із випадковою адресацією. У ході тестування відбувається послідовна зміна відсоткового співвідношення запитів на запис від нуля до ста відсотків (з кроком 10%) від загальної кількості запитів та збільшення глибини черги команд від 1 до 256.

Численні результати вимірів тут і далі ви можете, за бажання, знайти в попередніх статтях, присвячених докладним оглядамкожного контролера, ми ж працюватимемо лише з графіками та діаграмами.

Отже, мінімальне навантаження, тобто глибина черги запитів дорівнює одиниці.

Здавалося б, ну звідки може взятися різна різниця в RAID0, на найпростішому навантаженні? Відповідь проста - відкладений запис. Якщо на читанні всі масиви дуже схожі, то при великій кількості запитів на запис виграватиме той, хто зможе швидше і більше «заховати» в буферній пам'яті, а потім швидко «розкидати» це по дисках. У цій категорії абсолютним лідером стає Adaptec, а програвші йдуть LSI і Promise.



Схожу картину ми спостерігаємо і у випадку RAID10 - ті самі лідери і програли в зоні навантажень з великою часткою запитів на запис. Особливо погано почувається LSI - відверто пасуючи перед чистим записом.

Однак, з'явилася різниця і на читанні - причиною тому є та сама вибірка вдалого диска в дзеркальних парах. У даному випадку свідомо краще за інших виявився HighPoint. У разі чистого читання чудовий ще й LSI, але він гірше справляється зі змішаними навантаженнями.



А ось і пішли масиви з парністю, що обертається. Одна справа записати одиночний блок у разі масивів RAID0 і RAID10, і зовсім інша - при використанні RAID5, адже кожна операція запису насправді перетворюється на читання двох блоків, дві операції XOR і дві операції запису. Очевидно краще за інших це випробування проходить Adaptec. Непоганий і контролер 3ware у разі чистого запису, але на змішаних навантаженнях він помітно поступається конкурентам. А ось аутсайдерами стали HighPoint, у якого явні проблеми з кешуванням запитів і Promise, зовсім позбавлений відкладеного запису. Катастрофічне падіння продуктивності в останнього складно не помітити.



Точно таку ж ситуацію ми спостерігаємо і в RAID6, лише зменшилися абсолютні значення, але поведінка контролерів залишилася тим же, що і в RAID5. Додавання до алгоритму розрахунку другої контрольної суми та її запис знижує швидкість, але вже не вносить радикальних змін, оскільки потужності процесорів цілком вистачає.

Але ми змарнували поведінку контролера Areca з 2 ГБ встановленої пам'яті. Втім, це й не дивно – його результати практично точно у всіх випадках повторюють дані, отримані з 512 МБ пам'яті. То що ж рекордів швидкості не буде?

Але давайте збільшимо навантаження до 16 запитів у черзі.



У RAID0 контролери демонструють разючу одностайність - чотири графіки практично зливаються. Але Adaptec явно виділяється своїм ефективнішим відкладеним записом. І списати це на більший обсяг пам'яті неможливо - у 3ware і Areca її як мінімум не менше (так, додаткові 1,5 ГБ знову себе ніяк не виявляють), а в останньої ще й процесор такий самий.

У програли знову пішли LSI і Promise, але варто відзначити, що програш не такий вже й великий.



Ух ти, яке різноманіття характерів дають різноманітні поєднання алгоритмів відкладеного запису, переупорядкування запитів та вибірки кращого диска. На записі знову "попереду планети всієї" Adaptec - цей контролер явно намірився довести, що у нього найкращий відкладений запис. А ось LSI на записі відверто поганий – у нього явні проблеми із кешуванням. І навряд це можна виправдати мінімальним, серед присутніх, обсягом пам'яті.

Зате той самий LSI успішно бореться з HighPoint і 3ware за медаль «відмінне читання з дзеркальних масивів». Зверніть увагу наскільки великий відрив цих трьох масивів від конкурентів.

Одні контролери для запису, інші читання - планування підсистеми сервера вкрай непогано починати з визначення характеру майбутнього навантаження. Втім, універсалом у разі можна назвати 3ware - його результати стабільно хороші у всьому діапазоні.



Наявність черги дозволяє контролерам у тому мірою успішно кешувати запити чи виконувати кілька дій одночасно. Наскільки успішно? По-різному: Adaptec тримається молодцем, а ось HighPoint справляється із записом майже вдвічі гірше (зауважте, при такому самому процесорі), але хоча б вже не провально, як це було у разі мінімальної глибини черги. Ну і можна лише поспівчувати Promise – без відкладеного запису йому доводиться вкрай тяжко.



І знову схожу ситуацію ми бачимо у разі RAID6. Правда, з'явився один цікавий момент: при всьому своєму чудовому записі Adaptec у разі переважної переваги запитів на читання програє решті. Закономірність чи випадковість – подивимося на важких навантаженнях.

На жаль, практично нема чого говорити про 2-ГБ варіант Areca - збільшений обсяг пам'яті себе не виявляє взагалі ніяк. Дивна, вкрай дивна поведінка.



З тяжкими навантаженнями всі контролери успішно впоралися, але кожен по-своєму. Adaptec, як і раніше, успішно демонструє кращі здібності по запису, 3ware захопив лідерство на читанні, а Areca акуратно вліз між ними на змішаних навантаженнях, продемонструвавши, мабуть, найбільш урівноважену поведінку.



Смішно, але подібна розстановка сил склалася і у разі масивів RAID10. Стан лідерів залишився взагалі без змін, та якщо з інших виділився LSI. Причому, не на краще - його проблеми із записом на тяжкому навантаженні виявились у дуже серйозне падіння продуктивності на всіх навантаженнях, де є операції запису.



Величезна глибина черги стала рятівною для Promise - на таких глибинах черги частина сортування запитів відбувається ще в драйвері до вступу до контролера, що дозволило контролеру підтягнути свої результати до рівня HighPoint.

Adaptec, як і раніше, лідирує на записі... і знову, як у випадку RAID6 з глибиною в 16 запитів, не так вже й хороший при переважній перевагі читання. Мабуть, це справді особливість його роботи – всі сили кинуті на запис.



У випадку RAID6 лідери знову ті ж, а ось у явні аутсайдери спустився HighPoint - мабуть, щось з алгоритмами у нього все ж таки не в порядку, десь у них є серйозні і безпричинні витрати ресурсів.

IOMeter: Disk Response Time

Для вимірювання часу відгуку ми протягом десяти хвилин за допомогою IOMeter відправляємо на накопичувач потік запитів на читання або запис блоків даних по 512 байт при глибині черги вихідних запитів, що дорівнює одиниці. Кількість запитів, оброблених накопичувачем, перевищує шістдесят тисяч, так що ми отримуємо усталений час відгуку накопичувача, що не залежить від обсягу буферної пам'яті.


Час відгуку читанні - досить кумедна величина. З одного боку, вона дуже коротко характеризує продуктивність дискової підсистеми, винести лише на підставі неї будь-яке судження практично неможливо. А з іншого - саме ця величина характеризує швидкість реакції накопичувача, те, наскільки швидко він відгукнеться на запит і дозволить системі використати отримані дані. У разі RAID-масивів ця величина в першу чергу залежить від часу відгуку накопичувачів, що використовуються. Але, як не складно бачити, від контролера вона теж залежить: борються за звання кращих 3ware і Areca небагато, але все ж таки виграють у решти - їх відрив від гіршого (яким став Promise) складає близько половини мілісекунди. Здавалося б, які дрібниці, але як їх складно отримати, ці самі 0,5 мс виграшу, якщо час відгуку менше 7 мс. Як не крути, а 8% виграшу ці два контролери записали на свій рахунок.

Окремих слів заслуговують на успіхи HighPoint і LSI на масивах з використанням дзеркалювання. За рахунок вкрай ефективного вибору "вдалого" диска в парах ці контролери зуміли відіграти ще по одній мілісекунді. Чудовий результат, відмінні алгоритми - решті виробників явно варто звернути увагу на ці досягнення. Зазвичай, саме масиви RAID10 використовуються для зберігання баз даних і якщо ваша база не вміщується повністю в оперативну пам'ять сервера, то не варто нехтувати такою приємною можливістю покращити її продуктивність.


У разі часу відгуку при записі лідера було досить легко передбачити - ним закономірно став Adaptec, який протягом усього тесту IOMeter: Database демонстрував чудову продуктивність на записі. Потроху, але всіх масивах саме цей контролер виграє в рівних за класом конкурентів.
Відверто засмучують результати HighPoint і Promise на масивах RAID5 і RAID6 - проблеми з відкладеним записом у першого видно неозброєним поглядом, а її відсутність у другого вилилося в жахливе (більше, ніж на порядок!) збільшення часу відгуку.

Цікаво виглядають результати Areca з 2 ГБ пам'яті: у трьох випадках вони знову повторюють значення, отримані з 512 МБ, але в RAID6 2 ГБ виглядають вже помітно виграшніше. Можливо, контролеру просто не вистачає навантаження, щоб повноцінно використовувати ці самі 2 ГБ - з певної точки зору, контролери у нас працюють у режимі, що щадить, на кожен диск припадає по окремому каналу даних, експандери не використовуються. Можливо, що ми б побачили всю міць 2 ГБ пам'яті в тих випадках, коли на кожному каналі висить по кілька дисків і пропускної спроможності 3 Гбіт/с на всіх не вистачає (повірте, ситуація зовсім не умоглядна - саме таке і відбувається в тих випадках, коли на один зовнішній роз'єм вішається полиця із двома десятками дисків). Але на жаль, у нас немає можливості перевірити наше припущення, а поки що 2 ГБ себе ніяк не виявляють.

IOMeter: Random Read & Write

Оцінимо тепер залежності продуктивності контролерів у режимах читання та запису з довільною адресацією від розміру використовуваного блоку даних.

Результати, отримані під час роботи з випадковою адресацією даних, ми розглядаємо у двох варіантах. На блоках малого розміру будуються залежності кількості операцій за секунду від розміру використовуваного блоку. А на великих блоках замість кількості операцій як критерій продуктивності використовується швидкість, виміряна в Мегабайтах за секунду. Такий підхід дозволяє оцінити роботу масивів відразу у двох типових випадках навантаження: робота малими блоками характерна для баз даних і для неї більш важлива кількість операцій на секунду, ніж звична швидкість; а ось робота великими та дуже великими блоками близька до реальній роботіз файлами малих розмірів і тут вже на перший план виходить саме швидкість у звичних мегабайтах за секунду.

Почнемо із читання.



Добре йдуть, щільненько! Так, у RAID0 особливої ​​різниці чекати і не доводиться. І все ж, Areca і 3ware справляються з невеликими запитами трохи краще за інших.



У RAID10 свою незаперечну перевагу демонструють LSI та HighPoint – чудові алгоритми читання з дзеркальних пар цих контролерів не залишають конкурентам жодних шансів. Серед інших трохи кращими результатами виділяється 3ware, причому його виграш зростає зі збільшенням розміру використовуваних блоків.






У разі масивів RAID5 і RAID6 всі контролери знову лягли щільною групою - оптимізувати взагалі нічого, знай вихоплюй інформацію по черзі з дисків, а про контрольні суми можна і не згадувати.



На великих блоках навіть у випадку RAID0 починає з'являтися помітна різниця - позначається вплив лінійних швидкостей та попереджувального читання. В результаті лідерство захоплює LSI, а трохи позаду тримається 3ware. З визначенням тих, хто програв все складніше - на блоках, розміром кілька мегабайт, невдало виступають HighPoint і Areca, але потім вони дуже бадьоро набирають швидкість, в результаті впевнено обганяючи Promise і Adaptec.

Areca знову робить сюрпризи: з 512 МБ пам'яті вона читає швидше, ніж з 2 ГБ. У нас є лише одне припущення: збільшений обсяг кешу збільшив затримки на пошук у ньому, що викликало цей ефект. Ми не претендуємо на істину, але інших пояснень ми просто не бачимо.



На масивах RAID10 під час читання порівняно великих блоків вибір вдалого диска не є виграшною стратегією й у результаті бачимо зміну лідерів. На перше місце вибрався 3ware, за яким прилаштувався LSI.

Відверто розчаровує Areca – в обох випадках вона показує відверто малозрозуміле зниження швидкості. Мабуть, і в її прошивці є недоробки, і ми їх зараз бачимо.



Розташування сил RAID5 повторює бачене RAID0, що, загалом, і не дивно.



Не сильно вона змінюється і в RAID6, хіба що Adaptec дещо випадає на великих блоках із загальної картини, недостатньо швидко набираючи швидкість.

Перейдемо до операцій запису із випадковою адресацією.



А тут уже у чистому вигляді працює запис. Причому, зважаючи на все, виграє той, хто тримає одночасно Велика кількістьліній кешування. У результаті перше місце за явною перевагою дістається Adaptec - він наполягає, що його запис найкращий ось уже не перший тест. У явні програли пішли LSI та Promise.

Цікаво, що Areca з 2 ГБ знову програє аналогу з меншою пам'яттю (який там виграш через більший обсяг, що ви). Невже і це викликано пошуком у пам'яті, що ускладнився?



Схоже, що про лідера на записі можна вже й не говорити. А ось про тих, хто програв - ще як варто. Якщо низький результат Promise можна пояснити відсутністю у нього відкладеного запису, то якими недоробками викликано настільки серйозне падіння продуктивності у LSI в RAID10 - нам невідомо.






У масивах RAID5 і RAID6 контролери поводяться дуже схоже. Відверто лідирує на малих блоках Adaptec, за яким з великим відставанням йде 3ware. В останнього ми бачимо цікаву особливість: на блоках по 512 байт його продуктивність нижча, ніж на 2-кБ блоках - мабуть, в даному випадку ми бачимо саме межу продуктивності своєрідної архітектури цього контролера. Втім, ці особливості не йдуть у жодне порівняння з проблемами HighPoint та Promise. HighPoint не може впоратися із записом дуже дрібних блоків - при зниженні розміру блоку нижче 32 кБ його продуктивність дуже помітно падає. Процесор у нього такий самий, як і в Adaptec – справа явно не в його потужності. Контролер Promise ще гірший - без відкладеного запису він просто захлинається під потоком дрібних запитів.



На записі великих блоків бачимо чудове розмаїтість характерів. Насамперед, хочеться відзначити проблеми Adaptec - наскільки чудово цей контролер справлявся з потоком дрібних блоків із випадковою адресацією, настільки ж погано йому дався запис великих блоків. Таке враження, що у нього обмежувач швидкості на 120 МБ/с. Повністю схожий з ним за параметрами Areca, навпаки, виривається на перше місце. При цьому той же Areca з 2 ГБ пам'яті вже помітно гірше, і, здається, теж знайшов свій обмежувач.

Нарешті, LSI і Promise демонструють малозрозуміле, проте синхронне зниження швидкості на 512-кБ блоках. При цьому якщо Promise потім, зі збільшенням блоку, прагне прагнути наздогнати лідерів, то LSI веде себе зайво скромно. Чому ці контролери мають проблеми із записом повних страйпів (на восьми дисках по 64 кБ ми якраз і набираємо 512 кБ) нам абсолютно незрозуміло.



На записі в RAID10 таких серйозних проблем немає вже ні в кого, хіба що Promise знову демонструє зниження швидкості в тій же області. Лідер знову Areca, причому цього разу - синхронно, в обох варіантах.






А на масивах із записом контрольних сум перед нами знову розбрід і хитання, хоч і не настільки сильні. Знову в незрозумілі бар'єри вперлися Adaptec і Areca з 2 ГБ пам'яті, а RAID6 до них приєднався ще й LSI. Помітно гірше за «успішних» контролерів (які, до речі, йдуть щільною групою) проходить тест Promise. Запис великих блоків дає йому можливість працювати повними страйпами, що дещо виправляє ситуацію з відсутністю у нього відкладеного запису (нагадаю, що при записуванні повного страйпу контрольна сума розраховується лише один раз на весь страйп, що різко знижує накладні витрати), але все ж таки не в силах дотягнути його продуктивність рівня інших.

IOMeter: Sequential Read & Write

Оцінимо можливості контролерів у послідовних операціях. У цьому тесті на накопичувачі подається потік запитів із глибиною черги команд, що дорівнює чотирьом. Раз на хвилину розмір блоку даних збільшується. У результаті ми отримуємо можливість простежити залежність лінійних швидкостей читання та запису масивів від розмірів використовуваних блоків даних та оцінити максимальні доступні швидкості.



Максимальну швидкість читання RAID0 всі контролери, крім 3ware (на результатах якого явно позначилися особливості архітектури), продемонстрували на одному рівні. Але досягли вони її на блоках різного розміру: Areca і HighPoint, що стали лідерами, вийшли на неї вже на 16-кБ блоках, LSI знадобився розмір вже 64 кБ, Adaptec - 128 кБ, а Promise і зовсім 512 кБ (повний страйп з восьми дисків по 64 кБ).



Лінійне читання з RAID10 наочно демонструє вміння контролерів розпаралелювати читання на два диски у дзеркальних парах. Ідеальна поведінка продемонструвати не зміг ніхто, але явно краще і швидше за інших у цьому тесті Areca (до речі, зауважте, що з 2 ГБ пам'яті, що з 512 МБ - ми знову бачимо однакові результати). Їй знову належить і лідерство за швидкістю читання блоками малих розмірів. Непогано поводяться ще й Adaptec і HighPoint, але останній занадто вимогливий до розміру блоку. А ось Promise, LSI та 3ware у цьому тесті відверто розчаровують.






Не змінюється розташування сил і при читанні з масивів RAID5 і RAID6 - наскільки добре Adaptec справлявся з випадковим записом, настільки Areca і HighPoint чудово поводяться на лінійному читанні.

Відверто розчаровує 3ware - у нього максимальна швидкістьнижче, ніж в інших, і малих блоках швидкість невисока. І на дуже великих – явні проблеми.



На записи RAID0 в лідери виходить HighPoint. Areca тримається близько, але все-таки трохи гірше. Причому тільки варіант з 512 МБ пам'яті - 2-ГБ варіант несподівано втратив швидкість взагалі. Що з ним трапилося і чому ми не можемо навіть припускати. Втім, такі ж проблеми спіткали Adaptec - він вкрай повільно пише, немов у нас не масив, а одиночний диск.



Ті ж проблеми у Areca з 2 ГБ пам'яті та на записі в RAID10. А ось Adaptec веде себе дивно - він найкращий із «середнячків» на малих блоках, при цьому найкращий в абсолютному заліку по максимальній швидкості, і при цьому страждає від малозрозумілого провалу швидкості на 128-кБ блоках. За сумою вражень краще за інших виглядає Areca c 512 МБ - у неї відмінні результати на малих блоках і дуже стабільна і досить висока швидкість на великих. А ось HighPoint від неї знову відстав – у нього проблеми на блоках великого розміру.



У RAID5 успішна лінійна запис далася небагатьом - радують око лише Areca (причому лише з базовим об'ємом пам'яті, у 2 ГБ знову значні проблеми) і HighPoint. LSI і 3ware просто помітно відстають від лідерів, у Adaptec знову якісь проблеми, ну а про Promise і говорити нема чого - хоч якась відчутна швидкість у нього з'являється лише на блоках 128 кБ і вище.



У RAID6 ситуація багато в чому нагадує RAID5, тому назвемо лише основні відмінності. Areca успішно працює вже в обох варіантах, HighPoint несподівано втрачає швидкість на великих блоках, там з'являються дуже серйозні проблеми у LSI. У Adaptec і Promise все як і раніше сумно. Але якщо вкрай низькі результати Promise точно пояснюються відсутнім відкладеним записом, те, що трапилося з Adaptec - загадка.

IOMeter: Multi-thread Read & Write

Цей тест дозволяє оцінити поведінку контролерів при багатопоточному навантаженні. У ході нього емулюється ситуація, коли з накопичувачем працює від одного до чотирьох додатків, причому кількість запитів від них змінюється від одного до восьми, а адресні простори кожного додатка, ролі яких виконують worker-и в "IOMeter", не перетинаються.

Як завжди, як найбільш показові та цікаві ми розглянемо діаграми запису та читання для ситуацій з глибиною черги в один запит. Саме така ситуація зазвичай і складається у реальних умовах. Особливу інтригу дає те, що, як свідчать наші спостереження, далеко не всі контролери здатні на мінімальній глибині черги продемонструвати максимальну швидкість.


У RAID0 явно краще за інших на читанні одного потоку виглядають Areca і HighPoint - їх втрати мінімальної глибини черги мінімальні, чого не скажеш про інші. Adaptec і LSI демонструють лише близько половини максимальної можливої ​​на них швидкості, а Promise і 3ware і лише чверть.

Збільшення числа потоків до двох, трьох та чотирьох наочно показує, що на двох потоках всі контролери помітно втрачають у швидкості, а ось надалі разючих змін вже не відбувається. Загалом переможцем з цього тесту виходить Areca - на всіх навантаженнях цей контролер демонструє максимальні швидкості. А ось компаніям Promise та 3ware явно варто виправляти ситуацію – швидкості їх моделей надто малі.


На одиночному потоці RAID10 розстановка сил така ж, як і RAID0, тільки перевага Areca над іншими помітно набагато сильніше, оскільки він краще справляється з поперемінним читанням з дзеркальних пар. Цьому ж контролеру знову набагато краще за інших вдається читання кількох потоків. Причому зверніть увагу, наскільки контролер швидше читає два потоки – ось він, ефективний поділ потоків на різні диски у дзеркалах.

З інших пристойними результатами виділяються лише Adaptec (на жаль, лише за двох потоках) і HighPoint на трьох і чотирьох потоках читання.




Читання з масивів RAID5 і RAID6 проходить дуже схоже: з одним потоком краще за інших справляються Areca і HighPoint. З кількома потоками трохи краще за інших справляється HighPoint, але в цілому всі масиви поводяться непогано, за винятком Promise і 3ware, які знову демонструють не дуже високі швидкості.


Із записом на RAID0 картина не менш кумедна: з одного боку, мультипотоковий запис простіше, оскільки його помітно полегшують механізми відкладеного запису. З іншого, як не складно бачити, навіть запис одного потоку за мінімальної глибини черги не для всіх є простим навантаженням. Про справді високі швидкості можна говорити лише в Areca і HighPoint. Причому лише Areca зберігає таку ж високу швидкість (і навіть трохи більше) на кількох потоках. А ось засмучують низькими результатами нас уже три контролери: до Promise (причини його низьких результатів на записи вже зав'язли в зубах) приєдналися Adaptec та LSI.


Все в порядку у Areca зі швидкістю та у разі запису на RAID10. на цьому ж типі масивів виправився і Adaptec - за кількох потоків він успішно змагається з Areca за звання лідера. Серед тих, хто програв цей тест, знову LSI і Promise.




І знову ми бачимо подібну поведінку контролерів на масивах RAID5 та RAID6. При одному потоці на запис сильно краще за інших виглядають Areca і HighPoint, але при збільшенні числа потоків Areca залишається в лідерах у гордій самоті. Цікаво, що цього разу версія з 2 ГБ пам'яті дуже відрізняється. Шкода тільки, що не на краще - її швидкість на всіх навантаженнях більш ніж удвічі нижча. Тим не менш, дивна поведінка демонструє Areca при збільшенні набірної пам'яті, таке враження, що вона на такі її обсяги просто не розрахована.

Що ж до результатів Promise, позбавленого відкладеного запису, то вони на такому навантаженні смішно малі.

IOMeter: Webserver, Fileserver та Workstation

У цій групі тестів накопичувачі тестуються під навантаженнями, характерними для серверів та робочих станцій.

Нагадаю, що у "Webserver" та "Fileserver" емулюється робота накопичувача у відповідних серверах, тоді як у "Workstation" ми імітуємо роботу накопичувача в режимі типового навантаження для робочої станції, з обмеженням максимальної глибини черги в 32 запити. Природно, що "Webserver" та "Fileserver" - не більш як збірні назви; перший буде дуже схоже емулювати навантаження будь-якого сервера, що працює, власне, тільки з запитами на читання, а другий - сервера з переважанням запитів на читання, але при цьому з певною, помітно відмінною від нуля часткою запитів на запис.

Щоб не засмічувати статтю зовсім шаленою кількістю графіків, у цьому розділі ми їх усі виклали на окрему сторінку , а говоритимемо на основі діаграм.


З навантаженням, що складається виключно із запитів (переважно випадкових) на читання переважна більшість масивів справляється однаково добре – різниця становить лише 5 %. Причому тип масиву особливої ​​ролі не грає – RAID6 працює так само швидко, як і RAID0. Але є один вагомий виняток: явно більшою продуктивністю відрізняються масиви RAID10 на тих контролерах, які вміють дуже ефективно шукати вдалий диск у дзеркальних парах, тобто на 3ware, HighPoint і LSI.


Поява в навантаженні запитів на запис призводить до помітного розмаїття результатів. По-перше, RAID5 і RAID6 починають помітно відставати від RAID0 та RAID10. По-друге, починають позначатися індивідуальні особливості контролерів. Так, у RAID10, як і раніше, найкращими є 3ware і HighPoint (причини «випадання з обойми» LSI прості, досить подивитися на графік - у цього контролера з певної глибини черги перестає зростати продуктивність). Як і слід було очікувати, Promise набагато гірше за інших справляється з масивами із записом контрольних сум. На цих масивах позначилося і відставання HighPoint від інших.


Схожа ситуація спостерігається і в «Workstation», але її ще більше загострює більшу кількість запитів на запис і картина запитів, що дуже різниться, в навантаженні. У результаті RAID0 лідерство захоплює Areca. У RAID10 як і раніше HighPoint і 3ware свідомо краще за інших. Ну а в RAID5 і RAID6 відставання HighPoint і Promise набуває дуже значних розмірів.


Те саме навантаження, але запущена на масивах, обмежених лише 32 Гб об'єму (використовуються лише найшвидші зони на дисках, час відгуку мінімально), відчутно змінює розстановку сил. Так, у RAID0 з'явилися явні відстаючі – ними стали LSI та Promise. У RAID10 зменшилася до мінімуму перевага 3ware та HighPoint - вибір вдалого диска вже практично не важливий, адже відгук скрізь мінімальний. Натомість з'явився відстаючий – ним знову став Promise. У випадку RAID5 та RAID6 загальна продуктивністьзросла, але відставання HighPoint і Promise нікуди не поділося.

FC-Test

Завершує нашу програму тестування FileCopy Test. На накопичувачі створюється два розділи по 32 ГБ, що розмічуються на двох етапах тестування спочатку в NTFS, а потім у FAT32, після чого на розділі створюється певний набір файлів, зчитується, копіюється в межах розділу та копіюється з розділу на розділ. Час усіх цих операцій фіксується. Нагадаємо, що набори "Windows" і "Programs" включають велику кількість дрібних файлів, а для решти трьох патернів ("MP3", "ISO" і "Install") характерно менша кількість файлів більше великого розміру, причому в "ISO" використовуються найбільші файли.

Не забувайте, що тест копіювання не тільки говорить про швидкість копіювання в межах одного накопичувача, але і дозволяє судити про його поведінку під складним навантаженням. Фактично, під час копіювання накопичувач одночасно працює з двома потоками, причому один із них на читання, а другий на запис.

Ми будемо докладно розглядати лише значення, досягнуті на наборах файлів "Install", "ISO" і "Programs" у NTFS, що є більш характерними для звичайного використання масивів. Інші результати, ви, при бажанні, як завжди, можете дізнатися в таблицях, що є в статтях по кожному окремому контролеру


Запис набору файлів Install можна чітко розділити на два випадки. На масивах RAID0 і RAID10 виграють Areca і Adaptec, а у проміжних, окрім цілком очікуваного, Promise виявляється LSI.

На масивах RAID5 та RAID6 пару Adaptec за лідерством складає вже 3ware. LSI вже не такий вже й поганий, зате Promise відверто безпорадний.

Зверніть увагу, з файлами Areca c 2 ГБ пам'яті справляється дуже гірше вихідного контролера. Чудеса та й годі.


З записом великих файлів Areca справляється явно краще за інших у RAID0 і RAID10, а ось на масивах з контрольною сумою з нею успішно сперечається HighPoint. У всіх випадках, крім RAID0, лише жаль викликають результати Adaptec і LSI - вони занадто малі. Ну а про Promise ми зовсім мовчимо - у тесті на запис у нього шансів немає.


А ось із записом файлів усі справляються приблизно однаково. Причому однаково повільно – зверніть увагу, наскільки помітно зменшується швидкість запису при зменшенні розмірів файлів.


Читання змішаного набору "Install" в переважній більшості випадків трохи краще вдається контролерам LSI та HighPoint. Що ж до відстаючих, то ними стали 3ware і Promise (і тут йому вже не виправдатися відсутнім відкладеним записом).


На великих файлах відверто "запалює" Areca - навіть HighPoint, що йде слідом за нею, складно назвати її конкурентом. Особливо примітними є результати в RAID10, де Areca наочно демонструє, навіщо треба вміти поперемінно читати з дисків.

А ось відстаючі ті самі - 3ware і Promise, та й LSI виглядає відверто слабким при читанні з RAID10 (розплата за відмінну вибірку вдалого диска?).


Ті ж, хто програв у нас і на дрібних файлах. А ось лідери нові: за перше місце борються LSI та HighPoint.




При копіюванні змішаного набору Install на трьох з типів масивів явно лідирує група з Adaptec, HighPoint і LSI. А ось у RAID10 LSI вибуває з лідерів, зате туди входить, вибиваючись одразу на перше місце, Areca. Програв у всіх випадках один - страждає від відкладеного запису Promise.




На великих файлах лідерів лише два: HighPoint і Areca. Остання набагато швидше RAID10, зате трохи відстає на інших масивах. Інші цим контролерам, чесно кажучи, слабкі конкуренти.




Копіювання дрібних файлів у «Programs» всім контролерам дається досить важко. Хоча трохи краще за інших виглядають, мабуть, LSI і Adaptec.

Підбиття підсумків

Мабуть, основним підсумком цього тестування буде задоволена банальна думка: ідеалу немає. У всіх контролерів є свої переваги і недоліки, тому найкраще виходити з того, що деякі контролери краще підходять під певні навантаження, ніж інші. Головне - не забувати, що прошивки здатні часом разюче змінити поведінку контролерів. Ми ж зараз роздамо нагороди та висловимо думку, керуючись виключно враженнями від того, що продемонстрували контролери на поточних прошивках.

Мабуть, найкращі відчуття про себе залишили Adaptec RAID ASR-5805 та Areca-1680x-16. Саме ці дві моделі найбільш стабільно проходили тести і у них найменше великих недоробок у прошивках. В цілому, Adaptec трохи краще підходить для організації баз даних, тоді як Areca найбільш успішно справляється з багатопотоковими операціями та роботою з файлами. У будь-якому випадку обидва вони є цілком гідними представниками сучасних контролерів. Цікаво, але побудовані вони, власне, на дуже подібних платформах - у них однаковий процесор і рівний обсяг оперативної пам'яті.

Так, Areca дозволяє змінити пам'ять і збільшити її об'єм, але наше тестування не показало жодного позитивного ефекту від цієї дії, швидше навпаки - версія з 2 ГБ часто виявлялася трохи гіршою. Втім, повторимося: можливо, що 2 ГБ продемонструють себе повною мірою, при підключенні контролер дисків через експандери, коли пропускну здатність інтерфейсу вже не повною мірою вистачатиме для всіх дисків.

Дещо неоднозначне враження залишили про себе 3ware 9690SA-8I і HighPoint RocketRAID HPT4320. Перший був би дуже непоганим контролером, але його неабияк псують низькі результати при роботі з файлами, так що на наш погляд його шлях - бази даних, де він відмінно проявить себе як збалансоване і потужний пристрій. У другого чудові алгоритми роботи з RAID10 і дуже непоганий запис, але він все ж таки має занадто багато проблем з масивами із записом контрольних сум. Хочеться сподіватися, що в наступних прошивках вони будуть вирішені, і в перспективі вибір добрих контролерів стане на одну модель більшою.

Що стосується LSI MegaRAID SAS 8708EM2 та Promise SuperTrak EX8650, то у своєму поточному вигляді вони розчаровують. Звичайно, Promise був у нас на тестах у дещо явно гірших умовах через непрацюючий відкладений запис, але все ж таки і на читанні у нього дуже низькі результати в порівнянні з конкурентами. А у LSI просто занадто багато недоробок, хоча робота з дрібними файлами і чудова вибірка вдалого диска в дзеркальних парах вражають. Але прошивки випускаються, а отже, шанси є у всіх. Знову ж таки, повторимося: у багатьох випадках наявність вже існуючої інфраструктури з працюючих контролерів будь-якої фірми має набагато більше значення, ніж продуктивність, якщо тільки остання не страждає зовсім непоправним чином.

Інші матеріали на цю тему


Тестування SAS RAID-контролера Areca ARC-1680ix-16
Тестування SAS RAID-контролера HighPoint RocketRAID HPT4320
Тестування SAS RAID-контролера LSI MegaRAID SAS 8708EM2
Тестування SAS RAID-контролера Adaptec RAID ASR-5805
Тестування SAS RAID-контролера 3ware 9690SA-8I
Тестування SAS RAID-контролера Promise SuperTrak EX8650

у комплект не входить.

Високопродуктивний 6-Гб/с апаратний RAID-контролер 9260-8i з 8-ю внутрішніми портами (2 роз'єми SFF8087) і об'ємом вбудованої пам'яті 512МБ, що дозволяє підключити до 128 накопичувачів SAS і SATA з технологією RAID-on-Chip.

Лінійка високопродуктивної продукції MegaRAID SATA+SAS 9260 дозволяє досягти найвищих швидкостей передачі даних до 2880МБ/с на читання, 1850МБ/с на запис і до 147000 операцій введення-виводу при довільному доступі до даних, що дозволяє забезпечувати роботу будь-яких навіть як бази даних та відеообробка.

Ці продукти дозволяють використовувати носії 3 Гб/с та 6 Гб/с із підтримкою внутрішнього підключення як SATA-, так і SAS-накопичувачів.

Внутрішнє підключення SATA- або SAS-накопичувачів сервера. Дозволяє працювати зі 128 пристроями за допомогою експандерів SAS. Технологія LSI RAID-on-Chip (ROC) та основний інтерфейс PCI Express для програм, що потребують широкої смуги пропускання.

Опціональний резервний акумулятор для запобігання втраті даних у разі відмови сервера.

Підтримка додаткового програмного забезпечення CacheCade, FastPath та Recovery/Snapshots.

Основні особливості

  • Максимально доступний рівень продуктивності: в режимі зчитування: 2.875Мбайт/с; в режимі запису: 1.850Мбайт/с
  • PCI Express 2.0 забезпечує вищу швидкість передачі сигналу для додатків, що працюють з широкою смугою пропускання
  • Максимальна гнучкість рішення за рахунок підтримки дискових накопичувачів SATA та SAS 3Гбіт/с та 6Гбіт/с
  • Технологія кодування SafeStore Encryption забезпечує більш надійний захист даних
  • Низькопрофільний дизайн MD2 зручний для розміщення в компактних архітектурах 1U та 2U

Технічні характеристики

Параметр Опис
ПроцесорLSISAS2108 RAID-on-Chip (ROC) 800МГц PowerPC®
ШвидкодіяДо 6Гбіт/с на порт
Інтерфейси

Вісім внутрішніх портів SATA+SAS
Два внутрішні інтерфеси SFF-8087

Пам'ятьКеш-пам'ять - 512Мб DDRII (800МГц)
Кількість підтримуваних пристроївдо 32 дискових накопичувачів SATA та/або SAS
Підтримувані рівні RAIDRAID - рівень 0, 1, 5 та 6
Розширений RAID 10, 50 та 60
Інтерфейс хост-контролераX8 PCI Express версії 2.0
Форм-факторНизькопрофільний формат MD2 (167.64 мм x 64.42 мм)
Функціональні можливості

Блок аварійного живлення (опція, пряме підключення)

Автоматичне поновлення роботи після модернізації

Автоматичне поновлення роботи після відновлення

Онлайнове збільшення ємності (OCE)

Онлайнова міграція з одного на інший рівень RAID (RLM)

Система кодування даних SafeStore

Функція негайного видалення даних

SSD-підтримка з технологією SSD Guard™

Глобальне та спеціалізоване резервування, аварійне гаряче резервування з функцією відновлення даних

Автоматичне відновлення

Структурна цілісність для гарячого резервування

Аварійне гаряче резервування SATA для масивів SAS

Багатоканальна структура підтримки для одного контролера (перемикання при відмові)

Розподіл завантаження

Комплексне програмне забезпечення для керування RAID масивами

Шановні покупці
Звертаємо Вашу увагу, що довідкова інформація про товари, що розміщена на даному сайті, не є офертою, наявність та вартість обладнання необхідно уточнити у менеджерів ТОВ "НАГ", які із задоволенням допоможуть Вам у виборі обладнання та оформленні на нього замовлення.

Виробник залишає за собою право змінювати зовнішній вигляд, технічні характеристики та комплектацію без попередження.

Коротко про сучасні RAID-контролери

В даний час RAID-контролери як окреме рішення орієнтовані виключно на спеціалізований сервер сегмент ринку. Дійсно, всі сучасні материнські плати для ПК (не серверні плати) мають інтегровані програмно-апаратні SATA RAID-контролери, можливостей яких з надлишком вистачає для користувачів ПК. Правда, потрібно мати на увазі, що ці контролери орієнтовані виключно на використання операційної системи Windows. В операційних системах сімейства Linux RAID-масиви створюються програмним методом і всі розрахунки переносяться з RAID-контролера на центральний процесор.

У серверах зазвичай використовуються або програмно-апаратні, або чисто апаратні RAID-контролери. Апаратний RAID-контролер дозволяє створювати та обслуговувати RAID-масив без участі операційної системи та центрального процесора. Такі RAID-масиви є операційною системою як один диск (SCSI-диск). При цьому ніякого спеціалізованого драйвера не потрібно - використовується стандартний драйвер SCSI-диска, що входить до складу операційної системи. У цьому плані апаратні контролери є платформенно-незалежними, а налаштування RAID-масиву здійснюється через BIOS контролера. Апаратний RAID-контролер не задіє центральний процесор при розрахунку всіх контрольних сум тощо, оскільки для розрахунків застосовує свій спеціалізований процесор та оперативну пам'ять.

Програмно-апаратні контролери вимагають обов'язкової наявності спеціалізованого драйвера, який замінює собою стандартний драйвер SCSI-диска. Крім того, програмно-апаратні контролери комплектуються утилітами керування. У цьому плані програмно-апартні контролери прив'язані до конкретної операційної системи. Всі необхідні розрахунки в цьому випадку також виконуються процесором RAID-контролера, але використання програмного драйверата утиліти управління дозволяє керувати контролером через операційну систему, а не лише через BIOS контролера.

Зважаючи на те, що на зміну серверним SCSI-дискам вже прийшли SAS-диски, всі сучасні серверні RAID-контролери орієнтовані на підтримку або SAS-, або SATA-дисків, які також застосовуються в серверах.

Торік на ринку почали з'являтись диски з новим інтерфейсом SATA 3 (SATA 6 Гбіт/с), який став поступово витісняти інтерфейс SATA 2 (SATA 3Гбіт/с). А на зміну дискам з інтерфейсом SAS (3 Гбіт/с) прийшли диски з інтерфейсом SAS 2.0 (6 Гбіт/с). Звичайно, новий стандарт SAS 2.0 повністю сумісний із старим стандартом.

Відповідно, з'явилися RAID-контролери з підтримкою стандарту SAS 2.0. Здавалося б, який сенс переходити до стандарту SAS 2.0, якщо навіть найшвидші SAS-диски мають швидкість читання та запису даних не вище 200 Мбайт/с і для них цілком достатньо пропускної спроможності протоколу SAS (3 Гбіт/с або 300 Мбайт/с) ?

Дійсно, коли кожен диск підключається до окремого порту на RAID-контролері, пропускної спроможності 3 Гбіт/с (що теоретично становить 300 Мбайт/с) цілком достатньо. Однак, до кожного порту RAID-контролера можуть підключатися не лише окремі диски, але й дискові масиви (дискові кошики). У цьому випадку один SAS-канал ділять між собою відразу кілька накопичувачів, і пропускну здатність 3 Гбіт/с буде недостатньо. Ну і, крім того, потрібно враховувати наявність SSD-дисків, швидкість читання та запису яких уже подолала планку 300 Мбайт/с. Наприклад, у новому диску Intel SSD 510 швидкість послідовного читання становить до 500 Мбайт/с, а швидкість послідовного запису - до 315 Мбайт/с.

Після короткого знайомства з поточною ситуацією на ринку серверних RAID-контролерів розглянемо характеристики контролера LSI 3ware SAS 9750-8i.

Характеристики RAID-контролера 3ware SAS 9750-8i

Цей RAID-контролер виконаний на базі спеціалізованого XOR-процесора LSI SAS2108 з тактовою частотою 800 МГц та архітектурою PowerPC. Цей процесор використовує 512 Мбайт оперативної пам'яті DDRII 800 МГц із корекцією помилок (ECC).

Контролер LSI 3ware SAS 9750-8i сумісний із SATA- та SAS-дисками (підтримуються як HDD-, так і SSD-диски) і дозволяє підключати до 96 пристроїв за допомогою SAS-експандерів. Важливо, що цей контролер підтримує диски з інтерфейсом SATA 600 Мбайт/с (SATA III) та SAS 2.

Для підключення дисків на контролері передбачено вісім портів, які фізично об'єднані у два роз'єми Mini-SAS SFF-8087 (по чотири порти у кожному роз'ємі). Тобто якщо диски підключати безпосередньо до портів, то можна підключити до контролера вісім дисків, а при підключенні до кожного порту дискових кошиків загальний обсяг дисків може бути збільшений до 96. Кожен з восьми портів контролера має пропускну здатність 6 Гбіт/с, що відповідає стандартам SAS 2 та SATA III.

При підключенні дисків або дискових кошиків до цього контролера будуть потрібні спеціалізовані кабелі, які з одного кінця мають внутрішній роз'єм Mini-SAS SFF-8087, а на іншому кінці - роз'єм, який залежить від того, що саме підключається до контролера. Наприклад, при підключенні до контролера безпосередньо SAS-дисків необхідно використовувати кабель, у якого з одного боку роз'єм Mini-SAS SFF-8087, а з іншого - чотири роз'єми SFF 8484, які дозволяють безпосередньо підключати SAS-диски. Зазначимо, що самі кабелі не входять у комплект постачання та купуються окремо.

Контролер LSI 3ware SAS 9750-8i має інтерфейс PCI Express 2.0 x8, що забезпечує пропускну здатність 64 Гбіт/с (по 32 Гбіт/с у кожному напрямку). Зрозуміло, що такої пропускної спроможності цілком достатньо для повністю завантажених восьми портів SAS із пропускною здатністю 6 Гбіт/с кожен. Також відзначимо, що на контролері є спеціальний роз'єм, в який можна підключити опціонально батарею резервного живлення LSIiBBU07.

Важливо, що цей контролер вимагає інсталяції драйвера, тобто є програмно-апаратним RAID-контролером. При цьому підтримуються такі операційні системи, як Windows Vista, Windows Server 2008, Windows Server 2003 x64, Windows 7, Windows 2003 Server, MAC OS X, LinuxFedora Core 11, Red Hat Enterprise Linux 5.4, OpenSuSE 11.1, SuSE Linux Enterprise Server (SLES) 11, OpenSolaris 2009.06 4.0/4.0 update-1 та інші системи сімейства Linux. У комплект поставки також входить програмне забезпечення 3ware Disk Manager 2, що дозволяє керувати RAID-масивами через операційну систему.

Контролер LSI 3ware SAS 9750-8i підтримує стандартні типи RAID-масивів: RAID 0, 1, 5, 6, 10 і 50. Мабуть, єдиний тип масиву, який не підтримується, - RAID 60. Це пов'язано з тим, що цей контролер здатний створити масив RAID 6 тільки на п'яти дисках, що підключаються безпосередньо до кожного порту контролера (теоретично, RAID 6 може бути створений на чотирьох дисках). Відповідно для масиву RAID 60 даному контролеру потрібно щонайменше десять дисків, яких просто немає.

Зрозуміло, що підтримка масиву RAID 1 є неактуальною для такого контролера, оскільки даний типмасиву створюється тільки на двох дисках, а використовувати такий контролер тільки для двох дисків нелогічно та вкрай марнотратно. А ось підтримка масивів RAID 0, 5, 6, 10 та 50 дуже актуальна. Хоча, можливо, з масивом RAID 0 ми поспішили. Все ж таки цей масив не має надмірності, а відповідно не забезпечує надійності зберігання даних, тому в серверах він використовується вкрай рідко. Однак теоретично цей масив є найшвидшим за швидкістю читання та запису даних. Втім, давайте згадаємо, чим різні типи RAID-масивів відрізняються один від одного і що вони являють собою.

Рівні RAID-масивів

Термін "RAID-масив" з'явився в 1987 році, коли американські дослідники Паттерсон, Гібсон і Катц з Каліфорнійського університету в Берклі у своїй статті "Надлишковий масив недорогих дисків" ("A case for redundant arrays of inexpensive discs, RAID") описали, яким можна об'єднати кілька дешевих жорстких дисків в один логічний пристрій так, щоб в результаті підвищувалися ємність і швидкодія системи, а відмова окремих дисків не призводив до відмови всієї системи. З моменту виходу цієї статті минуло майже 25 років, але технологія побудови RAID-масивів не втратила актуальності і сьогодні. Єдине, що змінилося з того часу - це розшифровка абревіатури RAID. Справа в тому, що спочатку RAID-масиви будувалися зовсім не на дешевих дисках, тому слово Inexpensive ("недорогі") змінили на Independent ("незалежні"), що більше відповідало дійсності.

Відмовостійкість у RAID-масивах досягається за рахунок надмірності, тобто частина ємності дискового простору приділяється для службових цілей, стаючи недоступною для користувача.

Підвищення продуктивності дискової підсистеми забезпечується одночасною роботою кількох дисків, й у сенсі що більше дисків у масиві (до певної межі), краще.

Спільну роботу дисків у масиві можна організувати за допомогою паралельного або незалежного доступу. При паралельному доступі дискове місце розбивається на блоки (смужки) для запису даних. Аналогічно інформація, що підлягає запису на диск, розбивається такі самі блоки. При записі окремі блоки записуються на різні диски, причому запис кількох блоків різні диски відбувається одночасно, що призводить до збільшення продуктивності в операціях запису. Потрібна інформація також зчитується окремими блоками одночасно з кількох дисків, що також сприяє зростанню продуктивності пропорційно до кількості дисків у масиві.

Слід зазначити, що модель з паралельним доступом реалізується лише за умови, що розмір запиту на запис даних більший за розмір самого блоку. В іншому випадку здійснювати паралельний запис кількох блоків практично неможливо. Уявимо ситуацію, коли розмір окремого блоку становить 8 Кбайт, а розмір запиту запис даних - 64 Кбайт. І тут вихідна інформація нарізається на вісім блоків по 8 Кбайт кожен. Якщо є масив із чотирьох дисків, то одночасно можна записати чотири блоки, або 32 Кбайт, за один раз. Очевидно, що у розглянутому прикладі швидкість запису та швидкість зчитування виявляться вчетверо вище, ніж при використанні одного диска. Це справедливо лише для ідеальної ситуації, проте розмір запиту далеко не завжди кратний розміру блоку та кількості дисків у масиві.

Якщо ж розмір даних, що записуються менше розміру блоку, то реалізується принципово інша модель - незалежний доступ. Більш того, ця модель може використовуватися і в тому випадку, коли розмір даних, що записуються більше розміру одного блоку. При незалежному доступі всі дані окремого запиту записуються окремий диск, тобто ситуація ідентична роботі з одним диском. Перевага моделі з незалежним доступом у тому, що при одночасному надходженні кількох запитів на запис (читання) всі вони виконуватимуться на окремих дисках незалежно один від одного. Така ситуація типова, наприклад, для серверів.

Відповідно до різними типамиДоступу існують і різні типи RAID-масивів, які прийнято характеризувати рівнями RAID. Крім типу доступу, рівні RAID розрізняються способом розміщення та формування надмірної інформації. Надмірна інформація може або розміщуватись на спеціально виділеному диску, або розподілятися між усіма дисками.

В даний час існує кілька RAID-рівень, які широко використовуються, - це RAID 0, RAID 1, RAID 5, RAID 6, RAID 10, RAID 50 і RAID 60. Раніше також застосовувалися рівні RAID 2, RAID 3 і RAID 4, проте В даний час ці рівні RAID не використовуються і сучасні RAID-контролери їх не підтримують. Всі сучасні RAID-контролери підтримують також функцію JBOD (Just a Bench Of Disks). У цьому випадку йдеться не про RAID-масив, а просто про підключення окремих дисків до RAID-контролера.

RAID 0

RAID 0, або страйпінг (striping) - це, строго кажучи, не RAID-масив, оскільки такий масив не має надмірності і не забезпечує надійності зберігання даних. Однак історично його також називають RAID-масивом. Масив RAID 0 (рис. 1) може будуватися на двох і більше дисках і використовується в тому випадку, коли необхідно забезпечити високу продуктивність підсистеми дискової, а надійність зберігання даних некритична. При створенні масиву RAID 0 інформація розбивається на блоки (ці блоки називають страйпами), які одночасно записуються на окремі диски, тобто створюється система з паралельним доступом (якщо, звичайно, дозволяє розмір блоку). Завдяки можливості одночасного введення виводу з декількох дисків, RAID 0 забезпечує максимальну швидкість передачі даних та максимальну ефективність використання дискового простору, оскільки не потрібно місця для зберігання контрольних сум. Реалізація цього рівня дуже проста. В основному RAID 0 застосовується у тих областях, де потрібна швидка передача великого обсягу даних.

Мал. 1. Масив RAID 0

Теоретично приріст швидкості читання та запису повинен бути кратний кількості дисків у масиві.

Надійність масиву RAID 0 свідомо нижче надійності будь-якого з дисків окремо і знижується зі збільшенням кількості дисків, що входять до масиву, оскільки відмова будь-якого з них призводить до непрацездатності всього масиву. Якщо час напрацювання на відмову кожного диска становить MTTF disk , то час напрацювання на відмову масиву RAID 0, що складається з nдисків, так само:

MTTF RAID0 = MTTD диск /n.

Якщо позначити можливість виходу з ладу за певний проміжок часу одного диска через p, то для масиву RAID 0 з nдисків ймовірність того, що хоча б один диск вийде з ладу (ймовірність падіння масиву), складе:

Р (падіння масиву) = 1 – (1 – р) n.

Наприклад, якщо можливість виходу з ладу одного диска протягом трьох років експлуатації становить 5%, то можливість падіння масиву RAID 0 із двох дисків дорівнює вже 9,75%, та якщо з восьми дисків - 33,7%.

RAID 1

Масив RAID 1 (рис. 2), який також називають дзеркалом (mirror), – це масив із двох дисків зі 100-відсотковою надмірністю. Тобто дані повністю дублюються (дзеркалуються), за рахунок чого досягається дуже високий рівень надійності (як, втім, вартості). Зазначимо, що для реалізації RAID 1 не потрібно попередньо розбивати диски та дані на блоки. У найпростішому випадку два диски містять однакову інформацію та є одним логічним диском. При виході з ладу одного диска функції виконує інший (що абсолютно прозоро для користувача). Відновлення масиву виконується простим копіюванням. Крім того, теоретично в масиві RAID 1 повинна подвоюватися швидкість зчитування інформації, оскільки ця операція може виконуватись одночасно з двох дисків. Подібна схема зберігання інформації використовується в основному в тих випадках, коли ціна безпеки даних набагато вища за вартість реалізації системи зберігання.

Мал. 2. Масив RAID 1

Якщо, як у попередньому випадку, позначити можливість виходу з ладу за певний проміжок часу одного диска через p, то для масиву RAID 1 ймовірність того, що обидва диски вийдуть з ладу одночасно (ймовірність падіння масиву), складе:

Р (падіння масиву) = р 2.

Наприклад, якщо можливість виходу з експлуатації одного диска протягом трьох років експлуатації становить 5%, то можливість одночасного виходу з експлуатації двох дисків дорівнює вже 0,25%.

RAID 5

Масив RAID 5 (рис. 3) - це стійкий до відмов. дисковий масивіз розподіленим зберіганням контрольних сум. При записі потік даних розбивається на блоки (страйпи) лише на рівні байтів, які одночасно записуються попри всі диски масиву в циклічному порядку.

Мал. 3. Масив RAID 5

Припустимо, що масив містить nдисків, а розмір страйпу - d. Для кожної порції з n-1 страйпів розраховується контрольна сума p.

Страйп d 1записується на перший диск, страйп d 2- на другий і так далі аж до страйпу d n–1, який записується на (n–1) диск. Далі на n-й дискзаписується контрольна сума p n, і процес циклічно повторюється з першого диска, який записується страйп d n.

Процес запису ( n-1) страйпів та їх контрольної суми проводиться одночасно на всі nдисків.

Для обчислення контрольної суми використовується порозрядна операція «виключає АБО» (XOR), що застосовується до блоків даних, що записуються. Так, якщо є nжорстких дисків та d- блок даних (страйп), то контрольна сума розраховується за такою формулою:

p n = d 1d 2 ⊕ ... d n–1.

У разі виходу з ладу будь-якого диска, дані на ньому можна відновити за контрольними даними та за даними, що залишилися на справних дисках. Справді, скориставшись тотожністю (ab) A b= aі aa = 0 , Отримаємо, що:

p n⊕ (d kp n) = d ld n⊕ ...⊕ ...⊕ d n–l⊕ (d kp n).

d k = d 1d n⊕ ...⊕ d k-1d k+1⊕ ...⊕ p n.

Таким чином, якщо з ладу вийшов диск із блоком d k, його можна відновити за значенням інших блоків і контрольної суми.

У випадку RAID 5 всі диски масиву повинні мати однаковий розмір, однак загальна ємність дискової підсистеми, доступної для запису, стає менше одного диска. Наприклад, якщо п'ять дисків мають розмір 100 Гбайт, фактичний розмір масиву становить 400 Гбайт, оскільки 100 Гбайт відводиться на контрольну інформацію.

Масив RAID 5 може бути побудований на трьох і більше жорстких дисках. Зі збільшенням кількості жорстких дисків у масиві його надмірність зменшується. Відзначимо також, що масив RAID 5 може бути відновлений при виході з експлуатації лише одного диска. Якщо ж одночасно виходять з ладу два диски (або якщо другий диск виходить з ладу в процесі відновлення масиву), масив не підлягає відновленню.

RAID 6

Масив RAID 5, як було показано, може бути відновлений при виході одного диска з ладу. Однак іноді потрібно забезпечити вищий рівень надійності, ніж у масиві RAID 5. У цьому випадку можна використовувати масив RAID 6 (рис. 4), який дозволяє відновити масив навіть при виході з експлуатації одночасно двох дисків.

Мал. 4. Масив RAID 6

Масив RAID 6 схожий на RAID 5, але в ньому застосовується не одна, а дві контрольні суми, які розподіляються циклічно по дисках. Перша контрольна сума pрозраховується за тим самим алгоритмом, що і в масиві RAID 5, тобто це операція XOR між блоками даних, що записуються на різні диски:

p n = d 1d2⊕ ...⊕ d n–1.

Друга контрольна сума розраховується вже за іншим алгоритмом. Не вдаючись у математичні подробиці, скажімо, що це також операція XOR між блоками даних, але кожен блок даних попередньо множиться на поліноміальний коефіцієнт:

q n = g 1 d 1g 2 d 2⊕ ...⊕ g n–1 d n–1 .

Відповідно під контрольні суми виділяється ємність двох дисків у масиві. Теоретично масив RAID 6 може бути створений на чотирьох і більше дисках, однак у багатьох контролерах може бути створений мінімум на п'яти дисках.

Потрібно мати на увазі, що продуктивність масиву RAID 6, як правило, на 10-15% нижче за продуктивність масиву RAID 5 (при рівній кількості дисків), що викликано великим обсягом розрахунків, що виконуються контролером (необхідно розраховувати другу контрольну суму, а також зчитувати і перезаписувати більше дискових блоків під час запису кожного блоку).

RAID 10

Масив RAID 10 (рис. 5) є поєднанням рівнів 0 і 1. Мінімально для цього рівня потрібні чотири диски. У масиві RAID 10 з чотирьох дисків вони попарно поєднуються в масиви RAID 1, а обидва ці масиви як логічні диски об'єднуються в масив RAID 0. Можливий і інший підхід: спочатку диски об'єднуються в масиви RAID 0, а потім логічні диски на основі цих масивів масив RAID 1.

Мал. 5. Масив RAID 10

RAID 50

Масив RAID 50 є поєднанням рівнів 0 і 5 (рис. 6). Мінімально для цього рівня потрібно шість дисків. У масиві RAID 50 спочатку створюються два масиву RAID 5 (мінімум по три диски в кожному), які потім як логічні диски поєднуються в масив RAID 0.

Мал. 6. Масив RAID 50

Методика тестування контролера LSI 3ware SAS 9750-8i

Для тестування RAID-контролера LSI 3ware SAS 9750-8i ми використали спеціалізований тестовий пакет IOmeter 1.1.0 (версія 2010.12.02). Тестовий стендмав таку конфігурацію:

  • процесор - Intel Core i7-990 (Gulftown);
  • системна плата – GIGABYTE GA-EX58-UD4;
  • пам'ять – DDR3-1066 (3 Гбайт, триканальний режим роботи);
  • системний диск- WD Caviar SE16 WD3200AAKS;
  • відеокарта – GIGABYTE GeForce GTX480 SOC;
  • RAID-контролер – LSI 3ware SAS 9750-8i;
  • SAS-диски, що підключаються до RAID-контролера, - Seagate Cheetah 15K.7 ST3300657SS.

Тестування проводилося під керуванням операційної системи Microsoft Windows 7 Ultimate (32-bit).

Ми використовували Windows-драйвер RAID-контролера версії 5.12.00.007, а також оновили прошивку контролера до версії 5.12.00.007.

Системний диск підключався до SATA, реалізованого через контролер, інтегрований у південний міст чіпсету Intel X58, а SAS-диски підключалися безпосередньо до портів RAID-контролера з використанням двох кабелів Mini-SAS SFF-8087-4 SAS.

RAID-контролер встановлювався у роз'єм PCI Express x8 на системній платі.

Контролер тестувався з наступними RAID-масивами: RAID 0, RAID 1, RAID 5, RAID 6, RAID 10 і RAID 50. Кількість дисків, що об'єднуються в RAID-масив, варіювалася для кожного типу масиву від мінімального значення до восьми.

Розмір страйпу на всіх RAID-масивах не змінювався та становив 256 Кбайт.

Нагадаємо, що пакет IOmeter дозволяє працювати як із дисками, на яких створено логічний розділ, так і з дисками без логічного розділу. Якщо проводиться тестування диска без створеного на ньому логічного розділу, то IOmeter працює на рівні логічних блоків даних, тобто замість операційної системи передає команди контролеру на запис чи читання LBA-блоків.

Якщо на диску створено логічний розділ, то спочатку утиліта IOmeter створює на диску файл, який за замовчуванням займає весь логічний розділ (у принципі, розмір цього файлу можна змінювати, вказавши його в кількості 512 байтних секторів), і далі працює з цим файлом, тобто зчитує або записує (перезаписує) окремі блоки LBA в межах цього файлу. Але знову ж таки IOmeter працює в обхід операційної системи, тобто безпосередньо надсилає запити контролеру на читання/запис даних.

Загалом, при тестуванні HDD-дисків, як показує практика, різниці між результатами тестування диска зі створеним логічним розділом і без нього практично немає. У той же час ми вважаємо, що коректніше проводити тестування без створеного логічного розділу, оскільки в такому разі результати тестів не залежать від використовуваної файлової системи(NTFA, FAT, ext і т.д.). Саме тому ми виконували тестування без створення логічних розділів.

Крім того, утиліта IOmeter дозволяє задавати розмір блоку запиту (Transfer Request Size) на запис/читання даних, а тест можна проводити як для послідовних (Sequential) читання та запису, коли LBA-блоки зчитуються та записуються послідовно один за одним, так і для випадкових (Random), коли LBA-блоки зчитуються та записуються у довільному порядку. Під час формування сценарію навантаження можна задавати час тесту, відсоткове співвідношення між послідовними та випадковими операціями (Percent Random/Sequential Distribution), а також відсоткове співвідношення між операціями читання та запису (Percent Read/Write Distribution). Крім того, утиліта IOmeter дозволяє автоматизувати весь процес тестування та зберігає всі результати у CSV-файл, який потім легко експортується до таблиці Excel.

Ще одне налаштування, яке дозволяє робити утиліта IOmeter - це так зване вирівнювання блоків запитів на передачу даних (Align I/Os on) по кордонах секторів жорсткогодиска. За замовчуванням IOmeter вирівнює блоки запитів за межами 512-байтних секторів диска, проте можна встановити і довільне вирівнювання. Власне більшість жорстких дисків мають розмір сектора 512 байт і тільки останнім часом стали з'являтися диски з розміром сектора 4 Кбайт. Нагадаємо, що в HDD-дисках сектор - це мінімальний розмір даних, що адресується, який можна записати або рахувати з диска.

Під час проведення тестування необхідно встановлювати вирівнювання блоків запитів передачі даних за розміром сектора диска. Оскільки у дисках Seagate Cheetah 15K.7 ST3300657SS розмір сектора складає 512 байт, ми використовували вирівнювання за межами 512-байтних секторів.

За допомогою тестового пакету IOmeter ми вимірювали швидкість послідовного читання та запису, а також швидкість випадкового читання та запису створеного RAID-масиву. Розміри блоків даних становили 512 байт, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 і 1024 Кбайт.

У наведених сценаріях навантаження час тесту з кожним запитом на передачу блоку даних становив 5 хв. Також відзначимо, що у всіх перерахованих тестах ми задавали в налаштуваннях IOmeter глибину черги завдання (# of Outstanding I/Os) рівної 4, що типово для додатків користувача.

Результати тестування

Проаналізувавши результати тестування, ми здивувалися роботою RAID-контролера LSI 3ware SAS 9750-8i. Причому настільки, що почали переглядати наші скрипти щодо виявлення в них помилки, а потім багаторазово повторили тестування з іншими налаштуваннями RAID-контролера. Ми змінювали розмір страйпу та режим роботи кешу RAID-контролера. Це, звісно ж, позначалося на результатах, проте змінювало загального характеру залежності швидкості передачі від розміру блоку даних. А цю залежність ми таки не змогли пояснити. Робота даного контролеравидається нам абсолютно нелогічною. По-перше, результати нестабільні, тобто за кожного фіксованого розміру блоку даних швидкість періодично змінюється і усереднений результат має велику похибку. Зазначимо, що зазвичай результати тестування дисків та контролерів з використанням утиліти IOmeter стабільні та відрізняються дуже незначно.

По-друге, при збільшенні розміру блоку швидкість передачі даних повинна зростати або залишатися незмінною в режимі насичення (коли швидкість досягає максимального значення). Однак у разі контролера LSI 3ware SAS 9750-8i за деяких розмірів блоків спостерігається різке падіння швидкості передачі даних. Крім того, для нас так і залишилося загадкою, чому при тому самому кількості дисків для масивів RAID 5 і RAID 6 швидкість запису вище швидкості читання. Одним словом, пояснити роботу контролера LSI 3ware SAS 9750-8i ми не можемо – залишається лише констатувати факти.

Результати тестування можна класифікувати по-різному. Наприклад, за сценаріями завантаження, коли для кожного типу завантаження наводяться результати для всіх можливих RAID-масивів з різною кількістю підключених дисків або за типами RAID-масивів, коли для кожного типу RAID-масиву вказуються результати з різною кількістю дисків у сценаріях послідовного читання , послідовного запису, випадкового читання та випадкового запису. Також можна класифікувати результати за кількістю дисків у масиві, коли для кожної кількості підключених до контролера дисків наводяться результати для всіх можливих (при даній кількості дисків) RAID-масивів у сценаріях послідовного читання та послідовного запису, випадкового читання та випадкового запису.

Ми вирішили класифікувати результати за типами масивів, оскільки, на наш погляд, незважаючи на досить велику кількість графіків, таке їхнє уявлення наочніше.

RAID 0

Масив RAID 0 можна створити із кількістю дисків від двох до восьми. Результати тестування для масиву RAID 0 наведено на рис. 7-15.

Мал. 7. Швидкість послідовного читання та запису
при восьми дисках у масиві RAID 0

Мал. 8. Швидкість послідовного читання та запису
при семи дисках у масиві RAID 0

Мал. 9. Швидкість послідовного читання
та записи при шести дисках у масиві RAID 0

Мал. 10. Швидкість послідовного читання та запису
при п'яти дисках у масиві RAID 0

Мал. 11. Швидкість послідовного читання та запису
при чотирьох дисках у масиві RAID 0

Мал. 12. Швидкість послідовного читання та запису
при трьох дисках у масиві RAID 0

Мал. 13. Швидкість послідовного читання та запису
при двох дисках у масиві RAID 0

Мал. 14. Швидкість випадкового читання
в масиві RAID 0

Мал. 15. Швидкість випадкового запису в масиві RAID 0

Зрозуміло, що найвища швидкість послідовного читання та запису в масиві RAID 0 досягається при восьми дисках. Варто звернути увагу на те, що при восьми та семи дисках в масиві RAID 0 швидкості послідовного читання та запису практично збігаються один з одним і при меншій кількості дисків швидкість послідовного запису стає вищою за швидкість читання.

Не можна не відзначити і характерні провали у швидкості послідовного читання та запису за певних розмірів блоків. Наприклад, при восьми та шести дисках у масиві такі провали спостерігаються при розмірі блоків даних 1 і 64 Кбайт, а при семи дисках - при розмірі 1, 2 та 128 Кбайт. Аналогічні провали, але за інших розмірів блоків даних є і за чотирьох, трьох і двох дисках в масиві.

По швидкості послідовного читання і запису (як усередненої за всіма розмірами блоків характеристиці) масив RAID 0 перевершує всі інші можливі масиви у конфігурації з вісьмома, сімома, шістьма, п'ятьма, чотирма, трьома та двома дисками.

Випадковий доступ у масиві RAID 0 також досить цікавий. Швидкість випадкового читання за кожного розміру блоку даних пропорційна кількості дисків у масиві, що цілком логічно. Причому при розмірі блоку 512 Кбайт за будь-якої кількості дисків в масиві спостерігається характерний провал швидкості випадкового читання.

При випадковому записі за будь-якої кількості дисків у масиві швидкість зростає зі збільшенням розміру блоку даних і ніяких провалів у швидкості немає. У той же час слід зазначити, що найбільша швидкість у цьому випадку досягається не за вісім, а за сім дисків у масиві. Слідом за швидкістю випадкового запису йде масив із шести дисків, потім із п'яти і лише потім із восьми дисків. Причому за швидкістю випадкового запису масив із восьми дисків практично ідентичний масиву із чотирьох дисків.

За швидкістю випадкового запису масив RAID 0 перевершує всі інші можливі масиви в конфігураціях з вісьмома, сімома, шістьма, п'ятьма, чотирма, трьома та двома дисками. А ось за швидкістю випадкового читання в конфігурації з вісьмома дисками масив RAID 0 поступається масивам RAID 10 і RAID 50, але в конфігурації з меншою кількістю дисків масив RAID 0 лідирує за швидкістю випадкового читання.

RAID 5

Масив RAID 5 можна створити із кількістю дисків від трьох до восьми. Результати тестування для масиву RAID 5 наведено на рис. 16-23.

Мал. 16. Швидкість послідовного читання та запису
при восьми дисках у масиві RAID 5

Мал. 17. Швидкість послідовного читання та запису
при семи дисках у масиві RAID 5

Мал. 18. Швидкість послідовного читання та запису
при шести дисках у масиві RAID 5

Мал. 19. Швидкість послідовного читання та запису
при п'яти дисках у масиві RAID 5

Мал. 20. Швидкість послідовного читання та запису
при чотирьох дисках у масиві RAID 5

Мал. 21. Швидкість послідовного читання та запису
при трьох дисках у масиві RAID 5

Мал. 22. Швидкість випадкового читання
в масиві RAID 5

Мал. 23. Швидкість випадкового запису
в масиві RAID 5

Зрозуміло, що найвища швидкість читання та запису досягається при восьми дисках. Варто звернути увагу, що для масиву RAID 5 швидкість послідовного запису в середньому вище, ніж швидкість читання. Однак за певного розміру запиту швидкість послідовного читання може перевищувати швидкість послідовного запису.

Не можна не відзначити і характерні провали за швидкістю послідовного читання та запису при певних розмірах блоків за будь-якої кількості дисків у масиві.

За швидкістю послідовного читання та запису в конфігурації з вісьмома дисками масив RAID 5 поступається масивам RAID 0 і RAID 50, але перевершує масиви RAID 10 і RAID 6. перевищує масив RAID 6 (інші типи масивів неможливі при даній кількості дисків).

У конфігураціях із шістьма дисками масив RAID 5 за швидкістю послідовного читання поступається масивам RAID 0 і RAID 50, а за швидкістю послідовного запису - тільки масиву RAID 0.

У конфігураціях з п'ятьма, чотирма та трьома дисками масив RAID 5 за швидкістю послідовного читання та запису поступається лише масиву RAID 0.

Випадковий доступ в масиві RAID 5 подібний до випадкового доступу в масиві RAID 0. Так, швидкість випадкового читання при кожному розмірі блоку даних пропорційна кількості дисків в масиві, а при розмірі блоку 512 Кбайт при будь-якій кількості дисків в масиві спостерігається характерний провал швидкості випадкового читання. Причому слід зазначити, що швидкість випадкового читання слабо залежить кількості дисків у масиві, тобто для будь-якої кількості дисків вона приблизно однакова.

За швидкістю випадкового читання масив RAID 5 у конфігурації з вісьмома, сімома, шістьма, чотирма і трьома дисками поступається решті масивів. І лише у конфігурації з п'ятьма дисками він трохи випереджає масив RAID 6.

По швидкості випадкового запису масив RAID 5 у конфігурації з вісьмома дисками поступається лише масивам RAID 0 і RAID 50, а конфігурації з сімома і п'ятьма, чотирма і трьома дисками - лише масиву RAID 0.

У конфігурації із шістьма дисками масив RAID 5 поступається за швидкістю випадкового запису масивам RAID 0, RAID 50 і RAID 10.

RAID 6

Контролер LSI 3ware SAS 9750-8i дозволяє створити масив RAID 6 із кількістю дисків від п'яти до восьми. Результати тестування для масиву RAID 6 представлені на рис. 24-29.

Мал. 24. Швидкість послідовного читання та запису
при восьми дисках у масиві RAID 6

Мал. 25. Швидкість послідовного читання та запису
при семи дисках у масиві RAID 6

Також відзначимо і характерні провали за швидкістю послідовного читання та запису при певних розмірах блоків за будь-якої кількості дисків у масиві.

По швидкості послідовного читання масив RAID 6 поступається решті масивів у конфігураціях з будь-якою (від восьми до п'яти) кількістю дисків.

По швидкості послідовного запису ситуація дещо краща. У конфігурації з вісьмою дисками RAID 6 випереджає масив RAID 10, а в конфігурації з шістьма дисками - і масиви RAID 10 і RAID 50. Правда, в конфігураціях з сімома і п'ятьма дисками, коли створення масивів RAID 10 і RAID 50 неможливо, цей масив виявляється на останньому місці за послідовною послідовністю запис.

Випадковий доступ у масиві RAID 6 подібний до випадкового доступу в масивах RAID 0 і RAID 5. Так, швидкість випадкового читання при розмірі блоку 512 Кбайт при будь-якій кількості дисків в масиві має характерний провал швидкості випадкового читання. Зазначимо, що максимальна швидкість випадкового читання досягається при шести дисках масиві. Ну а при семи та восьми дисках швидкість випадкового читання практично однакова.

При випадковому записі за будь-якої кількості дисків у масиві швидкість зростає зі збільшенням розміру блоку даних і ніяких провалів у швидкості немає. Крім того, швидкість випадкового запису хоч і пропорційна кількості дисків у масиві, але різниця за швидкістю незначна.

За швидкістю випадкового читання масив RAID 6 у конфігурації з вісьмома і сімома дисками випереджає лише масив RAID 5 і поступається решті можливих масивів.

У конфігурації із шістьма дисками масив RAID 6 поступається масивам RAID 10 і RAID 50 за швидкістю випадкового читання, а конфігурації з п'ятьма дисками - масивам RAID 0 і RAID 5.

По швидкості випадкового запису масив RAID 6 при будь-якій кількості підключених дисків поступається решті можливих масивів.

Загалом можна констатувати, що масив RAID 6 поступається за продуктивністю та масивами RAID 0, RAID 5, RAID 50 і RAID 10. Тобто за продуктивністю цей тип масиву опинився на останньому місці.

Мал. 33. Швидкість випадкового читання
в масиві RAID 10

Мал. 34. Швидкість випадкового запису в масиві RAID 10

Характерно, що в масивах з восьми та шести дисків швидкість послідовного читання вище швидкості запису, а в масиві з чотирьох дисків ці швидкості практично збігаються за будь-якого розміру блоку даних.

Для масиву RAID 10, так само як і для всіх інших розглянутих масивів, характерно падіння швидкості послідовного читання та запису при певних розмірах блоків даних за будь-якої кількості дисків у масиві.

При випадковому записі за будь-якої кількості дисків у масиві швидкість зростає зі збільшенням розміру блоку даних і ніяких провалів у швидкості немає. Крім того, швидкість випадкового запису пропорційна кількості дисків у масиві.

За швидкістю послідовного читання масив RAID 10 йде за масивами RAID 0, RAID 50 і RAID 5 у конфігурації з вісьмома, шістьма і чотирма дисками, а за швидкістю послідовного запису він поступається навіть масиву RAID 6, тобто йде за масивами RAID 0, RAID 50, RAID 5 та RAID 6.

Зате за швидкістю випадкового читання масив RAID 10 випереджає всі інші масиви в конфігурації з вісьмома, шістьма і чотирма дисками. А ось за швидкістю випадкового запису цей масив програє масивам RAID 0, RAID 50 і RAID 5 у конфігурації з вісьмома дисками, масивам RAID 0 і RAID 50 у конфігурації з шістьма дисками та масивам RAID 0 та RAID 5 у конфігурації з чотирма дисками.

RAID 50

Масив RAID 50 можна побудувати на шести чи восьми дисках. Результати тестування для масиву RAID 50 представлені на рис. 35-38.

У сценарії випадкового читання, як і всіх інших розглянутих масивів, спостерігається характерний провал продуктивності при розмірі блоку 512 Кбайт.

При випадковому записі за будь-якої кількості дисків у масиві швидкість зростає зі збільшенням розміру блоку даних і ніяких провалів у швидкості немає. Крім того, швидкість випадкового запису пропорційна кількості дисків у масиві, проте різниця за швидкістю незначна і спостерігається тільки при великому (понад 256 Кбайт) розмірі блоку даних.

По швидкості послідовного читання масив RAID 50 поступається лише масиву RAID 0 (у конфігурації з вісьмома та шістьма дисками). По швидкості послідовного запису масив RAID 50 також поступається лише масиву RAID 0 у конфігурації з вісьмома дисками, а конфігурації з шістьма дисками він програє масивам RAID 0, RAID 5 і RAID 6.

Зате по швидкості випадкового читання і запису масив RAID 50 поступається лише масиву RAID 0 і випереджає решту можливих при восьми і шести дисках масиви.

RAID 1

Як ми вже зазначали, масив RAID 1, який може бути побудований тільки на двох дисках, використовувати на такому контролері недоцільно. Однак, для повноти картини ми наводимо результати і для масиву RAID 1 на двох дисках. Результати тестування масиву RAID 1 представлені на рис. 39 та 40.

Мал. 39. Швидкість послідовного запису та читання в масиві RAID 1

Мал. 40. Швидкість випадкового запису та читання в масиві RAID 1

Для масиву RAID 10, як і всіх інших розглянутих масивів, характерно падіння швидкості послідовного читання і записи при певних розмірах блоків даних.

У сценарії випадкового читання, як і інших масивів, спостерігається характерний провал продуктивності при розмірі блоку 512 Кбайт.

При випадковому запису швидкість зростає зі збільшенням розміру блоку даних і ніяких провалів у швидкості немає.

Масив RAID 1 можна порівняти лише з масивом RAID 0 (оскільки у разі двох дисків ніякі більше масиви неможливі). Потрібно відзначити, що масив RAID 1 програє за продуктивністю масиву RAID 0 з двома дисками у всіх сценаріях навантаження, окрім випадкового читання.

Висновки

Враження від тестування контролера LSI 3ware SAS 9750-8i у поєднанні із SAS-дисками Seagate Cheetah 15K.7 ST3300657SS у нас склалося досить неоднозначне. З одного боку, у нього чудові функціональні можливості, з іншого - насторожують провали за швидкістю за певних розмірах блоків даних, що, безумовно, відбивається на швидкісних показниках RAID-масивів за її функціонуванні у реальному середовищі.

Після переходу SCSI на послідовні "рейки" професійні та напівпрофесійні RAID-контролери помітно змінилися. Паралельний інтерфейс SCSI забезпечує пропускну здатність до 320 Мбайт/с, яка розділяється між усіма пристроями, підключеними до шини за допомогою дорогого та примхливого кабелю. Інтерфейс Serial Attached SCSI (SAS), навпаки, підтримує швидкість 300 Мбайт/с на порт, багатоканальні або одноканальні кабелі, надлишкові канали, зовнішні та внутрішні пристрої. Контролери сумісні і з інтерфейсом SATA, тобто можна використовувати як ємні накопичувачі SATA, так і високопродуктивні вінчестери SAS. Нарешті, перехід із PCI-X на PCI Express йде повним ходом. Як ми вважаємо, настав час розглянути чотири RAID-контролери для серверів початкового рівня.

Багато користувачів досі цікавляться, чи варто купувати окремий RAID-контролер, враховуючи наявність таких потужних інтегрованих SATA-рішень, як Intel ICH9R, які можна виявити в багатьох топових материнських платах, наприклад, Asus P5K-WS (чіпсет P35 з інтерфейсом PCI- X) або P5K64-WS (чотири слоти PCI Express). Оскільки виробники оснащують свої топові моделі високоякісними стабілізаторами напруги та кращими компонентами, то різниця в якості між high-end настільною материнською платою та low-end серверним продуктом полягає лише у наборі функцій. За наявності шести портів SATA/300 на такій материнській платі, розширених функцій управління RAID і дво- або чотириядерного процесора, який займеться і розрахунком надлишкової інформації RAID 5, навіщо купувати зовнішній дорогий RAID-контролер?

Подібні інтегровані рішення, ймовірно, добре підійдуть для невеликого сервера для робочих груп, коли від масиву потрібно зберігати дані проекту, користувальницьку інформаціюта програми, але при зростанні навантаження обмеження виявляться дуже швидко. Якщо вам потрібні складніші рівні RAID, такі як RAID 50 або 60, то вбудовані рішення будуть мало корисні. Або, скажімо, якщо вам раптом потрібно підключити більше шести вінчестерів, доведеться переходити на інший контролер. А якщо вам потрібно запустити масив у зовнішній оснастці або ви хочете отримати весь набір функцій управління жорсткими дискамиТоді SAS, застарілі рішення SCSI або інші власні технології виробників залишаються єдиним можливим вибором.

Ми безперечно не рекомендуємо власні технології виробників, які обмежують у виборі контролера та оснащення. Вся необхідна інформаціяпро Serial Attached SCSI наведено у статті Тести жорстких дисків та контролерів SAS: дні SCSI вважаютьсявключаючи деталі інтерфейсу, кабелі, можливості розширення, оснащення, жорсткі диски, host-адаптери і т.д. Вінчестери SAS останнього покоління забезпечать набагато більшу продуктивність, ніж моделі SATA, однак сумісність із SATA та гнучкість використання є непоганою причиною, щоб використовувати уніфікований RAID-контролер у вашій системі.


Чи зможете розрізнити? Верхній роз'єм – SATA, а нижній належить накопичувачу Seagate Savvio SAS.

З'єднання SAS і SATA є повнодуплексними комутованими типу "крапка-крапка", тобто тут вже немає необхідності присвоювати кожному пристрою свій ID або термінувати шину. Дані щодо з'єднання можуть передаватися та прийматися одночасно. SAS та SATA підтримують "гаряче підключення". Для прискорення таких паралельних протоколів, як Ultra320 SCSI, потрібно або розширити шину, що призводило до більшої кількості проводів, або збільшити тактові частотиАле при цьому виникали проблеми із затримками сигналу. А послідовні з'єднання"точка-точка" можуть легко використовуватися спільно. Власне, у SAS даний принципякраз і використовується, коли кілька з'єднань SAS комбінуються разом для підключення зовнішніх оснасток.

Існує тільки одна механічна різниця між SAS і SATA: обидва інтерфейси використовують однакову розкладку для даних та живлення, але у SATA два роз'єми фізично розділені. У SAS обидва роз'єми з'єднані, тобто ви зможете підключати SATA-вінчестер до SAS-контролера, але у вас не вийде підключити SAS-накопичувач до SATA-контролера через роз'єм SATA(SFF 8482). Робота вінчестерів SATA на SAS-контролері можлива через те, що протокол Serial ATAменш складний і просто тунелюється в SAS під час передачі. Завдяки широким уніфікованим роз'ємам SAS фізичне підключеннявиконується дуже надійно, роз'єми що неспроможні випадково випасти. Основна причина невеликої різниці у двох роз'ємах полягає у розширеному наборі функцій SAS, який ви не виявите у SATA-контролерів: SAS підтримує двопортові з'єднання, забезпечуючи надмірне підключення жорсткого диска(необхідна опція для high-end сховищ) та підтримує так звані експандери (розширювачі) для розширення пристроїв зберігання, подібно до того, як мережевий комутатор працює з кількома клієнтами.

Що стосується продуктивності, то між двома інтерфейсами різниця невелика. Serial ATA 2.5 забезпечує максимальну пропускну здатність 3 Гбіт/с на порт із кодуванням 8/10 біт, що дає 2,4 Гбіт/с або 300 Мбайт/с на порт для передачі даних. Те саме стосується і SAS, хоча в планах значиться поява інтерфейсів на 6 і 12 Гбіт/с, що дасть пропускну здатність 600 і 1 200 Мбайт/с на порт.


SAS ліворуч, SATA праворуч.


Для угруповання портів SAS (зазвичай чотири) використовується роз'єм Mini SAS 4i (SFF-8087).

Тенденції вінчестерів: настання 2,5" моделей

Основна причина, чому 3,5" вінчестери продовжують домінувати у професійній сфері, полягає у фізичних габаритах, які чудово відповідають широким шлейфам SCSI. Однак менший 2,5" форм-фактор набагато більш привабливий, оскільки він поєднує високі швидкості обертання шпинделя на компоненти через менший діаметр обертових пластин. Але складні інтерфейси SCSI так і не змогли проникнути в 2,5" світ. Інтерфейс SAS змінив ситуацію: роз'єм SFF 8484 дозволяє підключати 2,5" або 3,5" накопичувачі, за протоколами SAS або SATA. 2,5" форм-фактор привабливішим для продуктивних сховищ, оскільки можна збільшити щільність розташування приводів, підвищуючи пропускну здатність і кількість операцій вводу/виводу в секунду. У той же час, 2,5" вінчестери споживають відчутно менше енергії, ніж 3,5" моделі. Енергоспоживання стає серйозною проблемою для професійних сфер та центрів обробки даних, де використовуються десятки, сотні або навіть тисячі жорстких дисків, і їх потрібно не тільки живити, а й охолоджувати, що також потребує чимало енергії. Звідси цілком зрозуміло, що рушійною силою 2,5" форм-фактора є ціна.

Лінійка Savvio від Seagate стала першою комерційно успішною в секторі 2,5" вінчестерів корпоративного рівня. Накопичувачі Savvio 10K.2 змінили перші моделі 10K.1, а вінчестери Savvio 15K.1 є одними з найпродуктивніших SAS-моделей на ринку. Ми не змогли отримати вісім жорстких дисків Savvio 15K.1 вчасно, тому вирішили зупинитися на восьми моделях Savvio 10K.2 Сьогодні доступні варіанти з ємністю 73 і 146 Гбайт Ми вибрали менший розмір, щоб наші тести проводилися за розумний проміжок часу. , використовують одну 2,5" пластину та інтерфейс SAS на 3 Гбіт/с. Як і інші накопичувачі корпоративного рівня, вони постачаються із п'ятирічною гарантією.

Як щодо 3,5" моделей?

Вони не помруть, але 3,5" вінчестери SAS поступово витіснятимуться з корпоративного високопродуктивного сектору, поступаючись місцем моделям з 2,5" форм-фактором. Якщо розглядати високу ємність, то SATA-моделі на 7200 об/хв залишаються кращим компромісом між продуктивністю і ємністю, вони вже досягли ємності в 1 Тбайт на жорсткий диск, а моделі SAS і SCSI на 10000 об/хв поки тримаються на рівні 300 Гбайт. Щоб задовольнити потреби корпоративних сховищ, Усе великі виробникижорстких дисків пропонують вінчестери SATA, валідовані для роботи в режимі 24/7 із п'ятирічною гарантією. Хорошими прикладами вважатимуться Seagate Barracuda ES, Hitachi UltraStar A7K1000 або E7K500, а також Western Digital RAID Edition (RE).

Прошивка: 5.2.0 Build 12415.

Перший RAID-контролер у нашому тестуванні – Adaptec RAID 3805. Ця компанія диференціює продукти початкового рівня та продуктивні рішення, але нумерація даної моделі потребує деяких пояснень. Кожен продукт, який починається з цифри "3", як у даному випадку, є уніфікованою моделлю SAS/SATA з пропускною здатністю 3 Гбіт/с порт. Друга цифра означає доступне число портів, тобто чотири для RAID 3405, вісім для RAID 3805 або 16 для RAID 31605. Якщо перед числом приводів стоїть "0", то контролер підтримує зовнішні оснащення. Остання цифра може бути "0" або "5", де "0" означає host-підтримку RAID, а "5" - апаратне прискорення RAID 5 та RAID 6. Всі уніфіковані контролери використовують інтерфейс PCI Express, тому моделі PCI-X залишилися в минулому. До речі, не слід плутати RAID 3805 та RAID 3085, де останній є зовнішньою картоюіз більш швидкісним процесором IOP.

RAID 3805 - сучасна модельз вісьмома портами SAS та апаратним прискоренням RAID для інтерфейсу PCI Express. Продукт позиціонується на початковий/середній рівень і може використовуватися під великою кількістю ОС, включаючи всі версії Windows, починаючи з Windows 2000, а також Red Hat та SuSe Linux, Novell Netware, SCO Open Server, Sun Solaris, FreeBSD, UnixWare та VMware ESX Server. Контролер для розрахунку XOR-операцій використовує процесор Intel 80333 на частоті 500 МГц та оснащений 128 Мбайт пам'яті DDR2 з ECC. Завдяки низькопрофільному форм-фактору та двом роз'ємам SFF 8487, кожен з яких забезпечує чотири порти по одному фізичному з'єднанню, RAID 3805 можна встановлювати на компактні сервери 1U, які мають слот x4 PCI Express.

Adaptec підтримує режими RAID 0, 1, 1E (аналогічний RAID 10), 5, 5EE (з запасним жорстким диском/hot spare), 6, 10, 50, 60 та JBOD, що дає адміністраторам певну гнучкість. Що стосується функцій, то список довгий, включаючи всі звичні функції RAID - онлайнове розширення ємності, міграція рівнів RAID, швидка/фонова ініціалізація, підтримка "рідної" черги команд (NCQ), різні режими вказівки запасних дисків (spare дисків) (global/dedicated/pooled ), робота з оснастками через SCSI-accessed Fault-Tolerant Enclosure (SAFTE), відкладений час розкручування шпинделя і т.д. Серед цікавих функцій відзначимо так звану "copyback hot spare", яка після заміни вінчестера, що вийшов з ладу, перетворює новий жорсткий диск як би на колишній. Так що мітки дисків в оснастці міняти не доведеться. У таблиці нижче ми порівняли функції трьох контролерів.

В комплект поставки входять контролер, низькопрофільна заглушка для слота, коротка інструкція з встановлення кількома мовами, CD з програмним забезпеченням, а також два чотирипортові кабелю Mini SAS на SATA/SAS стандартів SFF 8487 та SFF 8484. Є опціональний модуль акумулятора, який дозволяє зберігати в оперативній пам'яті кешовані дані після втрати живлення. Компанія вирішила відмовитися від продажу пакета Advanced Data Protection (підтримка RAID 6 та додаткових функцій) у вигляді опціонального оновлення. Але резервування через знімки (snapshot backup) буде доступним лише після купівлі реєстраційного ключа. На RAID-контролер надається трирічна гарантія.

На момент публікації Adaptec RAID 3805 коштував $600.


Натисніть на зображення для збільшення.

Atto випускає два контролери RAID 5 SAS/SATA з інтерфейсом PCI Express: R380, з двома зовнішніми портами, по чотири накопичувачі кожен, і R348, з одним портом для чотирьох зовнішніх накопичувачів (SFF 8088) та двома портами для підтримки до восьми внутрішніх вінчестерів (SFF 8087). Втім, ви можете використовувати максимум вісім портів, рахуючи внутрішні і зовнішні. За інформацією на сайті Atto, дана функціяє унікальним. Ми вирішили протестувати R348, оскільки дана модельбільш гнучка, ніж R380.

Спочатку про недоліки: цей контролер не підтримує RAID 6, і він не має такої широкої підтримки ОС як моделі Adaptec. Крім того, на нього дається дворічна гарантія, хоча Adaptec, ICP та Ciprico/Raidcore дають три роки. Нам повідомили також і про те, що параметри контролера за умовчанням можуть не давати оптимальної продуктивності, але, на жаль, вже після того, як ми завершили тести. Функція під назвою "RGSSpeedRead" дозволяє виконувати попереджувальне читання з масивів RAID, але її потрібно вмикати через командний інтерфейс. Ми знайшли короткий опис цієї функції на останніх сторінках інструкції. Ми не мали часу на повторення всіх тестів, але після включення "RGSSpeedRead" швидкість читання дійсно зростає. Прикро, що Atto не увімкнула цю функцію на заводі. Або не присвятила окремого розділу в інструкції оптимізації продуктивності. R348 має інтерфейс Java, який простий у використанні, але не дає великої кількості опцій. Ми також не розуміємо, чому користувачі повинні обов'язково зареєструватися в Atto перед тим, як щось завантажувати.

Як і інші контролери, Express SAS R348 – низькопрофільна карта PCI Express, яка використовує вісім ліній PCIe. Але, на відміну від карт Adaptec та ICP, вона оснащена 256 Мбайт пам'яті DDR2 з підтримкою ECC. Крім того, використовується потужніший процесор XScale IOP 348 на частоті 800 МГц. Він забезпечив хороші, хоч і не чудові результати в тестах введення/виведення.

Що стосується функцій, то RAID-контролер Atto підтримує всі основні режими RAID: 0, 1, 10, 5, 50. Він може працювати в режимі JBOD і навіть в RAID 4, який зберігає всю надмірність інформації на одному жорсткому диску. Але, на відміну від RAID 3, масив RAID 4 створює stripe-блоки більшого розміру, а не однобайтові блоки, як у RAID 3, що дає RAID 4 приріст продуктивності в порівнянні з RAID 3. Рівні RAID 6 і 60 поки не підтримуються, але Atto обіцяє, що незабаром вони будуть додані. Те саме стосується і опціонального акумулятора, який поки не доступний. Підтримуються ОС Windows Server 2003, Windows 2000, Windows XP та Windows Vista, Max OS X 10.4, а також три різні дистрибутива Linux, але зі списку виключені Solaris, FreeBSD та Netware.


Натисніть на зображення для збільшення.
Натисніть на зображення для збільшення.

Версія прошивки: 5.2.0 Build 12415.

Цей продукт технічно ідентичний Adaptec RAID 3805, в основному через те, що ICP Vortex входить до групи компаній Adaptec. Отриманий нами зразок не підтримував RAID 6 та функцію "copyback", що було пов'язано із застарілою прошивкою. Оновлення додало підтримку RAID 6 та "copyback spare". Втім, між Adaptec RAID 3805 та ICP 5085BL є серйозна відмінність: ICP використовується більш швидкісний процесор IOP333 на 800 МГц, а Adaptec RAID 3805 працює на частоті 500 МГц. ICP використовує 256 Мбайт кеш-пам'яті DDR2 з підтримкою ECC, а Adaptec її об'єм обмежений 128 Мбайт. В результаті ми отримуємо в тестах більш високу продуктивність у RAID 5. Набір функцій, програмне забезпечення та вміст комплекту поставки ідентичні контролеру Adaptec.


Натисніть на зображення для збільшення.


Натисніть на зображення для збільшення.

Версія прошивки: 3.0.0.

Наше перше знайомство з контролерами Raidcore відбулося ще 2003 рокуі виявилося дуже вражаючим: host-контролер використовує архітектуру під назвою Fulcrum, яка дозволяє створювати потужні RAID-контролери, незалежні від апаратного рівня. В результаті Raidcore виявилася однією з перших компаній, які запропонували рішення з підтримкою розподілу RAID-масивів за кількома контролерами. Це стало можливим завдяки спеціальній логіці, яка працює на host-машині. Але є і недолік - всі розрахунки інформації надмірності повинні виконуватися центральним процесорам host-системи, хоча сьогодні, з появою дво- і чотириядерних процесорів, це не така гостра проблема.

Сучасні рішення Raidcore просуває компанія під назвою Ciprico. У лінійці RC5000 є чотири різні моделі: дві низькопрофільні карти з чотирма та вісьмома портами, а також дві карти з повною висотою на 12 та 16 портів. Цифра "8" якраз і означає наявність восьми портів, моделі 5100 використовують інтерфейс PCI-X, а 5200 - PCI Express x1 або x4. Ciprico є єдиним виробником, що забезпечує розподіл масиву за декількома контролерами (controller spanning), в результаті чого можна створювати великі RAID-масиви на декількох (і навіть різних) контролерах Raidcore. Список функцій повніший, ніж у Adaptec/ICP або Atto, включаючи роумінг дисків (переведення вінчестерів на будь-який порт будь-якого контролера), гнучке розташування дисків для заміни/spare (dedicated/global/distributed), поділ дзеркал (mirror splitting), приховування масиву (Array hiding) і т.д.

Raidcore поки не підтримує масиви з подвійною надмірністю RAID 6 або RAID 60, але є підтримка RAID 0, 1, 10, JBOD, 5, 50, 1n та 10n. Драйвери доступні під усі поширені версії Windows, Red Hat, Suse та Fedora Linux. Novell Netware, Sun Solaris та інші ОС не підтримуються. Ciprico дає трирічну гарантію, та й програмне забезпечення управління дуже логічне та потужне. Продуктивність RC5252-8 виявилася гарною, хоча вона багато в чому залежить від host-системи. У нашому випадку один двоядерний процесор Xeon (ядро Nocona) на частоті 3,6 ГГц виявився гарним вибором. Втім, будь-який двоядерний Xeon 5200 (Woodcrest або Clovertown) дасть ще більшу продуктивність.


Натисніть на зображення для збільшення.


Виробник Adaptec Atto ICP Raidcore
Модель RAID 3805 ExpressSAS R348 RC5252-8
Внутрішні роз'єми 2x SFF 8087 2x SFF 8087 2x SFF 8087 2x SFF 8087
Зовнішні роз'єми Н/Д 1x SFF 8088 Н/Д Н/Д
Загальна кількість портів SAS 8 8 8 8
Кеш-пам'ять 128 Мбайт DDR2 ECC 256 Мбайт DDR2 ECC 256 Мбайт DDR2 ECC Ні
Інтерфейс PCI Express x4 PCI Express x8 PCI Express x4 PCI Express x4
XOR-движок Intel 80333 500 МГц IOP 348 800 МГц Intel 80333 800 МГц Програмний
Міграція рівнів RAID Так Так Так
Онлайнове розширення ємності Так Так Так Так
Декілька масивів RAID Так Так Так Так
Відкладена розкрутка шпинделя Так Так Так
Гнучка підтримка запасного/ spare вінчестера Так Так Так Так
Автоматичне подолання збою (Automatic Failover) Так Так
Акумулятор для резервного живлення Опціонально Опціонально Опціонально Не потрібний, кеша ні
Вентилятор Ні Ні Ні Ні
Підтримка ОС

Novell NetWare 6.5
SCO OpenServer
UnixWare
Sun Solaris 10x86
FreeBSD
Windows Vista, Server 2003, XP, 2000
Mac OS X (10.4.x)
Linux (Fedora, Red Hat and SuSE)
Windows 2000, XP, Server 2003, Vista
Red Hat Enterprise Linux (RHEL)
SUSE Linux Enterprise Server (SLES)
Novell NetWare 6.5
SCO OpenServerUnixWare
Sun Solaris 10x86
FreeBSD
Windows 2000, XP, Server 2003, Vista
Red Hat Enterprise Linux (RHEL) 4,5
SuSE 9.3, 10.1, 10.2
SUSE Linux Enterprise Server (SLES)
Fedora Core 5,6
Інше Copyback DVRAID Copyback Controller Spanning
Гарантія 3 роки 2 роки 3 роки 3 роки
Рекомендована роздрібна ціна $575 $1 095 $650

Системне апаратне забезпечення
Процесори 2x Intel Xeon (ядро Nocona), 3,6 ГГц, FSB800, 1 Мбайт кешу L2
Платформа Asus NCL-DS (Socket 604), чіпсет Intel E7520, BIOS 1005
Пам'ять Corsair CM72DD512AR-400 (DDR2-400 ECC, reg.), 2x 512 Мбайт, затримки CL3-3-3-10
Системний жорсткий диск Western Digital Caviar WD1200JB, 120 Гбайт, 7200 об/хв, кеш 8 Мбайт, UltraATA/100
Контролери накопичувачів Intel 82801EB UltraATA/100 (ICH5)
Promise SATA 300TX4
Promise FastTrak TX4310
Драйвер 2.06.1.310
Мережа Broadcom BCM5721 вбудована 1 Гбіт/с
Відеокарта Вбудована ATI RageXL, 8 Мбайт
Тести
Тести продуктивності Atto Diskmark
Продуктивність введення/виводу IOMeter 2003.05.10
Fileserver Benchmark
Webserver Benchmark
Database Benchmark
Workstation Benchmark
Системне ПЗ та драйвери
ОС Microsoft Windows Server 2003 Enterprise Edition, Service Pack 1
Драйвер платформи Intel Chipset Installation Utility 7.0.0.1025
Графічний драйвер Графічний драйвер Windowsза замовчуванням

Результати тестів

Час ініціалізації RAID

Ми використовували вісім вінчестерів Seagate Savvio 10K.2 і визначали час, який потрібний контролерам на створення масивів RAID 5 або RAID 6.

Контролер RAID 5 RAID 6
1 година 12 хвилин 1 година 2 хвилини
Atto 23 хвилини Н/Д
57 хвилин 57 хвилин
2 години 42 хвилини

Цілком зрозуміло, що контролери з найшвидшими XOR-процесорами виявилися найшвидшими. Втім, всі контролери підтримують фонову ініціалізацію, яка знижує продуктивність, але дозволяє відразу користуватися масивом.

Пропускна здатність зниженого RAID 6

Всі чотири контролери дуже потужні і забезпечують високу продуктивність сховища та великий набір функцій, що дозволяють створювати гнучкі та високопродуктивні масиви для серверів середнього та початкового рівнів. Усі контролери мають вісім портів SAS, але до них можна підключати і вінчестери SATA, включаючи змішані варіанти SAS/SATA. За допомогою розширювачів SAS (expander) можна підключати більшу кількість вінчестерів. Як ми вважаємо, чотири розглянуті контролери підходять для підключення до 12 жорстких дисків, оскільки більшість моделей націлені на внутрішні жорсткі диски. Якщо ви хочете підключати зовнішні оснастки, зверніть увагу на моделі із зовнішніми портами Mini-SAS.

Контролер ICP 5085BL дуже близький до Adaptec RAID 3805, але забезпечує більш високу продуктивність завдяки швидшому XOR-процесору і вдвічі більшому обсягу кеш-пам'яті. Втім, і ціна дещо вища: рекомендована $650 замість $575 у Adaptec RAID 3805. Обидві карти дають вражаючий набір функцій і поставляються з повним набором програмного забезпечення, який за останні роки значно покращився. Не забуватимемо, що Adaptec - один із найвідоміших гравців на ринку професійних систем зберігання. Atto запитує за свій контролер $1 095, причому за таку ціну ви отримаєте менше функцій RAID (за винятком підтримки RAID 4), та й вам потрібно виконати додаткове налаштування контролера, щоб він працював швидше. Нічого страшного, але при налаштуваннях за умовчанням вимкнено функцію, яка прискорює продуктивність читання. Контролер дає хороші результати зі зниженим масивом RAID 5, оскільки продуктивність запису не падає, на відміну інших продуктів.

Raidcore постачає найбільш функціональне програмне забезпечення, що є результатом іншої архітектури: вона прив'язана до host-машини та залежить від її продуктивності. На жаль, Raidcore поки не підтримує RAID 6 (власне, як і Atto), але ви можете розподіляти масиви RAID за кількома контролерами Raidcore, при цьому рівень продуктивності в тестах вводу/виводу на двопроцесорному сервері Xeon виявився чудовим. Швидкості передачі були теж високі, але інші контролери зазвичай обходять Raidcore у цій дисципліні.

Якщо ви не проти того, щоб контролер навантажував host-сервер розрахунками XOR і список підтримуваних ОС вас влаштовує, модель Ciprico/Raidcore забезпечить чудове співвідношення ціна/якість. Втім, Adaptec дає більш високу продуктивність у багатьох областях, та й ціна $575 теж цілком розумна.

З моменту анонсу контролерів серій 9260, крім моделей з приставкою “CV”, минуло приблизно два роки. За цей час у російськомовній частині інтернету нашими колегами з ІТ-журналістики було опубліковано кілька оглядів, що описують переваги цієї серії, та проведено чимало тестів. Щоб не повторювати весь шлях наших колег, ми вирішили розкрити значення абревіатури “CV” у контролерах оновленої серії. Тому тести ми проводили з метою виявити різницю між вже знайомими контролерами ринку та оновленими, з маркуванням “CV”. Звичайно, нам все ж таки доведеться зробити ті ж кроки, що і наші колеги, а саме зняти результати тестів рівнів RAID. Але ми розраховуємо на те, що порівняльний аналіз результатів роботи контролера з Cache Cade буде гідно оцінений нашими читачами. Але про все по порядку.

Специфікації контролера

Почнемо з розгляду апаратної частини контролера, його найбільш важливих характеристикта можливостей, функціонала, який він несе "на борту" і який забезпечується додатковим ПЗ.

Основні апаратні та програмні характеристикинаведено у таблиці

LSI MegaRAID SAS 9260CV-8i

Рішення Внутрішні SATA+SAS контролери на вісім портів для додатків інтенсивного вводу-виводу. Широка смуга пропускання, підключення SAS, SATA чи твердотільних накопичувачів. Зниження витрат на технічне обслуговування та сукупної вартості володіння завдяки застосуванню технології CacheVault
Розміри Низькопрофільний формат MD2 (6,6 дюймів X 2,536 дюйма)
Роз'єми Два внутрішні роз'єми Mini-SAS SFF-8087
Підтримка пристроїв До 128 жорстких дисків SAS та (або) SATA та твердотільних накопичувачів
Тип шини головного процесора PCI Express х8 версії 2.0
Швидкість передачі даних До 6 Гбіт/с (на кожен порт)
Процесор введення-виведення SAS-контролера LSISAS2108 з технологією RAID on Chip (ROC)
Об'єм кеш-пам'яті 512 Мбайт DDRII SDRAM
Захист кешу Флеш-захист кеш-пам'яті MegaRAID CacheVault
Основні характеристики захисту даних RAID
  • RAID – рівні 0, 1, 5 та 6
  • Розширення RAID до 10, 50 та 60
  • Оперативне збільшення ємності (OCE))
  • Оперативна міграція з одного на інший рівень RAID (RLM)
  • Автоматичне поновлення роботи після відключення живлення у зв'язку з модернізацією або реконструкцією масиву (RLM)
  • Багатоканальна структура підтримки для одного контролера (перемикання при відмові)
  • Розподіл завантаження
  • Конфігурація сегменту чергування даних до 1 Мб
  • Швидка ініціалізація, що забезпечує швидке налаштування масиву
  • Перевірка на узгодженість цілісності даних
  • Регулярна перевірка - сканування та відновлення носіїв
  • Підтримка 64 логічних дисків
  • Підтримка до 64 Тбайт на один логічний пристрій (LUN)
  • Конфігурація диска (COD), сумісна з DDF
  • Підтримка S.M.A.R.T
  • Загальне та роздільне гаряче резервування з функцією відновлення
Управління RAID
  • MegaRAID Management Suite
  • MegaRAID Storage Manager
  • MegaCLI (інтерфейс з командним рядком)
  • WebBIOS
Опціональна оптимізація твердотільного накопичувача

Програмне забезпечення MegaRAID CacheCade збільшує продуктивність введення-виводу, використовуючи як кеш-пам'ять твердотільний накопичувач
Програмне забезпечення MegaRAID Fast Path забезпечує продуктивність до 150 000 операцій введення-виведення в секунду для масивів твердотільних накопичувачів

Контролер 9260CV-8i належить до серії Value Line (серія доступних рішень). Від контролерів дорожчої серії Feature Line цю модель відрізняє наявність CacheVault (пам'яті NAND Flash) "на борту" контролера та використання іоністорів (суперконденсаторів) замість звичних літій-іонних резервних батарей (BBU). На відміну від пристроїв серії Entry, в 9260CV-8i використовується потужніший процесор LSISAS2108 800 МГц з архітектурою PowerPC.

Типи підтримуваних рівнів RAID змін не зазнали. Заявлені ті ж знайомі типи RAID та їх модифікації: 0, 00, 1, 10, 5, 50, 6 та 60.

Як ми згадали вище, місце звичного резервного акумулятора BBU зайняли суперконденсатори, які стали складовою нової захисту кешу (Cache Vault). Основний принцип дії Cache Vault практично ідентичний використанню BBU. Суперконденсатор підтримує живлення кешу. Але, якщо у випадку класичного BBU з літій-іонними осередками інформація в ОЗУ контролера зберігається протягом приблизно 72-х годин, після чого дані пропадають, то іоністор, крім того, що підтримує в кеш робочому стані, дозволяє зробити запис інформації з кеша на модуль флеш-пам'яті NAND, що знаходиться на контролері. При поновленні подачі живлення інформація з NAND знову буде переписана до кешу контролера. За даними LSI (LSI MegaRaid CacheVault Technology) інформація NAND може зберігатися приблизно три роки.

Програмне забезпечення

Керувати контролером і проводити його налаштування найзручніше через MegаRAID Storage Manager. Також існує так званий WebBIOS - BIOS контролера, що викликається під час ініціалізації під час завантаження сервера, а також командний рядок (CLI).

За окремі гроші функції контролера може бути значно розширено. Додатковий функціонал включає такі фірмові технології LSI.

MegaRAID FastPath

Дозволяє оптимізувати роботу SSDдисків підключених до контролера та збільшити кількість операцій введення-виведення транзакційних додатків. Компанія LSI запевняє про триразове збільшення продуктивності до 150 000 операцій вводу/виводу в секунду, при використанні MegaRAID FastPath.

MegaRAID CacheCade

Функція за допомогою якої SSD диск використовується як кеш для масиву жорстких дисків, що дозволяє приблизно в 50 разів підвищити продуктивність у web-орієнтованих додатках, в базах даних і в обробці транзакцій в реальному часі (OLTP)

MegaRAID Recovery

Використовуючи технологію миттєвих знімків, ця функція дозволяє створювати образи системи лише на рівні блоків. Можливе відновлення як окремих папок та файлів, так і ранніх станів системи загалом.

MegaRAID SafeStore

Спільно із вбудованою у диски системою шифрування SED (self-encrypting drives) забезпечує високий рівень безпеки від неавторизованого доступу та спроб змінити дані.

Існує два варіанти активації перерахованих функцій. Перший - використовувати апаратний ключ, тобто мікросхему, що встановлюється прямо на контролер. Другий - введення програмного ключа через RAIDweb console, або через оснащення MegaRAID Storage Manager, що встановлюється безпосередньо в операційній системі. Варіанти рівнозначні з погляду результату, а користувач може вибрати найбільш зручний для нього спосіб активації функцій.

Методика тестування

Наша методика ґрунтується на власному багаторічному досвіді роботи з серверним програмним забезпеченням. Але, як це зазвичай буває, частка суб'єктивізму є. Тому ми готові відточувати методику разом із читачами. Залишайте наприкінці статті свої побажання.

Нами була використана платформа Windows 2008 R2, а для оцінки підсистеми введення/виведення використовувалася утиліта IOMeter версії 2006.07.27.

У тестуванні ми використовували сервер Asustek RS720-E6. Конфігурація наведена у таблиці нижче.

Конфігурація тестового сервера Asustek RS720-E6
Компонент Характеристики
Системна плата ASUS Z8PE-D18
Мікропроцесор 2 х Intel Xeon E5620 (Westmere-EP), 2,40 ГГц, кеш 12 Мбайт
Оперативна пам'ять 12 х Samsung DIMM DDR3-1333 4 Гбайт PC3-10600 ECC Registered M393B5273BH1-CH9
Жорсткі диски 7 х Hitachi Ultrastar 15K600 SAS-2.0 600 Гбайт 15000 об/хв 64 Мбайт HUS156060VLS600
Твердотільний накопичувач Intel SSD 510250 Гбайт

Один із семи дисків ми відвели під операційну систему. Корпус використовуваного нами сервера підтримує встановлення 12 дисків, але через те, що його оснащення backplane не містить експандера, і підключення контролера здійснюється через звичайні 7-конатактні SATA-кабелі, ми використовували лише 7 дисків. Також одне посадкове місце ми використали для SSD під CacheCade.

Для тестування ми користувалися готовими шаблонами в IOmeter, зокрема WebServer, DataBase, FileServer, WorkStation. Також ми використовували шаблони послідовного та довільного читання/запису з блоками даних різних розмірів — від 512 байт і до 1 Мбайт з кроком, що вдвічі перевищує попередній блок. Глибину черги команд обрали рівною 30, що дозволило навантажити дискову підсистему. Велика глибина черги команд й у корпоративного оточення, де дискова підсистема зіштовхується з великим навантаженням. Як таке навантаження можуть виступати віртуальні машини та термінальні сервери. Як видно з характеристик нашої платформи, вона призначена для корпоративного сектора. Досвідченим шляхом було виявлено, що 30 команд є нижнім кордоном, з якого починається підвищене навантаження на дискову підсистему. Тестам піддалися всі рівні RAID та їх модифікації, підтримувані контролером, з використанням Cache Cade і без нього: 0, 00, 1, 10, 5, 50, 6. Винятком виявився рівень 60, оскільки відсутність експандера не дозволило встановити вісім дисків.

У першому етапі було протестовано продуктивність вводу/вывода 14 конфігурацій. Список представлений у таблиці.

Тестові конфігурації RAID
RAID-00 4 диски
RAID-00 + CacheCade 4 диски
RAID-0 5 дисків
RAID-0 + CacheCade 5 дисків
RAID-1R 4 диски
RAID-1 + CacheCade 4 диски
RAID-5 5 дисків
RAID-5 + Cache Cade 5 дисків
RAID-6 5 дисків
RAID-6 + CacheCade 5 дисків
RAID-10 4 диски
RAID-10 + CacheCade 4 диски
RAID-50 6 дисків
RAID-50 + CacheCade 6 дисків

RAID-1 із чотирьох дисків аналогічний RAID10, що підтверджується тестами.

Другим етапом ми зробили кілька вимірювань з віртуальним машинам, для чого ми розгорнули роль Hyper-V і запустили одночасно 4 віртуальні машини з Windows 7. Кожна віртуальна машина відповідала одному шаблону IOmeter: два web-серверам, наприклад корпоративному (внутрішньому) і зовнішньому, серверу баз даних та файловому серверу. Таким чином, можна простежити роботу пристрою у реальному сценарії. Роботу даного тесту вирішено було перевірити з найбільш популярною практично конфігурацією масиву - RAID5. CacheCade був задіяний.

Результати тестування

Детальні цифри за всіма графіками можна переглянути в .

Шаблон DataBase без використання CacheCade (СС)

Шаблон FileServer без використання CacheCade (СС)

Шаблон WorkStation без використання CacheCade (CC)

Шаблон WebServer без використання CacheCade (CC)

На перших трьох графіках лідируючі позиції займають RAID-0 та RAID-50. RAID-50 виграє у RAID-10. На графіку результатів роботи з шаблоном WebServer у лідерах вже опиняється RAID-50 і за ним підтягуються всі інші. Причина відходу в лідери RAID-50 у кількості дисків — на один більше, ніж у інших рівнів RAID, крім RAID-6. По-друге, у web-шаблоні блоки даних лише читаються, незважаючи на те, що читання виконується довільно. RAID-6 у всіх шаблонах, крім WebServer, взагалі доводиться тяжко, оскільки контролеру необхідно обчислювати контрольну суму двох дисків.

Розглянемо ті самі шаблони лише із застосуванням CacheCade:

Тест покликаний показати приріст продуктивності або відсутність його в операціях введення/виводу

Шаблон DataBase з використанням CacheCade (СС)

Шаблон FileServer за допомогою CacheCade (СС)

Шаблон WorkStation з використанням CacheCade (CC)

Шаблон WebServer з використанням CacheCade (CC)

При порівнянні результатів можна відзначити, що графіки практично ідентичні, але невелике збільшення кількості операцій на деяких типах масивів RAID все ж таки присутнє, але воно настільки мало, що майже у всіх результатах їм можна знехтувати.

Варто також відзначити, що для деяких рівнів RAID результати з CacheCade виявилися нехай незначно, але менше, ніж без його застосування. Особливо це видно за шаблоном FileServer, на рівнях RAID 00, 5, 6 і 10. Найменше зниження виявилося в шаблоні WebServer — тільки в RAID5 результат виявився помітно нижчим від отриманого без Cache Cade. Важко сказати, з чим саме це зниження може бути пов'язане. Можна припустити, що відбувається через 20% операцій запису, заданих в налаштуваннях шаблону.

Тепер подивимося, наскільки додатковий кеш у вигляді SSD дискадасть приріст за швидкістю послідовного читання та запису. Цілком можливо, що він може здатися зайвим, оскільки швидкісні характеристики RAID масивів, як мінімум, можна порівняти з такими у одиночних SSD дисків. Як би там не було, тести покажуть.

Послідовне читання, мегабайти за секунду, без використання CacheCade

За графіком видно, що перше місце займає RAID 0, що логічно, оскільки читання проводиться паралельно з кількох дисків, на 5 дисках швидкість піку досягає 930 мегабайт в секунду. За ним йдуть, практично, врівень три масиви: RAID5, RAID00 і дав просідання на блоках розміром 16 кбайт RAID50. RAID1 і RAID10 показують ідентичні результати, оскільки, як було сказано вище, по суті, ідентичні та розкривають свій потенціал у цьому тесті на блоках 512 кбайт. RAID6 показує рівномірний результат, починаючи з блоків розміром від 4 кбайт.

Послідовно читання, мегабайти за секунду, з використанням CacheCade

Варіант, при якому використовується Cache Cade, дає практично ідентичні результати, з тією різницею, що падіння швидкості на блоках 16 кбайт у випадку RAID50 тут відбувається різкіше. Відомо, що швидкість читання залежить від розміру stripe – безперервної послідовності дискових блоків. Можливо, що на цей провал і вплинув його розмір, який за умовчанням для контролерів встановлюється рівним 64 кбайт, і який залишався незмінним під час всіх тестів. Можливо, падіння могло бути викликане роботою з даним блоком на цьому рівні RAID прошивкою контролера. Ми намагатимемося з'ясувати, з чим пов'язана така поведінка контролера в інженерів LSI.

Послідовний запис, мегабайти за секунду, без використання CacheCade

При записі навантаження на диски зростає, відповідно швидкість запису буде менше в порівнянні з читанням. Результати стабільніші — таких провалів, як під час читання, вже немає. При збільшенні блоку даних до 4-16 кбайт швидкість запису зростає, далі практично не змінюється.

Послідовний запис, мегабайти на секунду, з використанням CacheCade

І знову результати дуже схожі. Для деяких блоків у цьому тесті різниця склала буквально 100 кбайт/с, причому не на користь CacheCade. Але такою різницею знову ж таки можна знехтувати. Єдині рівні RAID, яким кеш пішов на користь – це RAID1 та RAID5. Швидкість запису у разі RAID1 зросла на 100 Мбайт/с у разі блоків розміром 2 кбайт, а RAID5 — 50 Мбайт/с при блоках 8 кбайт.

Довільне читання, мегабайти за секунду, без використання CacheCade

Довільне читання не сильно, але все ж таки розділило RAID-масиви на три різні групи за отриманими результатами. Помітно на великих блоках. У першій групі RAID1 і RAID10, у другій - RAID0 і RAID00, у третій - RAID5, RAID50 і RAID6. Під час читання на масиви не діють обмеження, що мають місце у разі запису – відрахування контрольних сум (RAID5, 50 та 6) та дублювання інформації (RAID1 та RAID10). У лідерах тут RAID1 і RAID10, оскільки мають меншу кількість дисків у порівнянні з рештою рівня RAID.

Довільне читання, мегабайти за секунду, з використанням CacheCade

Графік аналогічний попередньому, з тією різницею, що технологія Cache Сade трохи збільшила швидкість роботи з блоками 256 кбайт і 512 кбайт для RAID1 і RAID10.

Довільний запис, мегабайти на секунду, без використання CacheCade

Запис вносить свої корективи. Порівняно з попередніми графіками, швидкість впала приблизно на 50 Мбайт/с. Крім того, що головки змушені "пробігати" по диску в пошуках даних у хаотичному порядку, вносячи затримки, також впливають і параметри RAID-масивів, які забезпечують їхню надійність (контрольні суми та дублювання).

Довільний запис, мегабайти в секунду за допомогою CacheCade

І знову варіації мінімальні. У шаблонах довільного запису SSD-кеш намагається збільшити продуктивність дискової підсистеми, але стикається зі складнощами. Незважаючи на високу продуктивність SSD при довільному записі, все впирається в розрахунок додаткових контрольних сум (RAID5, 50 та 6), дублювання інформації (RAID1, 10) та кількість дисків (RAID0, 00) – у виконанні цих накладних завдань SSD не допоможе.

Тепер звернемося до результатів вимірювання кількості операцій введення-виведення.

Послідовне читання, операції за секунду, без використання CacheCade


Послідовні читання, операції за секунду, з використанням CacheCade

Послідовний запис, операції за секунду, без використання CacheCade

Послідовний запис, операції в секунду, за допомогою CacheCade

З графіків видно, весь свій потенціал CacheCade розкриває під час роботи з послідовними операціями введення вывода. Різниця між тестами з CacheCade та без нього для деяких блоків даних становить понад 100 000 операцій на секунду. Наприклад, для RAID5 у разі читання це 275 000 IOPS з CacheCade проти 167 000 IOPS без використання кешу. Але це справедливо не для всіх рівнів RAID, наприклад RAID0, RAID10, RAID6 можна помітити різницю не на користь CacheCade. Чому так відбувається, ми не можемо відповісти. Питання поставимо фахівцям LSI і, отримавши відповідь, внесемо роз'яснення до статті.

Довільне читання, операції за секунду, без використання CacheCade

Довільне читання, операції за секунду, з використанням CacheCade

Довільний запис, операції за секунду, без використання CacheCade

Довільний запис, операції за секунду, з використанням CacheCade

Довільні операції не одержують переваг від використання CacheCade.

Тести віртуальних машин

Результати для однієї віртуальної машини

Результати для чотирьох одночасно працюючих віртуальних машин.

Взагалі наша витівка з тестом віртуальних машин відноситься до категорії "а чому б не спробувати?" Ми спробували подивитися на роботу контролера у практичних умовах, наближених до "бойових".

Результатів тестів віртуальних машин нас не здивували. Єдина відмінність, яка впала в очі, стосувалася трохи більш високих результатів у готових шаблонах(DataBase, FileServer та WebSer). Можливо, причина криється особливо роботи віртуальної машини з дисковою підсистемою. При безпосередньой роботі з дисковою підсистемою, утиліті тестування IOmeter передавався нерозмічений масив (Raw). У разі роботи з віртуальною машиною масив спочатку форматувався (розмір кластера 4 кбайт), потім для кожної віртуальної машини виділявся пул за допомогою створення файлу *.VHD об'ємом 100 Гбайт, який виступав для віртуальної машини як диск. Можна припустити, що це дозволило збільшити результати в стандартних шаблонах.

Проте при одночасному запуску чотирьох віртуальних машин результати, як і слід було очікувати, скоротилися приблизно вчетверо. Кількість віртуальних машин ми вибрали не випадково – у рекомендаціях від співробітників VmWare та Microsoft фігурували чотири віртуальні машини.

Висновок

За результатами тестів ми переконалися, що технологія CacheCade працює, з деякими застереженнями, але функції свої виконує. Результати тестів у нас вийшли трохи вище, ніж ті, що існують у мережі для контролера 9260-8i. Це не пов'язано з особливістю екземпляра контролера, який дістався нам, тому що нічим, окрім Cache Vault, від свого побратима він не відрізняється - ні швидкістю пам'яті, ні характеристиками процесора, ні іншими параметрами. Швидше роль відіграли продуктивні комплектуючі, які ми використовували: нова платформа, швидкі диски(15 000 об/хв) з інтерфейсом SAS2 і, звичайно ж, функція CacheCade, хоча контролер і без допомоги SSD дає добрі результати.