DellEMC Unity 400F: невелике тестування

На початку травня 2016 року, ще до закінчення об'єднання з Dell, компанія EMC2 оголосила про вихід нового покоління масивів середнього рівня під ім'ям Unity. У вересні 2016 року до нас привезли демо-масив Unty 400F в конфігурації з 10 SSD дисками на 1.6 TB кожен. В чому полягає відмінність між моделями з індексом F і без оного можете почитати по даній ссылке в блозі Дениса Сєрова. Так як перед передачею демо далі замовнику виник часовий лаг, то було прийнято рішення поганяти масив тим же самим тестом, яким раніше вже нагружались VNXe3200 і VNX5400. Що б подивитися хоча б на «синтетиці» так хороший Unity порівняно з попередніми поколіннями масивів EMC2, як це розписує вендор. Тим більше що, судячи з презентаціями вендора, Unity 400 є прямою заміною VNX5400.



А DellEMC стверджує, що нове покоління принаймні у 3 рази продуктивніше, ніж VNX2.
Якщо цікаво, що з усього цього вийшло, то…

Опис стенду і тесту
Під спойлеромСпочатку для тестування був зібраний стенд все того ж старого HP DL360 G5 c 1 CPU (4-core) і ОЗУ 4GB. Тільки в PCI-E слоти були поставлені дві одне-портові 8Gb/s HBA Emulex LPE1250-E, підключені безпосередньо до FC 16Gb/s портів Unity 400F. Як з'ясувалося трохи пізніше, продуктивності CPU даного сервера виявилося недостатньо, що б завантажити СГД. З цього, як додаткове джерело генерації IOPS, до масиву був підключений Blade HP BL460c G7 c 1 CPU (12-core) і ОЗП 24GB. Правда в Blade кошику стоять FC-світчі з портами на 4G. Але як кажуть «дарованому коню в зуби не дивляться». Інших обчислювачів під рукою все одно не було. На серверах використовувалася OS Win2012R2 SP1 і софт PowerPath від компанії EMC2 для управління шляхами доступу до ЛУН.
На масиві Unity 400F був створений пул в конфігурації Raid5 (8+1). На пулі розмістилися два тестових LUN, які були підключені до серверів. На LUN-ах були створені файлові системи NTFS і тестові файли розміром 400GB, що б виключити вплив кеш контролерів на результат.

Налаштування в IOMETER при цьому виглядають наступним чином:




Тобто на кожному сервері працювало по 4 worker-а (всього 8), на яких на кожному наступному етапі тестування двократному збільшувалася кількість потоків вводу\виводу. Таким чином на кожен worker послідовно 1, 2, 4, 16, 32, 64, 128, 256, 512 потоків. А всього на масив припадало на кожному етапі за 4, 8, 16, 32, 64, 128, 256, 512, 1024, 2048, 4096 потоків.

За традицією трохи розрахунків
DellEMC при розрахунках продуктивності рекомендує для SSD дисків використовувати максимальне значення 20000 IOPS.



Тобто максимально в теорії наші 9 дисків можуть видати 20000*9=180000 IOPS. Нам необхідно порахувати скільки IOPS отримають з цих дисків сервера, з урахуванням нашого профілю навантаження. Де співвідношення читання/запису в процентному відношенні становить 67%/33%. І ще треба врахувати накладні витрати на запис в RAID5. Отримуємо наступне рівняння з однією невідомою 180000=X*0.33*4+X*0.67. Де X це у нас ті IOPS, які отримають сервера з наших дисків, а 4 — це розмір «пенальті» на запис для Raid5. У результаті отримуємо в середньому X=180000/1.99= ~90452 IOPS.

Тест і Результати
В результаті тесту у нас вийшла наступна залежність IOPS від кількості потоків I/O:



На графіку добре видно, що насичення настав при 512 потоках I/O на досліджувані LUN-и і при цьому було досягнуто значення приблизно в 142000 IOPS. Якщо подивитися на тестування VNX5400, то видно, що навіть при тестуванні кешу контролерів, максимальні значення IOPS не перевищували порогу в 32000 IOPS. А насичення масиву VNX5400 щодо введення/висновку наставав приблизно на 48 потоках. Тут ще потрібно зазначити, що один сервер HP DL360 G5, в описаній вище конфігурації, видавав у максимумі близько 72000 IOPS. Після чого упирався в 100% завантаження CPU. Чому, власне, і довелося шукати другу «обчислювач».

У Unity є не поганий функціонал збору статистики продуктивності різних компонентів масиву. Так, наприклад, можна подивитися графіки навантаження по IOPS по дисках масиву (по кожному окремо або відразу по всьому).





З графіка видно, що в максимумі диски видають «трохи» більше, ніж значення, яке рекомендує брати вендор при розрахунку продуктивності.

Час відгуку на досліджуваній конфігурації Unity зростало наступним чином:



Тобто навіть у «точки насичення», коли при збільшенні кількості потоків IOPS-и перестають рости (512 потоків), час відгуку не перевищила 5ms.

Залежність часу відгуку від кількості IOPS.



Знову ж якщо порівнювати з часом відгуку при тестування кешу контролерів на VNX5400, то можна побачити, що на VNX5400 час відгуку в 1ms досягалося вже приблизно при 31000 IOPS і близько 30 потоки введення/виводу (і це фактично на ОЗП). На Unity ж на SSD-дисках це відбувається тільки при ~64000 IOPS. І якщо в нашу Unity додати ще SSD дисків, то ця точка перетину з значенням в 1ms на графіку зміститься набагато далі за шкалою IOPS.

Залежність пропускної здатності від кількості потоків введення/виводу:



Виходить, що масив брав і віддавав потоки пакетів розміром з 8KB на швидкості близько 1TB/s (терабайта в секунду).

Щоб не втомлювати читача, ряд графіків продуктивності різних компонентів масиву Unity 400F заховане для допитливих…

Під другим спойлером









Посилання на файл з вихідними даними IOMETR-a.

Висновки
Висновки я думаю кожен зробить для себе сам.

Як на мене, так на ринку з'явилася нова цікава система зберігання, що навіть при невеликій кількості SSD дисків показує високу продуктивність. А якщо врахувати доступні зараз розміри SSD (а у DellEMC для Unity вже доступні SSD диски об'ємом 7.68 TB і найближчим часом має з'явитися підтримка 15.36 TB SSD), то думаю, що в найближчі кілька років гібридні масиви з сумішшю SSD і шпиндильных дисків стануть історією.

p.s. Для любителів задавати питання «скільки це коштує?». У своїх презентаціях вендор вказує, що цінник на Unity F (All Flash) починається від 18k$, а для Hybrid конфігурації від менш ніж 10k$. Але так як презентації всі «буржуйські», то в наших російських реаліях цінник може відрізнятися. У будь-якому випадку краще уточнювати у кожній конкретній ситуації у місцевого вендора або його партнерів.
Джерело: Хабрахабр

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.