EMC XtremIO і VDI. Ефективна, але поки сира штука

    Третього дня закінчився наш двотижневий період тестування EMC XtremIO .
 КРОК вже ділився своїми враженнями від подібного досвіду, але переважно у вигляді результатів синтетичних тестів і захоплених висловлювань, що стосовно до будь СГД, виглядає ефектно, але малоинформативно. Я в даний момент працюю в замовнику, а не в інтеграторі, нам важливіше прикладний аспект, так що тестування було організоване у відповідному ключі. Але по порядку.
 
 

Загальна інформація

XtremIO — новий (відносно) продукт компанії EMC, точніше компанії XtremIO, купленої компанією EMC. Являє собою All-Flash array, що складається з п'яти модулів — два одноюнітових сервера Intel в якості контролерів, два ДБЖ Eaton і одна дискова полку на 25 дисків. Все перераховане об'єднується в брик (brick) — одиницю розширення XtremIO.
Кілер-фичей рішення є дедуплікація «на льоту». Нам цей факт був особливо цікавий, оскільки користуємося VDI з повними клонами і їх у нас багато. Маркетинг обіцяв, що всі влізуть в один брик (ємність брика — 7,4 ТБ). В даний момент на звичайному масиві вони займають майже 70 + ТБ.
Сфотографувати предмет розповіді я забув, але в пості КРОКу можна побачити все в деталях. Я впевнений навіть, що це той же самий масив.
 
 

Монтаж та налаштування

Девайс прийшов змонтованим в міні-рек. Необдумано ми пішли приймати його удвох і мало не надірвалися, просто перетягуючи з машини у візок. Розібравши на складові, однак, я його перевіз в ЦОД і змонтував поодинці без особливих труднощів. Монтаж санчат передбачає вкручування великої кількості гвинтів, так що довелося багато часу провести з викруткою в позі букви «Г», зате комутація порадувала — всі кабелі необхідної і достатньої довжини, вставляються і виймаються легко, але мають захист від випадкового видирання. (Цей факт відзначив позитивно після тестування другий flash СГД — Violin — у якої кабель, що поєднує два сусідніх гнізда чогось зробили довжиною півтора метра, а один з ethernet патч-кордів, вставивши, неможливо згодом витягнути без додаткового плоского інструменту, наприклад викрутки).
Налаштовувати сабж приїхав спеціально навчений інженер. Вельми цікаво було дізнатися, що на даний момент оновлення керуючого ПО відбувається з втратою даних. Додавання нового брика в систему — теж. Виліт двох дисків відразу теж призводить до втрати даних (без втрат другий диск можна втрачати після Ребілд), але це обіцяють виправити в найближчому оновленні. Як на мене, так краще б перші два пункти зробили по-нормальному.
Для повноцінної настройки та управління масивом системі потрібно виділений сервер (XMS — XtremeIO Management Server). Його можна замовити в якості фізичного доповнення до комплекту (гадаю, збільшивши вартість рішення на ціну вагового еквівалента цього сервера в золоті), а можна просто розгорнути виртуалку (linux) з шаблону. Після чого в неї потрібно помістити архів з ПЗ і встановити його. А потім налаштувати, використовуючи підлогу десятка дефолтних учеток. Загалом, процес первинного налаштування відрізняється від звичної налаштування СГД і не сказати, що у бік полегшення. Сподіваюся, його ще доопрацюють.
 
 

Експлуатація, дедуплікація і проблемна ситуація

Не мудруючи лукаво, в якості тесту вирішили перенести частина бойових VDI на тестований девайс і подивитися, що з цього вийде. Особливо цікавила ефективність дедупа. В коефіцієнт 10:1 я не вірив, оскільки хоч у нас і повні клони, профілі і якісь дані користувачів лежать всередині ВМ (хоча їх обсяг найчастіше невеликий щодо ОС), та й просто скептично ставлюся до заявлених чудесам.
 
Перші перенесені 36 ВМ зайняли на датасторе 1,95 ТБ, а на дисках — 0,64 ТБ. Коефіцієнт дедуплікаціі — 2,7:1. Правда, першу партію склали віртуальні десктопи представників ІТ департаменту, які особливо люблять тримати все всередині свого ПК, не важливо фізичний він або віртуальний. Багато хто навіть додаткові диски мають. У міру наповнення системи все новими машинами, коефіцієнт ріс, але не значно, без ривків. Ось наприклад скріншот системи з сотнею віртуалок:
 
 
А ось 450:
 
 
Середній розмір vmdk — 43 ГБ. Всередині — Windows 7 EE.
 
На цій кількості я вирішив зупинитися і провернути новий тест — створити новий датастор і забити його «чистими» клонами, свежеразвернутимі з шаблону, перевіривши і час розгортання та дедуп. Результати вражаючі:
створено 100 клонів;
заповнений датастор в 4 ТБ;
обсяг зайнятого місця на дисках збільшився на 10 ГБ.
 
Скріншот (порівняйте з попереднім):
 
 
Ось повна табличка з результатами:
 
 
Була ще думка включити ці 100 клонів і подивитися а) як поводиться система в бутшторм, б) як зміниться коефіцієнт дедупа після включення і деякого часу роботи чистої системи. Однак ці заходи довелося відкласти, тому що трапилося те, що можна назвати unpleasant behavior. Один з п'яти LUN заблокувався і поставив колом весь кластер.
Варто визнати, що причина лежить в особливостях конфігурації хостів. Через використання IBM SVC в якості агрегатора зберігання (хай їй грець) на хостах довелося відключити Hardware Assist Lock — найважливіший елемент VAAI, що дозволяє блокувати не весь датастор при зміні метаданих, а невеликий його сектор. Так що чому LUN заблокувався — зрозуміло. Чому він не розблоковувався — не дуже. І зовсім незрозуміло, чому він не розблоковувався навіть після того, як був відключений від усіх хостів (довелося, оскільки поки ми цього не зробили, жодна ВМ не могла ні включитися ні смігріровать, а як на зло, саме в цей момент комусь з Дуже Важливих Людей компанії потурбувалися ребутать свої машини) і пройшли всі мислимі і немислимі таймаут. За словами «старожилів», подібна поведінка спостерігалося на старих IBM DSxxxx, але вони мали спеціальну кнопку разлочки LUN для таких випадків.
Тут такої кнопки не передбачено, у результаті 89 людей опинилися без доступу до своїх десктопам на три години, а ми вже подумували про перезапуск масиву і шукали найбільш безпечний і надійний шлях до цього (почерговий перезапуск контролерів не допомагав).
Допоміг саппорт EMC, який спочатку довго діставав зі своїх надр потрібного інженера, який потім довго перевіряв і переглядав всі вкладки і консолі, а саме рішення було простим і елегантним:
 
 vmkfstools — lock lunreset / vmfs/devices/disks/vml.02000000006001c230d8abfe000ff76c198ddbc13e504552432035
 
то є команда на розблокування від будь-якого хоста.
Вік живи — вік учись.
 
Весь наступний тиждень я гарячково переносив десктопи назад на HDD-сховище, відклавши всі тести на потім-якщо-залишиться-час. Часу не залишилося, оскільки масив у нас забрали на два дні раніше обіцяного терміну, так як наступний тестер виявився не в Москві, а Уфі (раптовість і організованість у процедурі повернення варто окремих неповністю нормативних висловлювань).
 
 

Резюме

Ідеологічно рішення мені сподобалося. Якщо трохи допив нашу інфраструктуру VDI, винісши користувача дані на файл-сервера, то можна розмістити всі наші 70 ТБ якщо не на одному, то на двох-трьох БРІК. Тобто 12-18 юнітів проти цілої стійки. Чи не могли, звичайно, не сподобатися швидкість svMotion і розгортання клона (менше хвилини). Однак поки сиро. Втрати даних при оновленні та масштабуванні не можна вважати прийнятними в Ентерпрайзі. І момент з reservation lock теж ввів в збентеження.
З іншого боку, якось змахує на недороблений Nutanix. Останній правда можу оцінювати лише по презентаціях, а вони завжди красиві.
І про ціну. КРОК в своїх постах писав про якоюсь незбагненною цифрі в 28 мільйонів. Я ж чув про шість з половиною, і це ще не було мінімумом. Хоча до цінових переговорів у мене ні доступу ні інтересу нині немає, так що стверджувати точно не візьмуся.
    
Джерело: Хабрахабр

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.