FlexPod DataCenter: Direct Attached Storage

У попередній статті я розповів про «не-FlexPod DC» архітектурі, яка може підтримуватися з «одних рук» за програмою Cisco «Solution Support for Critical Infrastructure» (SSCI). Основна її особливість полягає в тому, що в ній немає комутаторів серії Nexus, а якщо їх туди додати, така архітектура може стати повноцінним FlexPod DataCenter.

Тут піде мова про новий дизайн мережі, для FlexPod DataCenter, з прямим включенням СГД NetApp UCS домен. Відміну від стандартної архітектури FlexPod DataCenter полягає в тому, що комутатори Nexus розташовані не між UCS і NetApp, а «поверх» UCS.

Незважаючи на те, що і раніше СГД NetApp серії FAS можна було підключити безпосередньо до Fabric Interconnect (FI), офіційно архітектура FlexPod DataCenter не предусмаривала такого дизайну. Тепер дизайн з прямим включенням підтримується і сапортиться, як FlexPod DataCenter архітектура.



Загальний дизайн мережі FC Fco з прямим включенням.
Опис схеми комутації на зображенні вищеОдночасне підключення FC Fco зображено з двох причин:
  1. Так дійсно можна зробити і це буде працювати
  2. Щоб показати що можна FC та/або Fco.
Ethernet з'єднання між двома контролерами NetApp FAS зображені з двох причин:
  1. Щоб показати, що це дві ноди однієї системи (якщо нсд більше, на картинці обов'язково були б кластерні свічі).
  2. Зовнішній кластерний лінк обов'язковий аксесуар операційної системи Clustered DataONTAP.

FC лінк від FI до Nexus комутатора зображений з двох причин:
  1. Для майбутнього. Коли нам знадобиться переключити NetApp на Nexus комутатори і FI отримували доступ до своїх LUN'ам. Після чого схема стане більш масштабована, можна буде додавати ще UCS домени.
  2. Для того, щоб забирати ресурси з сховища з інших серверів, які не входять в UCS домен. Приміром UCS Rack серверів (UCS серія C) не підключених до FI або серверів інших виробників.



Для Ethernet трафіку спільно як з прямим включенням і протоколом iSCSI, так і прямим включенням і протоколом FCP — за допомогою мультипасинга вбудованого в ці протоколи, немає проблем у налаштуванні відмовостійкості і балансуванню за лінками.
А ось для NAS протоколів, з прямим включенням (NFS v2/NFS v3 і CIFS v1/CIFS v2), через відсутність балансування навантаження і мультипасинга всередині цих протоколів, їх функцію повинні виконувати якісь інші, нижелижащие протоколи, такі як LACP vPC (FI не підтримує vPC), таким чином відмовостійкість для Ethernet мережі прийдеться будувати якось по-іншому. Приміром відмовостійкість для Ethernet можна зробити на рівні віртуального свіча (що може мати проблеми з продуктивністю такого комутатора) або за допомогою active-passive перемикання агрегованого мережевого лінка, без LACP (що не дозволить балансувати трафік по всім доступним лінками), для цього агрегований лінк ifgrp, з боку СГД, повинен бути налаштований режим single-mode.
Питання з прямим включенням NAS протоколів не так гостро виглядає NFS v4 і CIFS v3.0, але вимагає підтримку цих протоколів на стороні клієнтів і СГД (всі системи FAS cDOT підтримують NFS v4 і CIFS v3.0), так як обидва протоколу нарешті придбали якусь подобу мультипасинга.
налаштувати Fco і CIFS/NFS трафік поверх одного лінка
  • По-перше, потрібна версія прошивки Cisco UCS firmware 2.1 або вище

  • По-друге, потрібно сховище з 10GB CNA/UTA портами
Далі йдемо по налаштувань:
З боку сховища NetApp потрібно перевести порти в стан CNA (потрібно наявність CNA портів, звичайні Ethernet 1/10Gbs порти цього не підтримують), за допомогою команди ucadmin СГД (потрібен перезапуск СГД). В системі будуть відображатися незалежно «віртуальні» порти Ethernet і «віртуальні» FC порти, роздільно (хоча фізичний порт для одного такого «віртуального» Ethernet і одного «віртуального» FC буде використаний один). Налаштовуються такі порти окремо, як звичайні фізичні порти.

На FI потрібно включити FC режим в стан «Switching mode», в налаштуваннях Fabric A/B на вкладці «Equipment». Ця настройка потребує перезапуску FI.

Після перезапуску FI на вкладці «Equipment» необхідно конвергентні порти буде перевести в режим «Appliance port», після декількох секунд порт перейде в режим онлайн. Потім перенастройте порт у режим «Fco Storage Port», на правій панелі ви побачите тип порту "Unified Storage". Тепер буде возможночть вибрати VSAN VLAN для такого порту. І важливий момент, створений раніше VSAN, повинен мати включений FC zoning" на FI щоб виконувати зонінг.

Налаштування зонінгу на FI:
SAN->Cloud Storage->Fabric X->VSANs->Create «NetApp-VSAN-600»->
VSAN ID: 600
Fco VLAN ID: 3402
FC Zonning Settings: FC Zonning -> Enabled

SAN->Policies->vHBA Templates->Create «vHBA-T1»->VSAN «NetApp-VSAN-600

SAN->Policies->Storage Connectivity Policies->Create My-NetApp-Connectivity»->Zoning Type->Sist (або Simt якщо потрібно) -> Create->
FC Target Endpoint: «NetApp LIF's WWPN» (починається з 20:)

SAN->Policies->SAN Connectivity Policies->Create «NetApp-Connectivity-Pol1»->vHBA Initiator Group->
Create «iGroup1»->Select vHBA Initiators «vHBA-T1
Select Storage Connectivity Policy: «My-NetApp-Connectivity»

При створенні Server Profile використати створені політики і vHBA тимплейт.



Чому прямого включення не було раніше в FlexPod DataCenter?

Справа в тому, що NetApp у своїх нових рішеннях часто дотримується ідеології «краще перепильнувати, ніж недобдеть». Так, коли вийшла в світ ОС Clustered ONTAP СГД FAS, обов'язково для кластерного интерконнека було наявність виділених комутаторів Nexus 5k (за 1$) виключно під цю задачу. З часом така конфігурація була переглянута, протестована і додана можливість switch-less конфігурацій. Точно так само знадобився час для тестування і налагодження прямого включення СГД, спочатку додали нові топології Cisco UCS Manager based FC zoning з прямим включенням (direct connect topologies) СГД UCS домен, це стало доступно з версією прошивки Release 2.1(1a), а потім це з'явилося в FlexPod архітектурі.

Навіщо потрібні Nexus свічі?

Конфігурація з прямим включенням СГД FI, з точки зору архітектурних відмінностей, у разі використання блочних протоколів длоступа FC/Fco/iSCSI, найменшим чином відрізняється від початкового дизайну FlexPod, де Nexus комутатори грали роль сполучної ланки між сховищем і UCS доменом. Тим не менше в новому дизайні комутатори серії Nexus по-прежднему є обов'язковим компонентом архітектури:
  • по-перше, тому, що FlexPod повинен бути якимось чином інтегрований в існуючу інфраструктуру і надавати доступ клієнтам
  • по-друге, пряме включення буде стримувати масштабованість архітектури в майбутньому
  • по-третє, на відміну від прямого включення c SAN (FC/Fco/iSCSI), дизайн Ethernet мережі для NAS вимагає наявності проміжного сполучної ланки між СГД UCS домену для виконання балансування навантаження по мережевим лінками, і головним чином, функцій відмовостійкості.
  • в-четвертих доступ зовнішніх агентів клієнтів по Ethernet до FlexPod повинен бути резервний.


Наявність комутаторів для NAS


Відмінність дизайнів SAN NAS полягає в тому, що в разі блочних протоколів механізми мультипасинга і балансування виконуються на рівні протоколів FC/Fco/iSCSI, а в разі використання NFS/CIFS (SMB) протоколів ці механізми відсутні. Функції мультипасинга і балансування необхідно виконувати на рівні Ethernet за допомогою vPC LACP, тобто засобами комутатора, що і я є визначальним чинником його наявності в таких дизайнах.

Як зменшити затраы на першому етапі


Не дивлячись на те, що комутатори Nexus є обов'язковим компонентом архітектури FlexPod DataCenter, пряме підключення знижує вартість такого рішення на першому етапі введення в експлуатацію комплексу, тобто дозволить не купувати комутатори Nexus спочатку. Іншими словами можна спочатку зібрати non-FlexPod DC. А потім докупити комутатори через час, розмазавши витрати по бюджету більш тонким шаром і отримавши більше масштабовану архітектуру FlexPod DataCenter, коли в цьому буде необхідність.

В подальшому дизайн мережі може бути перетворений в більш масштабований, а завдяки дублюванню компонент це можна виконати без зупину комплексу.



Обмеженням дизайну мережі представленого на Рис.2 є 2 лінка від одного контролера СГД до комутаторів, коли за ним ходить одночасно Fco і Ethernet трафік. Якщо потрібно збільшити кількість лінків від СГД прийдеться розділити FCP і Ethernet трафік по окремих, виділених портів і лінками.

Новинки конфігурацій і дизайнів


Вийшли нові документи по впровадженню архітектури ЦОД: FlexPod Express, Select і DataCenter з Clustered Data ONTAP (cDOT):


Повідомлення щодо помилок у тексті прошу направляти в ЛС.
Зауваження і доповнення навпроти прошу в коментарі

Джерело: Хабрахабр

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.