Dell готується до приходу процесорів ARM в сервери (частина 2)

    

Труднощі сучасних HPC-технологій

 
HPC — High Performance Computing — високопродуктивні обчислення, призначені насамперед для потреб науки, оборони і, з недавнього часу, надання хмарних послуг і взагалі проживання в них веб 2.0. Засновані зазвичай на комп'ютерних (серверних) інсталяціях у вигляді багатовузлових кластерів. Dell давно і успішно розробляє рішення для HPC в тісній взаємодії з замовниками та має досвід оснащення тисяч дата-центрів «під ключ».
 
Звичайно ж, про всі складнощі проектувальникам, будівельникам і обслуговуючому персоналу дата-центрів ми сьогодні не зможемо розповісти, але торкнемося ті з них, які ведуть до переформатування архітектури серверів і швидке настання на цей ринок ARM-процесорів. Коротко ми згадали історію розвитку двох архітектур процесорів, х86 і ARM, а також порівняли їх між собою з різних точок зору в попередньому матеріалі . Сьогодні постараємося зрозуміти, чому не тільки Dell зробив ставку на ARM в своїх перспективних напрацюваннях, а й навіть Intel повернувся до їх виробництва.
 
 

Багато — це дійсно БАГАТО!

 
Отже, що ж таке сервер? Потрібне, як кажуть, підкреслити.
 
Пильний ящик без монітора в кутку, завалений коробочками, все блимає вогниками і зрідка до нього приходить кошлатий студент в светрі? Кілька таких ящиків: вже пора б якось в цьому всьому розібратися? Дивний шафа з плоскими ящиками, періодично кричить, як поранений буйвол? Ну нарешті все це господарство виїхало в окреме приміщення, і завівся постійний сисадмін, з яким краще жити дружно.
 
Це все називається back office , тобто забезпечення повсякденних потреб в ІТ-компанії, чий основний бізнес з ІТ не пов'язаний. У загальному випадку, продуктивності нового сервера вистачає на три-п'ять років, енергоспоживання на тлі чайників і обігрівачів не так вже й помітно, та й місця все господарство займає не більше, ніж швабри, відра і лопати.
 
Також зазвичай при правильному плануванні розвитку і грамотному оновленні компонентів особливого зростання не повинно бути ні за площею, ні по енергоспоживанню, ні за витратами на рік спокійною і ефективної роботи малої або середньої організації. Та й у великих зазвичай особливих проблем не виникає.
 
Зовсім інша справа, коли ІТ-послуги — це саме те, чим компанія заробляє гроші. Сучасні гіганти індустрії містять по кілька майданчиків, на яких розміщені десятки тисяч серверів, по обчислювальної потужності залишають далеко позаду урядові, військові і наукові кластери. Якщо це здається надуманим, то ось декілька яскравих представників світу ІТ-гігантів, складових на видимі всім відсотки сучасний інтернет: Amazon, Apple, eBay, Google, Facebook, Microsoft, Mail.ru, Yahoo, Вконтакте.
 
Все це господарство бажано розмістити максимально компактно, тому що земля і будівлі коштують грошей. Персоналу теж краще ходити між стійками пішки, а не об'їжджати на, наприклад, велосипедах, гектари площ. Протяжність комунікацій, відвід тепла і підведення електроенергії на компактній площі також виконати простіше і дешевше. Тому в кожній серверній стійці треба розмістити якомога більше виробничих потужностей. Не завжди ці потужності обчислювальні в класичному розумінні. Зараз найчастіше це петабайт дискового простору, але це не та тема, про яку сьогодні йде мова. Для веб-додатків, особливо хмарного зберігання даних, досить часто потрібні великі масиви окремих фізичних серверів, далеко не завжди повністю завантажених обчислювальними завданнями.
 
Вкрай бажано економити електроенергію дуже жорстко, тому що 1 ват, споживаний одним сервером, перетворюється на кіловати. Крім того, процесор, дисковий контролер і сам жорсткий диск, який споживає ці вати, ще і розсіює їх у вигляді тепла згідно закону збереження енергії. Тепло треба відвести спочатку з місця його утворення, потім з корпусу і шафи, а потім і з приміщення. Це дає досить відчутні накладні витрати, т.к. здійснюється за допомогою таких же електричних пристроїв — вентиляторів і кондиціонерів. В цілому, за прогнозами аналітиків, через пару років ЦОДи можуть споживати до 7% виробленої у світі електроенергії.
 
Велику роль відіграє ефективність вкладень, як в придбання техніки, так і в обслуговування і супровід. Крім всім відомого терміна TCO — total cost of ownership , загальна вартість володіння — зараз широко застосовуються при проектуванні дата-центрів і інші показники: «обчислювальна потужність на ват», «загальне енергоспоживання в режимі очікування», «загальне енергоспоживання під навантаженням».
 
Говорячи мовою бізнесу, після побудови дата-центру дуже велика частка витрат на його утримання припадає на рахунки за електрику. Будь оптимізація цих витрат вітається, тому що веде безпосередньо до підвищення прибутковості підприємства.
 
 

Процесор — це серце будь-якого комп'ютера

 
Здавалося б, різниця в енергоспоживанні в режимі очікування на 2-5 ват, а в режимі максимального завантаження на 10-20 ват, — це не так і багато. Приблизно так відрізняються між собою ARM і Atom, заснований на х86-архітектурі, який позиціонується в тому числі і в економічні сервери. Проте варто врахувати, що в нові SoC, системи на чіпі, засновані на ядрах ARM, вже інтегровані мережеві контролери, контролери SATA, реалізація яких поза чіпа призводить до додаткової витрати енергії.
 
Крім того, концентрація в одному кристалі більшості функцій, необхідних для побудови повної системи, призводить до значного зменшення габаритів цієї системи. Цілком функціональні комп'ютери на одному чіпі для вирішення завдань, ще недавно властивих тільки настільним комп'ютерам, зараз випускаються розміром трохи більше флешки. Тим не менш, вони цілком здатні забезпечувати перегляд інтернет-ресурсів, спілкування через мережу хоч в текстовому, хоч у відео-режимі, а також програвання по мережі музики і фільмів — чули про проект Офелія ? При належній оптимізації розміщення в серверному шасі масиву таких крихіток у звичайній стійці можна зосередити дуже багато повноцінних незалежних машин.
 
Так, для виконання певних завдань Intel Xeon незамінні, але постійні і високі потреби саме у великих обчислювальних потужностях характерні, за підрахунками аналітиків, для приблизно 2/3 серверних завдань. Залишилася третину можна охарактеризувати словом «готовність». Тобто більшу частину часу техніка проводить в режимі очікування, а й вивести її з активного стану теж не можна. Балансування, віртуалізація та розподілені обчислення допомагають вирішити проблему, але не повністю. Простіше кажучи, у ринку є потреба в компактних, енергоефективних, економічних серверах.
 
Отже, можливість заміни стійки з класичними Блейд на основі Xeon на таку ж стійку з мініатюрними серверами на основі ARM для частини бізнес-задач виглядає вельми привабливо. При збільшенні кількості фізичних машин в рази енергоефективність такої стійки буде набагато вище, а загальне споживання електроенергії — менше, в просте — також в рази. Висновки кілька передбачувані.
 
 

Dell готовий до нових викликів

 
Dell звернув пильну увагу на описані вище проблеми ще п'ять років тому, коли був запущений проект Fortuna, офіційно XS11-VX8, який був зібраний на процесорах VIA Nano. На той момент вони були максимально економічними, споживаючи 15 ват в режимі очікування і до 30 при максимальному завантаженні. У 42-дюймової стійці можна розмістити до 256 таких серверів розміром з 3,5-дюймовий жорсткий диск. Dell створив повну екосистему для маляток, включаючи рекі, комунікації, системи охолодження і харчування.
 
У травні 2012 року Dell запустив проект Copper , спрямований на створення екосистеми застосування ARM процесорів в серверах, призначених як для загальних потреб, так і для високопродуктивних інсталяцій. Безпосереднього доступу до серверів у розробників немає, але вони можуть подавати заявки на тестування своїх додатків за допомогою віддаленого доступу до обладнання, розташованого в дата-центрі Dell. Притому внутрішні тести були розпочаті ще в 2010 році і виявилися досить успішними, щоб почати виведення технології на ринок. Розроблювач може тестувати свій продукт на реальному ARM-сервері під управлінням ОС сімейства Linux з тим, щоб при виході їх на ринок мати на руках готовий і налагоджений продукт, придатний для продажів широкому колу користувачів.
 
У жовтні того ж року за підтримки Apache Software Foundation стартував спільний з Dell проект Zinc , призначений для тестування веб-додатків, як розроблених для цього веб-сервера, так і портірованних під нього. Також дистанційно розробники можуть тестувати свої програми для самого популярного веб-сервера, виконуваного в цьому випадку на ARM-процесорах.
 
Поки розробники тестують ПО, у Dell є прекрасна можливість протестувати нові сервери при різноманітних патернах навантаження, перевірити в справі масштабованість, розшити вузькі місця і доопрацювати MiddleWare для нової платформи. Все це і веде до створення повної екосистеми, готової для вироблення рішень «під ключ» для замовників.
 
 

Вже зовсім скоро!

 
 У наступному матеріалі ми розглянемо кілька новин, які переконливо показують, що всі учасники ринку практично готові до приходу в серверний сегмент високопродуктивних обчислень процесорів ARM-архітектури. Dell, як зазвичай, знаходиться на передньому краї наукомістких розробок, і в 2014 році нас чекають новини вже про реальні продуктах, доступних для замовлення!
    
Джерело: Хабрахабр

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.