Кілька новинок в світі дата-центрів: чи стануть вони нормою?



Сфера телекомунікацій розвивається дуже швидко. Буквально щотижня з'являються нові розробки, деякі з яких швидко стають стандартом. В цьому році з'явилося кілька цікавих новинок, які стандартом ще не стали, але, можливо, це станеться незабаром. Серед розробників нових технологій — Google, Microsoft та інші гіганти ринку телекомунікацій. Є і вирішення більш дрібних гравців, не менш цікаві.

microsoft's Project Natick


На самому початку цього корпорація Microsoft представила прототип хмарного дата-центру, який повинен розташовуватися не на суші, а під водою. Проект отримав назву microsoft's Project Natick.

Компанія вирішила помістити обладнання під воду для того, щоб отримати безкоштовне охолодження. На думку авторів методики, холодна вода повинна охолодити сервери, так що енергія на це витрачатися не буде. Більш того, енергію планується отримувати за рахунок руху хвиль.

Вже проведені випробування прототипу — це сталева капсула діаметром 2,4 м. Тривалість випробувань — 105 метрів. Результати, за словами представників компанії практично ідеальні. В ході одного з тестів модуль з обладнанням обробляв дані сервісу Microsoft Azure.

Лазер з прямою модуляцією на кремнієвій підкладці


Ця технологія перебуває ще на дуже ранній стадії розробки. На початку цього року групі вчених з Кардіфського і Шэффилдского університетів вдалося створити лазер на кремнієвій підкладці. Такий лазер випромінює на довжині хвилі 1300 нас і може працювати тривалий час: 100 тисяч годин при температурі до 120 °C.

На думку ряду фахівців, така технологія дозволяє об'єднати електроніку з фотонікой. Лазери з прямою модуляцією на кремнієвій підкладці забезпечують величезну швидкість передачі даних в електронних системах з одночасним зниженням витрат енергії. Такі лазери, наприклад, можна інтегрувати з хвилеводами та керувальною електронікою.

Проект, в рамках якого ведуться роботи по об'єднанню електроніки та фотоніки, носить назву DIMENSION (Directly Modulated Lasers on Silicon). У ньому беруть участь представники низки європейських країн і різних компаній. На думку учасників проекту, реалізація технології в промислових масштабах дозволить створити дата-центри нового покоління.

Охолодження без витрат


Ще один приклад системи охолодження дата-центру, де роль системи охолодження відіграє природа. А вірніше — прохолодне повітря Ірландії. У Клоні, Ірландія, розташовується дата-центр Facebook. В цьому дата-центрі планується використати звичайний повітря для охолодження обладнання. Тут дуже прохолодний клімат, поруч — океан, і все це сприяє низькій температурі. Правда, є одна проблема — перед тим, як пустити прохолодне повітря в систему охолодження, потрібно очистити його від крапель солоної води. Якщо цього не зробити, вся система дуже швидко зазнає корозії.

ДЦ розташований в 15 кілометрах від Дубліна. Це другий європейський дата-центр компанії. Ще один цікавий момент — це те, що все обладнання і сам ДЦ, в якому воно розташоване, спроектовано з нуля. Facebook активно просуває свій проект Open Compute Project, і цей ДЦ повністю відповідає концепції OCP. Поки що дата-центр ще добудовується, на повну потужність він вийде не раніше 2017 року.

Штучний інтелект в дата-центрах Google


ІІ від DeepMind (так звана слабка форма ШІ) фахівці Google навчили контролювати серверне обладнання та елементи інфраструктури (наприклад, системи охолодження). Для контролю було виділено 120 різних параметрів роботи дата-центру, включаючи управління роботою кондиціонерів, закриття або відкриття вікон, швидкість роботи вентиляторів і т. п.

Керуючі алгоритми були розроблені після детального аналізу інформації про роботу дата-центрів компанії за п'ять років. На основі отриманих даних вдалося створити ефективну предиктивную модель споживання енергії дата-центром. Основний критерій тут — кількість задіяних серверів та іншого обладнання в різний час. ІІ «згодували» такі дані, як температуру обладнання, швидкість роботи насосів, активність роботи охолоджуючого обладнання, кількість використаної енергії і т. п.

«Люди зазвичай використовують безліч фізичних функціональних елементів для встановлення контролю над дата-центром. Робота команди людей більш-менш злагоджена, але при цьому співробітники-люди не звертають уваги на безліч важливих факторів», — говорить представник DeepMind. А ИИ може враховувати переважна більшість важливих факторів у своїй роботі. Саме завдяки цьому вдалося домогтися зниження споживання енергії на 40% в системах охолодження дата-центру.

Мікро дата-центри


Ідея створення невеликих уніфікованих ДЦ не нова. Але зараз вона отримує все більше визнання, а мікро дата-центри поширюються по світу. В основному такі об'єкти створюються для забезпечення нормальної роботи периферії мережі, включаючи міста другого і третього рівня. Використовують їх і компанії, щільно працюють з «Інтернету речей».

Мікро дата-центри є повністю автономними об'єктами, і містять всі компоненти, звичайні для своїх «старших братів». Це обчислювальне обладнання, телекомунікаційний модуль, сховище даних, системи безперебійного живлення, системи охолодження, система пожежогасіння.

При бажанні такий мініатюрний датацентр можна кастомизировать під свої потреби. Якщо є необхідність, кілька мікро ДЦ можна зібрати разом, збільшивши загальну продуктивність системи. Мікро дата-центри уніфіковані, тому кожен з них може служити модулем для системи більш високого рівня.

Серед таких рішень трапляються і понад-компактні. Так, компанія Arnouse Digital Device Corp пропонує сервера розміром з кредитну карту, які поміщаються в компактні стійки-контейнери. Виглядають ці контейнери, як кейси. Спочатку система розроблялася для Міністерства оборони США.

Технологія замкнутого локального охолодження (Close Coupled Cooling, CCC)


Системи типу Close Coupled Cooling розроблені для охолодження обладнання, розміщеного в ДЦ з високою щільністю. У середньому ДЦ енергетична щільність устаткування становить менше 2-4 кВт на стійку. І для охолодження такого обладнання вистачає модулів CRAC (Computer Room Air Condition) і прохолодного повітря, що подається в простір під фальшполом.

CCC-системи охолодження можуть розташовуватися поряд з генерує тепло обладнанням. У такому випадку використовуються системи охолодження, які розміщуються між стійками, в самих стійках або над стійками. Крім того, є ще один варіант — можна використовувати шафи з вбудованими в задні двері теплообмінниками. Плюс до всього, при встановленні таких систем рекомендується організовувати гарячі і холодні коридори.

Close Coupled Cooling раніше використовувалися в якості нестандартного рішення. Зараз же, по мірі збільшення щільності обладнання в ДЦ, ці системи стають все більш і більш затребуваними. Вони вже не сприймаються, як щось незвичайне, а поступово переходять в розряд стандартного рішення.

В якості висновку: компанії продовжують будувати дата-центри. Це роблять і великі і дрібні гравці ринку. Частина старих дата-центрів, які вже не задовольняють сучасним вимогам, модифікуються і перебудовуються. Кількість дата-центрів збільшується на 10%-15% щорічно. І в кожному такому новому ДЦ використовується щось нове. Можливо, перераховані вище новинки будуть використовуватися в ряді нових дата-центрів, побудованих якою-небудь компанією вже найближчим часом. Всі передумови до цього є.

І звичайно, ми вказали лише малу дещицю того, про що стало відомо в цьому році. Можливо, ви вважаєте якусь технологію, що не потрапила в цей матеріал, перспективною? Давайте обговоримо її в коментарях.
Джерело: Хабрахабр

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.