Перебудова екосистеми ЦОД

       
 
Нещодавно Роб Обер (Rob Ober), системний архітектор LSI, дав докладне інтерв'ю китайському журналу CEO & CIO, в якому були порушені багато цікаві запитання. Я б хотів представити вашій увазі переклад ключових моментів цього інтерв'ю, оскільки Роб дуже чітко описує майбутнє індустрії.
 
CEO & CIO: В останні роки Інтернет-компанії будували високомасштабіруемие ЦОДи. На відміну від звичайних компаній, гравці ринку ІТ беруть на себе роль лідерів у розробці технологій для Цодов. З точки зору індустрії, розкажіть, які три технології є ключовими на ринку Цодов? Опишіть їх.
 
Роб: У надвеликих ЦОДах стикаються індустрії програмного забезпечення, виробництва «заліза» і чисто інженерні дисципліни. Тому число інновацій так велике, що вибрати всього лише три дуже важко. Я б сказав, що найбільш важливими є інновації в апаратному забезпеченні та інфраструктурі, а якщо треба вибрати три, я б відзначив такі пункти:
 
 Автономне поведінку і управління
 
Архітектор з Microsoft якось сказав мені: «Якби ми наймали адміністраторів для наших Цодов так, як роблять звичайні компанії, нам би довелося найняти всіх адміністраторів у світі». Зараз, в ЦОДах Microsoft налічується близько одного мільйона серверів. Сверхмасштабіруемие ЦОДи зажадали для свого розширення розробки автоматичної, самокерованої і часто навіть самовнедряющейся інфраструктури. Надвеликі ЦОДи виступають піонерами в цій галузі, за допомогою них фахівці навчаються на власних помилках, розробляють практики, що дозволяють отримати покращене співвідношення робота / долар. Йдеться про вузькоспеціалізовані практиках, але все більше гравців ІТ-індустрії починають їх переймати. OpenStack — кращий приклад того, як спеціалізовані знання та вміння «пакуються» і поширюються широко по всій індустрії. У LSI ми працюємо і з гіпермасштабіруемимі, і з автоматизованими рішеннями для створення кращої автономної інфраструктури.
 
 Висока доступність на рівні Цода або окремих машин
 
У міру того, як системи стають більше, в них стає більше компонентів, більше точок відмови, і це призводить до ускладнення і подорожчання підтримки їх доступності. Із збільшенням обсягів зберігання диски починають частіше виходити з ладу. Їх просто частіше використовують. І це на тлі постійного тиску, покликаного зменшити вартість і складність. З часом мега-ЦОДи дуже виросли, деколи в сотні тисяч серверів, часто рознесених по різних ЦОДам, що призвело до необхідності створення рішень для збільшення абсолютної надійності, при тому, що індивідуальні компоненти системи ставали дешевше, простіше і менш надійними. Все це дозволило використовувати недорогі компоненти в «хмарах», перетворюючи їх на надійний ресурс.
 
Ці рішення теж з'явилися дуже вчасно, оскільки багато організацій відчували необхідність у підтримці своїх даних абсолютно доступними в різних ЦОДах.
 
Традиційний підхід, що вимагає доступність сервера на рівні 99.999%, поступається дорогу прагматичному підходу, що складається в підтримці високої доступності на макрорівні — по всьому ЦОДу. Цей підхід допускає збої окремих систем і компонентів до тих пір, поки це не загрожує всьому ЦОДу. Звичайно, поки цей підхід ще не до кінця відпрацьований. LSI працює з мега-ЦОДамі і OEM, щоб отримати поліпшені методики операційної ефективності та відмовостійкості, що дозволить мінімізувати шкоду від збою окремих компонентів, підтримуючи надійний шар високої доступності для всього Цода.
 
 Великі дані
 
Цей термін занадто часто використовується. Складно повірити, що ще кілька років тому його не існувало. Hadoop став справжнім подарунком для індустрії — open source спроба скопіювати Google MapReduce і Google File System — насправді змінила наш світ неймовірно швидко. Сьогодні Hadoop і інші додатки для великих даних пропонують нам пошук, аналітику, рекламу, масштабовані надійні файлові системи, генетичні дослідження і багато іншого, навіть сервіси, подібні Apple Siri, використовують Hadoop. Великі дані змінили концепцію аналітики від статистичного спрощення до аналізу всіх даних. І це вже забезпечило безліч проривів у дослідженнях, в яких закономірності та шаблони шукаються емпірично, а не теоретично.
 
Взагалі, я думаю, великі дані стали однією з найбільш трансформирующих технологій цього століття. Великі дані змістили фокус центрів обробки даних з обчислень на зберігання. Наші контролери жорстких дисків, SAS (Serial Attached SCSI) адаптери і RAID-контролери опинилися в центрі цієї еволюції. Наступним її кроком стане широке поширення аналітики графів, яка дозволить аналізувати відносини між даними, а не тільки дані самі по собі.
 
CEO & CIO: У зв'язку з широким розповсюдженням хмарних обчислень, мобільного зв'язку і великих даних, традиційна ІТ-екосистема у виробництві змінюється. Які три головних зміни в поточному взаємодії LSI з екосистемою? Як у LSI бачать зміни різних зв'язків у традиційних екосистемах? Які нові зв'язки варті уваги? Наведіть, будь ласка, приклади.
 
Роб: Хмарні обчислення і доступність даних з мобільних пристроїв вже значно змінили і продовжать міняти нашу індустрію і екосистему. Насправді, корпоративний ринок (клієнти, OEM, технології, програми та області застосування) залишалися досить стабільними протягом 10 — 20 років, але, як тільки хмарні обчислення стали значною частиною серверного ринку, це відразу ж вплинуло на учасників екосистеми, таких як LSI.
 
 Час: Уже недостатньо слідувати за налагодженим, як годинниковий механізм, продуктовим портфелем Intel. Раніше цикли розробки рішень для ЦОД становили від 3 до 5 років. Але ці цикли стають коротшими. Зараз потреба в рішеннях наближається до 6 місяців, змушуючи постачальників «заліза» працювати з такими короткими циклами розробки.
 
Мега-ЦОДи також потребують можливості швидкого нарощування ресурсів відповідно до потреб клієнтів. У результаті, саме в ЦОДи впроваджуються нові архітектури, рішення і специфікації без традиційної прив'язки до роадмапу Intel. Це також порушує екосистему.
 
 Кінцеві користувачі: гіпермасштабіруемие ЦОДи тепер відіграють значну клієнтську роль в екосистемі. Іноді їх одиночний замовлення може становити до 5% серверного ринку. Незважаючи на те, що OEM все ще неймовірно важливі, вони вже не виконують таких великих впроваджень і розвиваються не так швидко. Це призводить до того, що часто у фінансовому плані виграють постачальники окремих компонентів або підсистем, якщо вони здатні запропонувати унікальне (або хоча б ефективне) рішення реальної проблеми. Це призводить до того, що основний прибуток переміщується від великих OEM до сильних, швидким інноваторам. Потенційно це може призвести до зменшення обсягів прибутку для всієї екосистеми, що стане загрозою для зростання швидкості інновацій та реінвестування.
 
 Нові гравці: традиційно, кілька OEM-постачальників і кілька постачальників ПО практично одноосібно володіли ринком Цодов. Проте, ланцюжки поставки гіпермасштабіруемих хмарних компаній змінили це. ЦОДи лідерів ринку розробили, специфіковані і навіть побудували (як у випадку з Google) свою власну інфраструктуру, хоча частина мега-Цодов продовжує спиратися на апробовані рішення від Dell і HP.
 
Все частіше і частіше ЦОДи будуються за специфікаціями від постачальників типу Quanta. Нові постачальники мережевого обладнання, такі як Arista, нарощують свою ринкову частку. Зростають і постачальники гіпермасштабіруемих рішень, такі як Nebula.
 
Програмне забезпечення значно зрушилася у бік open source з платною підтримкою — модель, розроблена спочатку RedHat, зараз взята на озброєння Cloudera, Mirantis, United Stack та іншими.
 
 Відкриті ініціативи: так, ми вже бачили Hadoop і похідні, впроваджувані всюди, навіть у традиційних галузях промисловості: нафтогазовій, фармацевтичній, генетичних дослідженнях і т.п. І ми спостерігали за тим, як відкриті бази даних тіснять традиційні рішення (наприклад, Casandra). Але зараз ми бачимо нові ініціативи, такі як Open Compute і Open Stack. Звичайно, вони корисні для гіпермасштабіруемих Цодов, але вони також допомагають більш маленьким компаніям і університетам розгортати інфраструктуру, схожу з гіпермасштабіруемой, і отримувати той же рівень автоматизованого контролю, ефективності та витрат, що і у «великих гравців» (звичайно, вони не використовують того рівня можливостей, але вони дуже до цього близькі). У майбутньому цей тренд здатний дуже сильно пошкодити традиційним бізнес-моделям OEM і постачальників ПЗ і перекроїти ринки на користь нових гравців, як ми вже бачимо на прикладі Quanta, TYAN, Foxconn, Wistron і інших, що тільки виходять на ринок завдяки новим, відкритим ініціативам.
 
 Нові архітектури та алгоритми: зараз спостерігається явний рух у бік технологій, заснованих на пулі ресурсів. Розробка таких рішень стала можлива завдяки партнерству між компаніями типу Intel і LSI та архітекторами найбільших Цодов. Традиційно нові підходи в архітектурі диктувалися OEM, але останнім часом це не так. Ми можемо спостерігати все більшого поширення рішень, націлених на використання масштабованої стоечной архітектури (rack-scale architecture, RSA): кремнієва фототоніка, пули сховища, програмно-що визначаються мережі, а незабаром ми побачимо і пули ОЗУ і нові види енергонезалежною ОЗУ.
 
Крім того, ми можемо спостерігати, як нові процесорні архітектури відвойовують своє місце в ЦОД: ARM 64 для тихих і холодних сховищ і OpenPower P8 для потужних обчислень, багатопоточних, багатозадачних монстрів обробки. За всім цим дуже цікаво спостерігати. Зростає інтерес до прискорення додатків: обчислення загального призначення на процесорах відеокарт, процесори регулярних виразів для аналізу потоків в реальному часі і т.д. Прямо у нас на очах розгортається перше покоління інструментів аналізу графів.
 
 Інновації: темп інновацій наростає, або просто я стаю старше. Але з швидкими доходами покінчено. З одного боку, ЦОДам потрібен експоненціальне зростання обчислювальної потужності і зберігання, їм потрібно працювати швидше від 10 до 1000 разів. З іншого боку, пам'ять, ядра процесорів, диски і флеш-накопичувачі ростуть не так швидко. Єдиний спосіб заповнити цей провал — інновації. Так що не дивно, що багато цікавих речей зараз відбувається у OEM, постачальників ПЗ, виробників чіпів і готових рішень, а також в open source співтоваристві і стартапи. Ось те, що робить даний час таким цікавим.
 
 Зрушення споживання: ми бачимо спад в поставках ПК і ноутбуків, спад, який призвів до зниження попиту на сховище в цьому сегменті. Ноутбуки все частіше переходять з HDD на SSD, що непогано для LSI, так як наш внесок у мобільні HDD був невеликий, в той час як на ринку SSD компанія відіграє велику роль. Смартфони і планшети привели до зростання споживання хмарного контенту, трафіку і залежно від хмарних сховищ. Ми бачимо значне зростання попиту на великі HDD для хмарних рішень, цей тренд набирає швидкість, і ми думаємо, що ринок «хмарних» HDD буде відчувати себе добре, і ми побачимо появу нових, оптимізованих для «хмар» HDD, що сильно відрізняються від існуючих і розроблених для тихого зберігання з низьким тепловиділенням.
 
У хмарних сховищах зростає попит на PCIe SSD карт, які використовуються для баз даних, кешей, віртуальних машин та інших додатків, що вимагають низький рівень затримок. Багато чого з того, що ми приймаємо як даність, було б неможливо без цих флеш-продуктів з великою ємністю і низькими затримками. Дуже небагато компаній можуть запропонувати життєздатні системи зберігання, побудовані на флеш-технологіях, за прийнятною ціною. Це відкриває дорогу стартапам, експериментують з різними рішеннями.
  
Джерело: Хабрахабр

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.