Трейдинг і «залізо»: Як виглядають біржові дата-центри



Фондовий ринок — високотехнологічна галузь. У нашому блозі ми вже писали про протоколах передачі фінансових даних, алгоритмах виявлення інсайдерської торгівлі, розробці фінансового софта і способи прискорення транзакцій. Все це різноманітність технологій і інструментів вибудовується навколо серверного ядра самих бірж — багато HFT-трейдери користуються послугами колокации і розміщують сервери зі своїми торговими додатками як можна ближче до біржового торговельного механізму.

Сьогодні ми поговоримо про дата-центрах різних майданчиків і покажемо, як вони виглядають.

NYSE Euronext

Дата-центр біржі NYSE Euronext розташований у місті Махва, штат Нью-Джерсі. Площа залів для колокации серверів трейдерів складає близько 18 тисяч квадратних метрів — площа самого будинку при цьому становить більше 120 тис. кв. метрів. Видання Data Center Knowledge публікувало деякі фотографії цього ЦОД.

Центр управління об'єктом — в ньому об'єднані інтерфейси систем управління будівлею (BMS) та управління інфраструктурою самого ЦОД (DCIM). Саме тут сидять фахівці, які контролюють режими температури і вологості, стан блоків живлення і інших елементів у кожному серверному залі.



А ось так виглядає «гарячий коридор», в який надходить повітря, викиди серверами:



Довгий головний коридор дата-центру дозволяє відчути величезні масштаби об'єкта.



Фінансовий хаб Equinix

Компанія Equinix є одним з найбільших світових гравців на ринку ЦОД і колокации. Одним із її об'єктів є будівля колишнього заводу з виробництва очок в Секаукусе штат Нью-Йорк площею понад 100 000 квадратних метрів, переобладнане в найсучасніший дата-центр. Його послугами користуються такі біржі NASDAQ, BATS, CBOE, і ось як він виглядає.

По обидва боки довгого головного коридору дата-центру розташовані решітки; ці решітки і стійки з'єднуються кабелем, який проходить по жовтим підвісним кабель-каналах.



Стеля заввишки 12 метрів надає великий простір для декількох рівнів розміщення кабель-каналів, заповнюють верхню частину дата-центру Equinix, в якій знаходяться окремі канали для з'єднувальних, несучих і силових кабелів.



Зал джерел безперебійного живлення (ДБЖ) в дата-центрі Equinix NY4, який живиться від підстанції потужністю 26 мегавольт-ампер. Обладнання складається з системи безперебійного живлення потужністю 30 мегават, що підтримує роботу обчислювальної установки в разі відмови системи електропостачання.



На випадок відключення електроенергії устаткування дата-центру NY4 оснащене цими 18 запасними дизельними генераторами фірми «Caterpillar» потужністю 2,5 мвт кожний, які в сумі дають 46 мегават аварійної електроенергії, достатньої для забезпечення повним запасом енергії обладнання, а також холодильних установок і систем ДБЖ. Під час урагану Сенді ці генератори підтримували обладнання в робочому стані протягом цілого тижня.



Охолоджувальна система в NY4 обладнана величезними трубами, по яких охолоджена вода надходить до обладнання, а також до пластинчастому теплообміннику (праворуч), що виконує роль холодильника взимку і дозволяє зберігати енергію, яка при звичайних умовах витрачали б на роботу холодильних установок.



Московська біржа, дата центри М1 і DataSpace1

Зараз найбільша російська біржова площадка пропонує трейдерам можливість розміщення свого обладнання в московському дата-центрі М1 (адреса: Варшавське шосе, д. 125).

Згідно з інформацією, представленої на сайті компанії-оператора ЦОД, він є найбільшим в московському регіоні — його ємність становить 950 серверних стійок. Дата-центр введений в експлуатацію в 2006 році, його загальна площа становить 3850 кв. м, з яких під серверні зали відведено 2400 кв. м (навантажувальна здатність 5-8 кВт на стійку).

Для підтримки необхідно режиму температури ( 22 ± 4 градусів) і вологості (45 ±10 %) в серверних залах встановлені системи припливно-витяжної вентиляції та прецизійні кондиціонери промислового типу. Компоненти системи кондиціонування також зарезервовані за схемою N+3 і краще. Джерело фото нижче: сайт stacktelecom.ru





Серверні стійки розташовуються за принципом гарячих і холодних коридорів, закриття останніх дозволяє виключити змішування гарячого, викидається обладнанням повітря, що надходить від кондиціонерів холодним.



Джерела безперебійного живлення розраховані на час роботи всього обладнання більше, ніж необхідно для запуску дизель-генераторних установок і переходу на автономне енергопостачання ЦОД.





Фактична надійність ЦОД в період з 2008 заявлена на рівні 100%.

Стійки в дата-центрі М1 є не тільки у самої біржі, але і у брокерських компаній — наприклад, ITinvest пропонує можливість установки у своїх стійках як сервери, так і запуску торгових систем на спеціально «піднятих» віртуальних машинах.

У 2014 році керівництво «Московської біржі» прийняло рішення про переїзді в дата-центр DataSpace1. ЦОД зданий в експлуатацію в липні 2012 року. Його загальна місткість становить 1062 стойко-місця — 12 машинних залів, площею 255 квадратних метрів кожен. Буде виділено окремий зал для колокации устаткування учасників торгів. Джерело фото нижче: сайт dataspace.ru.

В ЦОД організовані 6 незалежних кіл електроживлення, кожен машинний зал забезпечується електроенергією від 2 незалежних кіл.



Чиллери і сухі охолоджувачі повітря встановлені за схемою резервування розподіленого N+1, холодне повітря підводиться під підлогою.



Периметр будівлі та внутрішні приміщення оснащені 8-рівневою системою безпеки, яка включає різні компоненти контролю доступу та спостереження.



Як сказано в прес-релізі Біржі, присвяченому переїзду в новий ЦОД, DataSpace1 володіє сертифікатами Tier III Design Documentation і Tier III Constructed Facility.

Висновок

Біржові майданчики і HFT-трейдери приділяють велику увагу вибудовування власної торговельної інфраструктури. Сьогодні на фондовому ринку успіх від невдачі часто відділяють частки секунди, тому і софт і залізо, що забезпечують роботу фінансових додатків, повинні працювати у вищій мірі надійно.

Рівень навантаження настільки велика, що впоратися з ним нелегко — це вимагає серйозних інвестицій з боку провайдерів послуг ЦОД. В іншому разі можуть виникати ситуації, на зразок тієї, що произошла у серпні 2015 року в дата-центрі CenturyLink — під час серйозно руху на ринку, інфраструктура для HFT-торгівлі працювала в посиленому режимі, з яким не впоралася система вентиляції (HVAC).

В результаті багато які сервери не просто перегрілися, а фізично згоріли:



Джерело: Хабрахабр

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.