Смерть транзитного трафіку?

image
чи Є світло в кінці тунелю для провайдерів транзитного трафіку?

Я був вражений на недавньої зустрічі NANOG тим, як мало виступів було з питань ISP-простору і щодо проблем, пов'язаних з ISP-операціями, і як багато середовищі дата-центрів.

Якщо є тема, яка є визначальною у нашому спілкуванні, то це, безумовно — середовище, яка, як видається, домінує при проектуванні дата-центрів і експлуатації мереж. І, видається, що функція постачальника інтернет-послуг (ISP-функція) і, зокрема, функція постачальника транзитного трафіку зникає. Завдання доставки користувачів до вмісту змінюється на завдання доставки контенту до користувачів. Чи означає це, що транзит для інтернет-користувачів тепер перестає діяти? Давайте подивимося на це трошки уважніше.

Інтернет складається з декількох десятків тисяч окремих мереж, кожна з яких відіграє свою роль. Якщо вважати систему маршрутизації інтернету хорошим індикатором, то мається 55 400 окремих мереж (або «автономних систем» мовою системи маршрутизації).

Більшість таких мереж розташоване на периферії мережі і, явно, не надає послугу транзиту пакету в яку-небудь іншу мережу — в даний час налічується 47 700 таких структур. Решта 7 700 мереж працюють в дещо іншій якості. Видаючи набір адрес в інтернет, вони також переносять повідомлення інших мереж — іншими словами, можна сказати, що вони виконують роль провайдерів транзитного трафіку.

Чому це розходження було важливо в минулому? Що було такого особливого в «транзит»?

Значна частина проблеми полягала в особливості фінансових механізмів, які діяли між провайдерами. У багатьох операціях, де надання якогось сервісу клієнту залучено кілька провайдерів, зазвичай є провайдер, одержує плату від клієнта і розподіляє її іншим провайдерам за їх участь у даній послузі, що надається клієнту.

Як ні логічно це виглядає, інтернет не готовий визнавати подібні механізми. Немає чіткої моделі того, що є компонент «послуга» — немає якогось загального угоди про те, як здійснювати облік послуг, які повинні були бути в основі будь-якої форми фінансових розрахунків між провайдерами.

У кінцевому рахунку, інтернет обійшовся без таких механізмів і прийняв більш просту модель, засновану тільки на двох формах взаємозв'язку. В одній моделі один провайдер позиціонує себе провайдером для інших, які стають клієнтами і платять провайдеру за послуги. В іншій моделі два провайдера позиціонують себе як займають приблизно рівні позиції; в цьому випадку вони повинні знайти взаємоприйнятний результат у здатності обмінюватися трафіком один з одним безкоштовно (т. зв. «пірінг») (рис. 1).

image
Рис. 1. Моделі «провайдер/клієнт» і «пірінг» у світі постачальників інтернет-послуг (ISP)

У цьому середовищі розібратися, хто провайдер, а хто клієнт, стає важким завданням в деяких випадках. Аналогічно — зрозуміти, чи є пірінг з іншим провайдером корисним вам або навпаки, також нерідко проблематично. Але був один критерій, який, здавалося, був у значною мірою самоочевидним: провайдери доступу платять провайдерам транзиту за свій трафік.

Загальним результатом цих домовленостей було деяку кількість «рівнів» (Tier), де гравці, які разом існували на якомусь рівні, зазвичай знаходили певну форму взаємодії, сводившуюся до пирингу, в той час як при взаємодії декількох рівнів більш низький рівень мережі ставав клієнтом, а більш високий — провайдером. Ці рівні не були формально визначені, і не було «допуску» на будь-який рівень із заздалегідь визначеним результатом.

У багатьох відношеннях ця багатошарова модель описувала результат переговорного процесу, де кожен провайдер був, по суті, відомий на своєму рівні тим інтернет-провайдерів, з якими він взаємодіяв: з тими, хто були його клієнтами, і з тими, чиїм клієнтом був він сам.

image
Рис. 2. Багаторівневість в ISP-середовищі

Досить ясно видно, куди спрямований цей процес, тому що нагорі цієї ієрархії перебували домінуючі постачальники послуг з транзиту. На самому верхньому» рівні були т. зв. провайдери «рівня» (Tier I). Разом ці провайдери формували неформальну «олігархію» інтернету (Tier I Club).

Щоб зрозуміти, чому транзит грав настільки важливу роль, досить було тільки подивитися на порівняно віддалені райони світу, де витрати на транзит повністю домінували у витратах на надання доступу до мережі. В Австралії десять років тому або близько того приблизно 75% всіх даних, які були доставлені кінцевим користувачам, було передано через Тихий океан (і назад) австралійськими інтернет-провайдерами, взимавшими плату за цю функцію транзиту. Результатом були високі роздрібні ціни на доступ в Інтернет, використання обмежень обсягу даних і всі види зусиль по кешуванню локальних даних.

Навіть на ринках, де витрати на транзит не були настільки переважаючими, існувало все ж ясне виділення рівнів, на яких комбінація інфраструктурних активів, повної кількості прямих і непрямих клієнтів (іншими словами — сукупна частка на ринку) та здатності долати перешкоди визначала їх особливу позицію щодо інших провайдерів інтернет-послуг у тому ж ринковому просторі. На таких ринках транзит мав значення, оскільки розгляд інфраструктурних активів включало в себе широту з позиції інтервалу покриття. Регіональний або локальний інтернет-провайдер вважав би для себе проблематичним мати пірінг з провайдером, який обслуговує, наприклад, всю країну.

Але, що було — те пройшло, і схоже, багато що змінилося в цій моделі. Первісна модель інтернету будувалася на функції пересилання та її роль полягала в тому, щоб забезпечити трафік клієнта в обидві сторони з усіма проміжними точками, де можуть бути розташовані сервери. За словами сенатора Теда Стівенса (поза контекстом його монологу) ця орієнтована на пересилання модель інтернету була, дійсно, «безліччю труб». Сервіси заполонили мережу до краю, і мережа була рівномірно здатна приєднувати користувачів до сервісів скрізь, де б вони не знаходились. Але необхідно бачити відмінність між можливістю і фактичною роботою, тобто здатністю.

У той час як модель дозволяла будь-якому користувачу скористатися будь-яким сервісом, маршрут пересилання всередині мережі помітно відрізнявся для користувачів при доступі до одного і того ж сервісу. Це часто призводило до аномального функціонування, при якому, чим далі користувач був розташований від сервера, тим повільніше відбувалася пересилання. Наприклад, показаний внизу малюнок взятий з презентації Фейсбуку на NANOG 68 (рис. 3).

image
Рис. 3. Експлуатаційні характеристики інтернету, 2011 рік

Області, які обслуговуються геостаціонарними супутниками і області з надзвичайно довгими маршрутами з позиції протяжності каналів мали, звичайно, набагато більший час на передачу та підтвердження (RTT) для даних, якими обмінюються користувач і точка надання послуг.

Природно, таке збільшення RTT не є разовим явищем. Якщо врахувати, що може мати місце розширена DNS-транзакція, потім TCP-квитування, потенційно, з подальшим TLS-квитированием, потім транзакція запиту, після чого доставка необхідного контенту з повільним TCP-пуском, середній користувач має затримку транзакцій як мінімум 3 RTTS, а ймовірніше — вдвічі більшу.

Транзакція, яка для користувача, розташованого в тому ж місті, де знаходиться сервер, займає менше однієї десятої секунди, може зажадати для віддаленого користувача до 6-ти секунд.

Ці затримки не завжди виникають з-за поганого вибору шляху системою маршрутизації або через рідко розташованих базових станцій, хоча ці міркування також мають значення. Частина проблеми полягає в простій фізичній реальності: розмір Землі і швидкості світла.

Третину секунди йде на шлях пакета геостационарному супутника і назад. Супутникова затримка визначається швидкістю світла, відстанню від Землі до супутника на геостаціонарній орбіті.

З підводним кабелем ситуація краще, але ненабагато. Швидкість світла у волоконно-оптичному кабелі становить дві третини швидкості світла у вакуумі, тому шлях тільки через Тихий океан і назад може зайняти 160 мілісекунд. Так що в певному сенсі — це та межа якої можна досягти, намагаючись організувати оптимальну топологію транзиту для інтернету і після цього рухатися нікуди, якщо тільки ви не готові чекати завершення дрейфу континентів, яке знову зведе нас усіх разом!

Якщо ж ви справді бажаєте отримати поліпшення продуктивності для вашого сервісу — ясно, що наступним кроком має бути повна відмова від транзиту і переміщення копії контенту ближче до користувача.

Саме це і відбувається в даний час. Ми бачимо, що зараз проекти підводних кабелів орієнтовані більше на забезпечення зв'язку дата-центрів найбільших провайдерів, ніж на забезпечення користувацького трафіку до віддалених дата-центрам. Google в 2008 році почав входити у володіння підводними кабелями і в даний час має позиції в шести з них (див., зокрема, нещодавнє повідомлення про прокладання кабелю (рис. 4)).

image
Рис. 4. Повідомлення про CDN-кабелі

Тім Строндж, віце-президент TeleGeography, як повідомляв WIRED, заявив, що цей новий кабель продовжує діючий тренд:
«Великі постачальники контенту висувають величезні і часто непрогнозований вимоги до трафіку, особливо між їхніми власними дата-центрами. Їх вимоги до продуктивності такі, що для них має сенс на найбільш напружених маршрутах прокладати кабелі, а не купувати трафік. Володіння підводними оптоволоконними парами дає також свободу маневру при модернізації, коли вони вважатимуть це доцільним, знімаючи залежність від стороннього оператора підводної кабельної зв'язку.»
Цей зрушення в технологіях доступу до контенту також змінює роль різних інтернет-обмінів.

Вихідною мотивацією такого обміну групування разом деякої кількості близьких за обсягом локальних провайдерів, щоб дати їм можливість безпосередньо обмінюватися трафіком один з одним. Обмін дозволяв обходити плату провайдерам транзитного трафіку при виконанні кросс-з'єднань і оскільки була значна частка місцевого обміну трафіком, то такий обмін заповнював реальну потребу в заміні частини ролі транзитного провайдера локальної функцією комутації.

Однак оператори обмінного взаємодії швидко зрозуміли, що, коли вони включають в обмін також сервіси дата-центрів, то локальні учасники обміну бачать збільшений обсяг користувача трафіку, забезпечуваного при обміні, що підвищило відносну важливість даного обміну.

Існує ще один фактор, що підштовхує контент і сервіс до цим спеціалізованим системам розподілу контенту — загроза зловмисної атаки. Окремі підприємства, особливо ті, основною діяльністю яких є надання онлайн-послуг, вважають для себе проблематичним робити значні інвестиції в навчання персоналу і в інфраструктуру, щоб протистояти мережевим атакам.

Бажання підвищити стійкість сервісу в умовах атаки, в поєднанні з вимогами користувачів по швидкому доступу породжує потребу використовувати деяку форму эникастного сервісу, при якій розподіл послуг відбувається з багатьох точок доступу, близьким до різних груп користувачів. Тому не дивно, що компанії, розподіляють контент, такі як Akamai і Cloudflare (назвемо хоча б ці дві), мають високий попит на свої послуги.

Але тоді, якщо контент зміщується в дата-центри, розташовані ближче до користувачів, що робити провайдерам транзитного трафіку?

Перспектива виглядає не райдужно і хоча це може бути лише перший дзвіночок, цілком імовірно, що ми бачили останні інфраструктурні проекти кабелів далекого зв'язку, профінансованих транзитними інтернет-провайдерами (у всякому разі, на даний момент).

На багатьох розвинених споживчих інтернет-ринках більше просто немає потреби кінцевих користувачів в отриманні доступу до віддалених сервісів в таких великих обсягах, як раніше. Замість цього, контент-провайдери переносять свій основний контент набагато ближче до користувача, системи розподілу контента, які беруть на себе провідну роль у фінансуванні подальшого входження в інфраструктуру «далекого зв'язку» інтернету.

Для користувача це означає більш високу продуктивність і потенційне зниження витрат, особливо якщо розглядати складову частину витрат тільки на пересилку. Потреба в транзитної інфраструктури на далекі відстані, як і раніше існує, але тепер це справа контент-провайдерів, які беруть на себе основну частину цієї потреби. Залишилася, визначена користувачем транзитна складова стає нішею діяльності, яка зрозуміла лише присвяченим та, яка знаходиться далеко за межами мейнстріму сервісів передачі даних.

В результаті змінюється також вся архітектура інтернету. Від однорангової багатоточкової плоскої сітки інтернету початку 90-х ми перейшли, в основному, до архітектури клієнт/сервер, де основна частина трафіку припадає на комунікацію між клієнтами і серверами, а трафік між самими клієнтами майже відсутня.

Транслятори мережевих адрес (NAT) сприяли цьому, ефективно приховуючи клієнтів, поки ті не ініціювали з'єднання з сервером. Ймовірно, що виключно завдяки цим трансляторам вичерпання IPv4-адрес не стало таким катастрофічним лихом, як ми всі чекали. До того часу, коли надання нових адрес істотно вичерпалося, ми значною мірою відійшли від моделі однорангових вузлів підключення до мережі, і в життя увійшла модель зростаючого використання трансляторів NAT в мережі доступу будучи, в кінцевому рахунку, повністю сумісної з моделлю доступу клієнт/сервер. Коли ми почали повномасштабно використовувати NAT, модель мережевого сервісу клієнт/сервер вже надійно закріпилася, а ці два підходи доповнили один одного.

Зараз цілком можливо, що ми продовжимо і далі дробити модель клієнт/сервер на більш дрібні частини, ефективно направляючи кожного клієнта в сервісний «конус», визначений сукупністю локальних дата-центрів (рис. 5).

image
Рис. 5. «Сервісні конуси» мереж доставки контенту (CDN)

Якщо світ інтернет-сервісу, насправді, визначається невеликим числом CDN-провайдерів: Google, Facebook, Amazon, Akamai, Microsoft, Apple, Netflix, Cloudflare і, можливо, ще декілька — а всі інші постачальники послуг, в основному, вбудовують свої сервіси в ці величезні хмари контенту, то чому клієнтський повинен йти трафік на віддалені дата-центри? В чому саме полягає залишається потреба в далекому транзит? Чи є взагалі майбутнє у провайдерів послуг з транзитного трафіку?

Зараз, схоже, говорити про це передчасно — згадуючи Марка Твена, можна сказати, що повідомлення про смерть інтернет-провайдерів транзитного трафіку сильно перебільшені і це твердження, ймовірно, буде дійсно вірно сьогодні. Але потрібно пам'ятати, що немає жодного розпорядчого послання згори, зберігати яке б полносвязный інтернет і задавало б якусь конкретну модель сервісу в інтернеті.

У світі приватних інвестицій і приватного підприємництва не рідкість бачити провайдерів, які вирішують проблеми, які вони самі вибирають вирішення, і справляються з ними так, щоб це принесло їм прибуток. Одночасно вони ігнорують те, що є перешкодою в їх очах і, враховуючи, що ресурси часу і енергії у них обмежені, ігнорують те, що не становить комерційної вигоди для них. Таким чином, у той час як «універсальний сервіс» та «універсальна подключаемость» мають право бути значущими якостями в регульованому старому світі систем телефонії (і в явно вираженому суспільному договорі, який був фундаментом цієї системи), такі поняття соціальних зобов'язань не є такими, що підлягають беззаперечному виконанню в інтернеті. Якщо користувачі не цінують пропозицію настільки, щоб заплатити за нього, то постачальники послуг мають обмежений стимул забезпечувати його!

Якщо транзит є мало затребуваною і мало використовуваною послугою, то чи в змозі ми передбачити таку архітектуру інтернету, яка усуває транзит взагалі, як сутність?

Звичайно, реально побачити картинку, де інтернет розвивається в напрямку групи клієнтських «конусів», які підвішують локальні пункти розподілу даних, і де ми отримуємо можливість використовувати зовсім різні механізми для координації руху даних між центрами або їх синхронізації. Замість єдиного інтернету ми побачили б розподілену структуру, яка буде, в основному, схожа на середу клієнт/сервіс, діючу сьогодні, але має деякий рівень неявній сегментації між кожним з цих сервісних «хмар». Слід визнати, що тут до поточної ситуації для отримання картинки застосована досить сильна екстраполяція, але, все ж, отримане не виходить за межі можливого.

В цьому випадку, в такому зібранні сервісних конусів, чи є якась цінність в глобально орієнтованому адресному просторі? Якщо всі потоки трафіку обмежені рамками кожного сервісного конуса, то зберігається вимога адресації є, в кращому випадку, вимогою розрізняти кінцеві точки тільки в рамках конуса без якогось конкретного вимоги для унікальності у всій мережі (незалежно від того, що «у всій мережі» могло б означати в такій системі). Якщо хто-небудь до цих пір пам'ятає роботу IETF на RSIP (Realm-Specific IP, RFC 3102), то приблизно це я маю на увазі, висловлюючи дані міркування.

Але таке може бути реалізовано лише через кілька років, якщо, взагалі, може бути реалізовано…

Сьогодні ми бачимо подальші зміни в триваючої напруженості між передачею даних і контентом. Ми бачимо зниження використання моделі, яка інвестує, в основному, в передачу даних так, що користувач «транспортується» до дверей бункера з контентом.

Натомість приходить модель, передає копію вмісту в бік користувача в обхід багатьох раніше діяли функцій пересилання даних. Іншими словами, зараз виявляється, що вміст знаходиться у висхідному сегменті ринку, а цінність послуг в області передачі даних, особливо далекого транзиту, помітно знижується.

Проте ця модель також піднімає деякі цікаві питання про узгодженості в інтернеті. Не всі сервіси виявляються однаковими, і не весь контент поставляється одним і тим же способом. Ery може робити припущення про мову за замовчуванням, підлягає використанню для представлення своїх серверів, або дотримуватися регіональне ліцензування контенту. Наприклад, Netflix використовує різні каталоги в різних районах світу. Кінцевий сервіс, в різних місцях, трохи розрізняється.

На більш загальному рівні ми бачимо деяку ступінь сегментації або фрагментації в архітектурі інтернету як результат спеціалізації надання послуг. У такому середовищі, яка сегментована на майже автономні сервісні конуси, що є рушійною силою ринку, яка дозволила б бачити всі можливі сервіси, завантажені в кожну точку розподілу сервісів? Хто буде платити за таке багаторазово продублированное забезпечення сервісів? І якщо ніхто не буде готовий піти на цю модель «універсального» контенту, то якою мірою «інтернет» буде різним для різних місць планети? Будуть всі доменні імена узгоджено доступні і одноманітно перетворюватися в цій сегментованої середовищі?

Очевидно, що такі міркування по адаптації локального сервісу, що надається в кожному окремому регіоні, призводять досить швидко до фрагментації інтернету, тому я, мабуть, зупинюся тут і залишу їх як відкриті питання, відповіді на які можуть бути побічним результатом можливого припинення транзиту і росту мережі доставки контенту.

Як довго буде діяти ця орієнтована на розподіл вмісту модель надання послуг, можна тільки гадати. Цілком може бути, що це тільки певна фаза, яку ми проходимо, а наявне уявлення, орієнтований на дата-центри, є просто проміжним етапом, а не тим, де ми могли б бути, в кінцевому підсумку. Так що, можливо, зараз все ж не зовсім правильний час повністю відмовитися від традиційної концепції про універсальної связываемости і всеосяжне транзитному сервісі, незважаючи на те, що, начебто схоже, сьогоднішній інтернет робить вже досить великий крок у зовсім іншому напрямку!
Джерело: Хабрахабр

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.