Як оптимізувати смугу пропускання в Ethernet-мережах

Низька затримка — це важливий фактор, що забезпечує надійну роботу і високу продуктивність Ethernet-мереж. Програми для спілкування в реальному часі, стрімінг та проведення транзакцій сильно залежать від рівня латентності. Збільшення затримки всього на кілька мілісекунд може призвести до спотворення зображення і голосів, «зависання» програм і фінансових втрат.

Провайдери намагаються стежити за пропускною спроможністю мережі і джиттером, але збільшення ширини каналу часто не впливає на затримку в роботі мережі. У цьому матеріалі ми розглянемо основні причини затримки і техніки оптимізації якості з'єднання без надмірного перевантаження мережі.


/ фото Thomas Williams CC

Затримка та її вплив на якість зв'язку
У мережах, заснованих на пакетному обміні, зв'язок між затримкою і пропускною здатністю неоднозначна і складна у визначенні. При цьому джерелами латентності є:

Затримка поширення. Після генерації сигнал поширюється по лінії зв'язку і досягає маршрутизатора. Час, який йде на передачу сигналу, називається затримкою поширення і залежить від довжини з'єднання і фізичних властивостей середовища (оптоволокно, мідь).

Затримка передачі. Пакети даних передаються в порядку їх надходження у чергу, тому кожен наступний пакет буде переданий після відправлення всіх «посилок» в черзі перед ним.

Затримка очікування. У черзі пакети очікують подальшої передачі до маршрутизатора. Час затримки очікування залежить від числа пакетів і може сильно змінюватися в різних маршрутизаторах. Якщо завантаження з'єднання невисока, то час затримки очікування або нульовий, або дуже незначно, а у разі перевантаженості з'єднання затримка може багаторазово збільшитися.

Затримка вузлової обробки. Це час, який йде на читання заголовка пакету та визначення його подальшого маршруту. Також на затримку обробки впливають процеси начебто перевірки цілісності пакета при передачі.

Управління трафіком і якість зв'язку
Фахівці компанії Ashton, Metzler & Associates називають управління трафіком можливістю мережі класифікувати передані пакети. Цей підхід використовується в мережах з обмеженою пропускною здатністю при роботі важливих додатків і чутливих до затримок додатків. Управління може означати обмеження трафіку для конкретних сервісів, наприклад, електронної пошти, і виділення частини каналу під роботу критично важливих бізнес-додатків.

Для управління трафіком і якістю зв'язку в мережі рекомендується:

  • Налаштувати мережу так, щоб можна було проводити моніторинг та класифікацію трафіку
  • Аналізувати трафік в мережі для розуміння закономірностей роботи важливих додатків
  • Впровадити відповідне поділ на рівні доступу
  • Вести спостереження і звітність, щоб активно керувати зміною схемами розподілу трафіку
Найбільш ефективний спосіб управління трафіком, мнению фахівців Viavi Solutions, — ієрархічний контроль якості зв'язку (H-QoS), який є комбінацією мережевих політик, фільтрації та управління формою трафіку. H-QoS не буде знижувати швидкість роботи, якщо всі елементи мережі забезпечать ультранизкую затримку і високу продуктивність. Головне достоїнство H-QoS — скорочення латентності без необхідності збільшення пропускної здатності каналу.

Використання мережевих інтерфейсних пристроїв
Мережеві інтерфейсні пристрої (NID) дают можливість проводити моніторинг та оптимізацію трафіку при невеликих витратах. Зазвичай такі пристрої встановлюються на території абонента: мережевих вишках та інших точках переходу між мережами операторів.

NID забезпечують контроль за всіма компонентами мережі. Якщо такий пристрій підтримує H-QoS, то провайдер може не тільки стежити роботою мережі, але і проводити індивідуальну настройку параметрів для кожного підключеного користувача.

Кешування
Відносно невелике збільшення пропускного каналу сам по собі не вирішить проблему низької продуктивності мережевих додатків. Кешування допомагає прискорити доставку контента і оптимізувати навантаження на мережу. Цей процес можна розглядати як техніку прискорення сховища ресурсів — мережа працює швидше, ніби після оновлення.

Зазвичай в організаціях кешування використовується на декількох рівнях. Варто відзначити так зване проксі-кешування. Коли користувач надсилає запит які-небудь дані, що його запит може бути виконаний локальним проксі-кешем. Чим вища ймовірність виконання такого запиту, тим сильніше звільняється мережевий канал. Проксі-кеші є свого роду загальною кеш-пам'яттю: вони працюють з великим числом користувачів і тому дуже гарні в скороченні часу очікування і мережевого трафіку.

Тому одним з корисних варіантів застосування проксі-кешування є можливість підключення декількох співробітників до загального пулу інтерактивних веб-додатків.

Стиснення даних
Основне завдання стиснення даних — скоротити розмір файлів, які передаються по мережі. В деякій мірі стиснення схоже на кешування і може дати ефект прискорення, як при збільшенні пропускної здатності каналу. Але як і кешування, стиснення даних не вирішує проблему поганий продуктивності додатків. Один з найпоширеніших методів стиснення — алгоритм Лемпеля – Зіва, який використовується, наприклад, в ZIP-архівування та утиліти стиснення UNIX.

Однак у деяких ситуаціях компресія даних може привести до проблем. Наприклад, стиснення погано масштабується в плані використання ресурсів оперативної пам'яті і процесора. Також компресія рідко приносить користь, якщо зашифрований трафік. Більшість алгоритмів шифрування не використовують повторювані послідовності, тому такі дані не можуть бути стиснуті стандартними алгоритмами.

Для ефективної роботи мережевих додатків необхідно вирішувати проблеми з пропускною здатністю і затримкою одночасно. Стиснення даних спрямовано на вирішення тільки першої проблеми, тому так важливо застосовувати її в зв'язці з методиками управління трафіком.

Існує альтернативний підхід до стиснення даних — це системи одностороннього прискорення передачі пакетів. Такі системи використовують технології оптимізації веб-сторінок, різні стандарти стиснення, методи оптимізації зображень, кодування даних і кешування. У підсумку за допомогою таких систем можна добитися стиснення інформації в 2-8 разів у залежності від вмісту.

У цих інструментів є деякі переваги перед двосторонніми рішеннями і проксі-кешуванням. Головне з них — вони значно дешевше в установці і управлінні, ніж двосторонні. Крім того, такі системи можуть визначати швидкість з'єднання, тип браузера, оптимізувати не тільки статичний, але і динамічний контент для конкретного користувача.

До недоліку одностороннього стиснення відноситься те, що з його допомогою можна оптимізувати тільки роботу окремих програм та сайтів.

Технологія Ethernet і дата-центри
Сьогодні технологія Ethernet використовується повсюдно, але в минулому вона вважалася непридатною для комутаторної структури високошвидкісних з'єднань. Основною причиною була низька пропускна здатність у порівнянні з Fibre Channel або InfiniBand, які використовуються в суперкомп'ютерах та високопродуктивних системах. Після появи технології 10 Gigabit Ethernet (10 GbE) і Ethernet-адаптерів ситуація змінилася.

Сьогодні 10 GbE используется в дата-центрах для коммутаторных структур, дозволяючи скорочувати затримку до 10 мікросекунд і звільняти центральний процесор від обробки протоколу. Також Ethernet-адаптери дозволяють підвищити ефективність споживання енергії в системах кінцевих користувачів.

Однак інженери продовжують проводити дослідження з метою підвищення ефективності Ethernet, щоб зміцнити позиції технології для використання в дата-центрах:

  • Група The Higher Speed Study розробляє наступне покоління Ethernet на 40 Гбіт і 100 Гбіт
  • Група IEEE 802.1 Qau розробляє поліпшені методи керування, які б дозволили усунути втрату пакетів при перевантаженні портів
  • Також, ведуться роботи над поліпшенням вибірки передачі даних, що дозволить розподіляти невикористовувані частини з'єднання для різних класів трафіку
  • Команда Internet Engineering Task Force створює протокол канального рівня зв'язку для забезпечення найкоротшого з'єднання за допомогою Ethernet
  • T11 Working Group веде розробку специфікації для підтримки протоколу Fibre Channel через Ethernet, щоб спростити роботу дата-центрів
Підтримка високої якості з'єднання в мережах — важливе завдання для сучасних організацій. Це дозволяє надавати клієнтам найкращі сервіси і використовувати ресурси мережі по максимуму.

Якщо вам цікава тема оптимізації процесів передачі, зберігання і обробки даних, то можете звернути увагу на декілька інших матеріалів з нашого блогу:

Джерело: Хабрахабр

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.