Инструменты пользователя

Инструменты сайта


topics:23:optical_networks

Проектирование оптических сетей в ЦОД

Раздел описывает принципы построения волоконно-оптических сетей в центрах обработки данных, включая проектирование интерфейсов, кабельных трасс, магистральных и распределительных уровней (ER, MDA, HDA, ZDA, EDA), а также примеры реализации в архитектуре Spine–Leaf. Особое внимание уделено зависимостям между скоростью интерфейсов, количеством волокон и требованиями к размещению шкафов и каналов.

Основные принципы

Успешное проектирование сетей ЦОД требует участия обеих проектных групп — инженерной (архитектурной, электротехнической, конструктивной) и IT-команды (сетевые и серверные архитекторы, проектировщики кабельной инфраструктуры). Интегрированный подход обеспечивает:

  • оптимальную компоновку телекоммуникационных залов;
  • совместимость инженерных и IT-систем;
  • масштабируемость и энергоэффективность на протяжении всего жизненного цикла ЦОД.

Интерфейсы волоконно-оптических сетей

Исторически 10 Gbps интерфейсы использовали последовательные оптические пары (2 волокна). С появлением 40/100/200/400 Gbps перешли к параллельным интерфейсам — требующим от 8 до 32 волокон. Эта зависимость влияет на проектирование каналов, габариты полок и ёмкость стоек.

Интерфейс Кол-во волокон Комментарий
10GBASE-S 2 Двухволоконный канал
40GBASE-SR4 8 Параллельная оптика (4×10 Gbps)
100GBASE-SR10 20 Требует многоволоконных линий
200GBASE-SR4 8 Параллельная оптика
400GBASE-SR16 32 Высокая полоса, высокая плотность
400GBASE-SR8 16 Компромисс скорость/плотность
100/200/400GBASE-DR4 8 Одномодовые для больших дистанций

Для ЦОД в условиях РФ обычно применяют OM4/OM5 (в пределах зала) и OS2 (между уровнями/зданиями) при длинах >100 м.

Влияние скорости и технологии интерфейсов

Количество волокон на порт определяется не только скоростью (40G, 100G, 400G), но и типом интерфейса. При переходе на параллельную оптику требуется больше RU под оптические панели и большее сечение кабельных каналов.

Проектом закладывается запас по сечению каналов и U-месту под панели, чтобы поддержать несколько поколений технологий (40G→400G+) без перестройки трасс.

$$N_{strand} = f(V_{port}, T_{interface})$$

где: - \(N_{strand}\) — количество волокон на порт; - \(V_{port}\) — скорость интерфейса (бит/с); - \(T_{interface}\) — технология (последовательная / параллельная оптика).

Иерархия уровней оптической инфраструктуры

ER → MDA → HDA → ZDA → EDA (Entrance Room, Main Distribution Area, Horizontal Distribution Area, Zone Distribution Area, Equipment Distribution Area)

flowchart TB classDef node font-size:18px,stroke-width:1.5px,fill:#f1f8e9,stroke:#558b2f,color:#1b5e20; classDef layer font-size:18px,stroke-width:1.5px,fill:#e3f2fd,stroke:#1565c0,color:#0d47a1; ER["ER — Ввод кабеля (провайдеры, маршрутизаторы)"]:::layer --> MDA["MDA — Главная кроссовая (ядро, Spine)"]:::layer --> HDA["HDA — Горизонтальная кроссовая (Leaf, агрегаторы)"]:::layer --> ZDA["ZDA — Зона распределения (ряд, PoD)"]:::layer --> EDA["EDA — Зона оборудования (стойки, серверы, SAN)"]:::node

Каждый уровень — самостоятельная зона коммутации. ZDA обеспечивает локальную гибкость при подключении стоек, сокращает длины патчей и ускоряет переобвязку.

Пример сетевой архитектуры (Spine–Leaf + SAN)

Логическая схема связи Spine–Leaf с подключением уровня хранения.

flowchart TB classDef layer font-size:17px,stroke-width:1.5px,fill:#e3f2fd,stroke:#1976d2,color:#0d47a1; classDef device font-size:17px,stroke-width:1px,fill:#fff8e1,stroke:#fbc02d,color:#795548; subgraph MDA["MDA — Spine слой"] Spine1(("Spine-1")):::layer Spine2(("Spine-2")):::layer end subgraph HDA["HDA — Leaf слой"] Leaf1(("Leaf-1")):::layer Leaf2(("Leaf-2")):::layer end subgraph ZDA["ZDA — Распределение по рядам"] MoR(("Middle-of-Row коммутаторы")):::device end subgraph EDA["EDA — Серверные стойки"] Server1(("Сервер A")):::device Server2(("Сервер B")):::device end subgraph SAN["SAN — Уровень хранения"] SAN1(("SAN Director")):::layer Storage(("Дисковые массивы")):::device end Spine1 --> Leaf1 Spine2 --> Leaf2 Leaf1 --> MoR Leaf2 --> MoR MoR --> Server1 MoR --> Server2 MoR --> SAN1 --> Storage

Каждый Leaf связан минимум с двумя Spine (N+1/2N резерв). SAN подключается к MoR выделенными каналами Fibre Channel.

Конфигурации больших залов

Пример 1 — PoD-архитектура (компьютинг, хранение и сеть внутри блока)

flowchart TB classDef node font-size:17px,stroke-width:1.2px,fill:#f1f8e9,stroke:#2e7d32,color:#1b5e20; classDef infra font-size:17px,stroke-width:1.2px,fill:#e3f2fd,stroke:#1976d2,color:#0d47a1; subgraph PoD["PoD"] Compute["Вычислительные стойки"]:::node Storage["Локальное хранилище"]:::node Network["MoR-коммутаторы"]:::infra end PoD --> Spine["Spine (MDA)"]:::infra Spine --> Carrier["Входной шлюз / Carrier"]:::infra

PoD упрощает масштабирование: добавляются новые блоки без вмешательства в существующие залы. Типично для гипермасштабных ЦОД.

Пример 2 — Централизованное хранилище на верхнем уровне

flowchart TB classDef layer font-size:17px,stroke-width:1.2px,fill:#fff8e1,stroke:#f9a825,color:#6d4c41; classDef infra font-size:17px,stroke-width:1.2px,fill:#e3f2fd,stroke:#1565c0,color:#0d47a1; subgraph Halls["Залы 1–3 (Compute + Network)"] MoR1["MoR — коммутаторы залов"]:::infra Servers["Серверные стойки"]:::layer end subgraph CentralStore["Уровень 3 — Центральное хранилище"] SAN1["SAN Directors"]:::infra Drives["Дисковые массивы"]:::layer end MoR1 --> SAN1 --> Drives

Схема разделяет масштабирование вычислений и хранения. Требуется строгий расчёт бюджета потерь и числа соединений (на практике до 8 коннекторов на канал).

Основные зависимости при проектировании

До начала трассировки определяются:

  • архитектура сети (Spine–Leaf, PoD и др.);
  • топология маршрутизации и резервирования;
  • архитектура вычислений и хранения (локально/централизованно);
  • тип и ёмкость кроссовых зон (MDA/HDA/ZDA);
  • планировка залов и размещение шкафов;
  • классы волокон (OM4/OM5, OS2), допустимые длины и бюджет потерь.

Ключевые идеи

  • Поддержка эволюции скоростей 40G→400G+ без замены трасс — ключевое требование.
  • Заранее закладывать запас по сечению каналов и RU под оптические панели.
  • Для крупных ЦОД (>9 000 м²) — модульность через PoD или централизованное хранилище.
  • Spine–Leaf обеспечивает масштабируемость и отказоустойчивость; связи Leaf↔Spine — по схеме полносвязности.
  • При 400G+ критичны длины, число соединений и точный бюджет потерь.
  • Проект выполняется совместно инженерной и IT-командой, с фиксацией требований к трассам и кроссовым уровням.
topics/23/optical_networks.txt · Последнее изменение: admin