Медный кабель прямого подключения (DAC): дешевая альтернатива оптике
- Что внутри DAC и почему это работает
- Пассивные и активные: два подхода к одной задаче
- Медь vs оптика: честное сравнение
- DAC vs AOC: когда что выбирать
- Форм-факторы и скорости: от 10G до 800G
- Экономика и TCO: где реальная выгода
- Ограничения и подводные камни
- Практический сценарий: миграция с 10GBASE-T
- Куда движется рынок
Представьте: у Вас стойка на 42U, набитая серверами под завязку. Между ToR-свитчем и каждой нодой — 1,5 метра. Вы покупаете оптические трансиверы, волокно, патч-панель… и тратите на это столько, что хватило бы на ещё один сервер. А потом узнаёте, что всё это расстояние можно было закрыть одним медным кабелем за треть цены. Обидно? Ещё бы.
Кабель DAC — это, собственно, и есть тот медный кабель. Direct Attach Copper, он же twinax кабель — цельная сборка из экранированных медных проводников с трансиверами, впаянными прямо в коннекторы. Никаких отдельных модулей, никакого оптического преобразования. Воткнул в SFP+-порт свитча, другой конец — в сервер. Всё. Технология существует уже больше десяти лет, но до сих пор вызывает вопросы у тех, кто привык к витой паре или оптике. Давайте разберёмся, что такое кабель dac, когда он выгоден и где его пределы.
Что внутри DAC и почему это работает
Физически кабель dac — это пара твинаксиальных медных проводников калибра 26–28 AWG (иногда 30 AWG для тонких высокоскоростных версий) с мощным экранированием. Twinax отличается от привычной витой пары принципиально: два проводника идут параллельно внутри общего экрана, что обеспечивает стабильный импеданс и отличную защиту от электромагнитных помех (EMI). Именно эта конструкция позволяет гонять 400G на расстоянии 2–3 метра без единого ретранслятора.
Трансиверы интегрированы в коннекторы SFP+, QSFP28, QSFP-DD или OSFP — в зависимости от скорости. Это и есть главная экономия: Вы не покупаете два отдельных модуля по $50–200 каждый. Соединение sfp+ через DAC обходится в 2–5 раз дешевле, чем аналогичная связка «трансивер + оптический патч-корд + трансивер».
Пассивные и активные: два подхода к одной задаче
DAC-кабели делятся на две категории, и разница между ними — не маркетинговая, а инженерная.
Пассивные DAC не содержат активной электроники. Сигнал проходит по меди «как есть», без усиления и обработки. Результат — нулевое энергопотребление (буквально 0 Вт на порт) и задержка менее 100 наносекунд. Для 10G-соединений пассивный twinax кабель работает на расстояниях до 7 метров. Для 100G QSFP28 — до 5 метров. Для 400G QSFP-DD — до 3 метров.
Активные DAC (ACC) содержат встроенный эквалайзер или ретаймер в коннекторах, который компенсирует затухание сигнала. Это позволяет удлинить кабель до 10–15 метров для скоростей 100G и выше. Потребление растёт до 0,5–1 Вт на порт — всё равно в разы меньше, чем у оптики.
Правило простое: до 3 метров — пассивный DAC. От 3 до 7 метров — смотрите на скорость и спецификацию. Свыше 7 метров — активный DAC или уже AOC.
Медь vs оптика: честное сравнение
Спор «медь vs оптика» стар как сами дата-центры, но цифры расставляют всё по местам. Вот что получается, если сравнить три технологии для типичного внутристоечного соединения на 100G:
| Параметр | Пассивный DAC | Активный DAC (ACC) | AOC (оптика) |
|---|---|---|---|
| Дальность | до 5 м | до 15 м | до 100 м |
| Задержка на линк | ~300 нс | ~300 нс | ~300 нс + E/O конверсия |
| Потребление на порт | < 0,15 Вт | 0,5–1 Вт | 1–2 Вт |
| Цена (3 м, 100G QSFP28) | ~$40–50 | ~$70–100 | ~$150–250 |
| Вес и гибкость | Толстый, жёсткий | Толстый, жёсткий | Тонкий, лёгкий |
| Устойчивость к EMI | Хорошая (экран) | Хорошая (экран) | Полная иммунность |
Ключевая разница — расстояние и цена. Если все Ваши линки укладываются в 3–5 метров (а в типичной стойке именно так), DAC экономит 50–70% бюджета на интерконнекте. Если нужно тянуть между стойками через 10–20 метров — тут уже территория AOC или классической оптики.
Ещё один нюанс — вес и кабельный менеджмент. Один DAC не проблема. Но когда их 48 штук идут от свитча вниз по стойке — это уже серьёзный пучок медных кабелей, который весит прилично и может перекрыть воздушные потоки. AOC в этом плане удобнее: тоньше, легче, гибче. В стойках с мощностью 30+ кВт на юнит — это аргумент, который нельзя игнорировать.
DAC vs AOC: когда что выбирать
Сравнение dac vs aoc — это не вопрос «что лучше», а вопрос «для какой задачи». В крупных облачных ЦОД до 70% коротких линков (сервер — ToR-свитч) закрывают именно DAC-кабелями. Оставшиеся 30% — это межстоечные и магистральные соединения, где без оптики не обойтись.
DAC побеждает внутри стойки: подключение серверов к ToR-свитчу, связь между блейд-шасси, соединение нод хранилища. AOC берёт своё на межстоечных пролётах, в leaf-spine архитектурах между рядами и там, где кабельные трассы длиннее 7–10 метров.
Отдельная история — AI/HPC-кластеры. При сборке сервера под задачи искусственного интеллекта выбор сетевого интерконнекта критичен: для GPU-to-switch линков внутри стойки (scale-up) DAC даёт минимальную задержку. Для масштабирования между стойками (scale-out) — переходят на AOC или классическую оптику с разъёмными трансиверами. Гибридный подход «DAC внутри стойки + AOC между стойками» стал стандартом де-факто для крупных инсталляций — по оценкам инженеров, он снижает общие затраты на кабельную инфраструктуру на 30–40% относительно полностью оптического решения.
Форм-факторы и скорости: от 10G до 800G
Линейка DAC покрывает весь спектр скоростей, и для каждой — свой форм-фактор коннектора:
| Скорость | Форм-фактор | Тип. длина (пассив) | Примечание |
|---|---|---|---|
| 10G | SFP+ | до 7 м | Массовый сегмент, ToR-подключения |
| 25G | SFP28 | до 5 м | Серверный доступ |
| 40G | QSFP+ | до 7 м | Агрегация 4×10G |
| 100G | QSFP28 | до 5 м | Leaf-spine линки, uplink'и |
| 200G | QSFP56 | до 3 м | Фабрики нового поколения |
| 400G | QSFP-DD / OSFP | до 3 м | HPC, AI-кластеры |
| 800G | OSFP | до 1,5 м | Передний край, InfiniBand NDR |
Отдельно стоит упомянуть breakout-кабели — DAC-сборки, которые разделяют один высокоскоростной порт на несколько портов с меньшей пропускной способностью. Например, 100G QSFP28 → 4×25G SFP28 или 400G QSFP-DD → 4×100G QSFP28. Это позволяет подключать серверы с 25G-интерфейсами напрямую к 100G-свитчу без дополнительного оборудования. Breakout — незаменимый инструмент при поэтапной миграции, когда свитчи уже 100G, а серверные NIC ещё на 25G. Один порт QSFP28 на свитче вместо четырёх SFP28 — это экономия портовой плотности и упрощение коммутации.
Экономика и TCO: где реальная выгода
Разговор о цене одного кабеля — это только верхушка. Полная стоимость владения (TCO) складывается из нескольких компонентов:
Капитальные затраты. 100G DAC на 3 метра стоит $40–50. Пара оптических трансиверов 100G SR4 + патч-корд — от $250. Умножьте на 48 портов свитча, и разница составит $10 000+ на одну единицу оборудования.
Энергопотребление. Пассивный DAC потребляет менее 0,15 Вт на порт. Оптический трансивер QSFP28 — 3–4 Вт. При 1 000 портов экономия составляет ~3,5 кВт. За год это ощутимая сумма на электричестве и охлаждении.
Эксплуатация. DAC — это plug-and-play. Нет отдельных модулей, которые можно вставить не в тот порт или повредить оптический коннектор грязными руками. Нет патч-панелей, нет инспекции торцов волокна. Воткнул — работает.
При средней плотности инсталляции ROI от перехода на DAC (там, где позволяет расстояние) укладывается в 6–12 месяцев.
Ограничения и подводные камни
DAC — не серебряная пуля. Вот что нужно учитывать при планировании:
Затухание сигнала. На длинах свыше 5 метров (для 100G) пассивный DAC начинает терять качество сигнала. Eye diagram сужается, растёт BER. Если Вы работаете на пределе спецификации — обязательно проверяйте линки анализатором.
Жёсткость и толщина. Медный twinax — это не тонкий оптический патч-корд. В плотно набитой стойке пучки DAC-кабелей могут затруднить воздушный поток. На 24 AWG кабель ещё и плохо гнётся. Для высокоплотных инсталляций на 400G+ производители перешли на 30 AWG — тоньше, гибче, но короче по дальности.
Нагрев. Плотная укладка DAC в стойке увеличивает тепловую нагрузку — медь проводит тепло от свитча по кабелю вниз. В стойках с мощностью 20+ кВт это может стать проблемой, которая решается правильной организацией кабельных трасс и вертикальными кабельными органайзерами — подробнее об этом в материале про требования к серверным помещениям и организацию охлаждения. Некоторые инженеры целенаправленно выбирают DAC длиной 2 м вместо 1 м — лишний метр даёт свободу укладки и не перегружает зону за свитчем.
Вендорная совместимость. DAC-кабели содержат EEPROM с идентификатором вендора. Cisco, Arista, Juniper — у каждого свои требования к кодировке. Некоторые свитчи блокируют «неродные» кабели на уровне прошивки. Arista, к примеру, относительно лояльна к third-party DAC. Cisco — строже, хотя команда service unsupported-transceiver решает часть проблем (но снимает гарантию). Mellanox/NVIDIA ConnectX-адаптеры обычно принимают любые корректно прошитые DAC без вопросов. Перед закупкой уточняйте совместимость или берите DAC, прошитые под нужный вендор. Большинство third-party производителей (FS.com, 10Gtek, Ampcom) предлагают кабели с вендор-специфичной кодировкой.
Тестирование. Для продакшн-инсталляций рекомендуется проверять DAC-линки через Eye diagram и BERT (Bit Error Rate Test). Эти инструменты показывают, насколько «открыт глаз» сигнала и сколько битовых ошибок возникает на единицу времени. Если нет доступа к анализатору — хотя бы проверьте FEC-счётчики на свитче после подключения. На Arista это show interfaces counters errors, на Cisco Nexus — show interface X/Y counters detailed. Ненулевые correctable errors на свежем линке — сигнал, что кабель на пределе или неисправен. Uncorrectable errors — повод менять кабель немедленно.
Практический сценарий: миграция с 10GBASE-T
Если Ваша серверная до сих пор работает на 10GBASE-T (RJ45), переход на SFP+ DAC — одна из лучших инвестиций в производительность. Цифры говорят сами за себя: задержка на линк падает с 2,6 микросекунд до 300 наносекунд — почти в 9 раз. Потребление на порт снижается с 2–5 Вт (10GBASE-T зависит от длины кабеля) до 0,15–0,7 Вт (DAC/SFP+).
Для виртуализированных сред эта разница ощутима — и если Вы ещё выбираете платформу, посмотрите наш разбор популярных гипервизоров (VMware, Proxmox, Hyper-V). При четырёх хопах через ToR-инфраструктуру 10GBASE-T накапливает до 10,4 мкс задержки только на физическом уровне. SFP+ DAC на тех же четырёх хопах — 1,2 мкс. Это напрямую влияет на время живой миграции виртуальных машин, отклик хранилища и работу распределённых систем.
Стоимость перехода складывается из SFP+ DAC-кабелей ($14–35 за 10G, 1–3 метра), сетевых адаптеров с SFP+-портами (если их нет) и, возможно, замены свитча. Сетевые карты Intel X710 или Mellanox ConnectX-4 Lx с двумя SFP+-портами стоят $80–150 на вторичном рынке — вполне подъёмная сумма. Окупаемость — на экономии электроэнергии и повышении плотности виртуальных машин на хост. А если у Вас latency-sensitive нагрузки (базы данных, торговые системы, real-time аналитика) — выигрыш ощущается сразу, без калькулятора ROI.
Куда движется рынок
800G DAC на OSFP-коннекторах уже доступен, хотя пассивные версии ограничены длиной 1–1,5 метра. Для 800G на расстояниях 2–3 метра используются активные электрические кабели (AEC) — по сути, эволюция ACC с ретаймерами на борту. А на горизонте — 1.6T, где медь будет работать только на сверхкоротких дистанциях внутри стойки.
Параллельно развивается рынок DAC для AI-инфраструктуры. NVIDIA LinkX, Amphenol, TE Connectivity наращивают выпуск кабелей для InfiniBand NDR (400G) и XDR (800G). GPU-кластеры потребляют DAC в промышленных масштабах: каждый GPU-узел требует 4–8 линков к свитчу, и на коротких дистанциях медь остаётся безальтернативной по сочетанию задержки и стоимости.
DAC никуда не уходит. Пока дата-центры строятся из стоек, а серверы стоят в метре от свитча — медный кабель прямого подключения будет занимать своё место в инфраструктуре. Не как замена оптике, а как её разумное дополнение там, где расстояние позволяет сэкономить. И если Вы до сих пор тянете витую пару Cat6a между свитчем и сервером в стойке — посмотрите на DAC. Ваш бюджет и Ваши виртуальные машины скажут спасибо.


