суббота, 24 октября 2015 г.

Описания технологий Juniper: Virtual Chassis, QFabric, Virtual Chasis Fabric (not finished)

Сравнение QFabric с Virtual Chasis Fabric





QFabric

Смысл и преимущества QFabric (более не актуально, смотреть в сторону Fusion):
- низка задержка, low latency
- поддержка 6000+ портов
- "заточка" под виртуализацию
- полная поддержка standards-based L2 and L3 switching capabilities
- поддержка FC и FCoE

Основные компоненты системы:
Director group - платформа управления, которая выполняет мониторинг и обслуживания всех компонентов системы. Это отдельные устройства, на которых работает JunOS поверх Centos.
На данный момент есть 2 типа директоров: QFX3100-GBE-ACR и QFX3100-GBE-SFP-ACR. С RJ45 и SFP портам, соответственно.
Функции: QFabric system network topology discovery, Node and Interconnect device configuration and startup, and Domain Name System (DNS), Dynamic Host Configuration Protocol (DHCP), and Network File System (NFS) services. The Director group also runs the software for management applications, hosts and load-balances internal processes for the QFabric system, and starts additional QFabric system processes as requested.

Node devices - грубо говоря, это - Line Card, конечные свитчи в которые подключаются сервера, файловые хранилища, другие сети и тд., в свою очередь они подключаются в сердце всей системы QFabric - Interconnect device.
На данный момент QFX3500 и QFX3600 могут выступать Node devices.
A Node device can be used in a manner similar to how a top-of-rack switch is implemented. By default, Node devices connect to servers or storage devices. However, when you group Node devices together to connect to a network that is external to the QFabric system, the formation is known as a network Node group.

Interconnect devices - отдельные свитчи, которые связывают воедино все устройства QFabric. Эти свитчи работают только в сценарии с QFabric, в отличии от QFX3500 и QFX3600, которые могут выступать stand alone или связать в virtual chassis.
To reduce latency to a minimum, the Interconnect device implements multistage Clos switching to provide nonblocking interconnections between any of the Node devices in the system.

Control plane network - Это control plane network, которая является out-of-band Gigabit Ethernet management network, она соединяет все компоненты QFabric системы, такое себе разделение control и data plane. For example, you can use a group of EX4200 Ethernet switches configured as a Virtual Chassis to enable the control plane network. The control plane network connects the Director group to the management ports of the Node and Interconnect devices. By keeping the control plane network separate from the data plane, the QFabric system can scale to support thousands of servers and storage devices.

Модели развертывания QFabric System бывают следующие (всего существует 2 варианта):

QFX3000-M QFabric System, designed for mid–tier, satellite, and containerized data centers, supports supports from 48 to 768 10GbE ports with average port-to-port latency of 3 microseconds. Up to 16 top-ofrack switches (node devices).
Состоит из: QFX3100 Director (бывает RJ45 или SFP директор), QFX3500 and QFX3600 Node device, QFX3600-I Interconnect device (максимум 4 устройства), Two Virtual Chassis composed of four EX4200 (бывает RJ45 или SFP).

QFX3000-G QFabric System, designed for large enterprises, service providers, and cloud data centers, supports up to 6,144 10GbE ports with an average port-to-port latency of 5 microseconds.
Up to 128 top-ofrack switches.
Состоит из: QFX3100 Director, QFX3500 and QFX3600 Node device, QFX3008-I Interconnect device, Two Virtual Chassis composed of four EX4200.

Кстати, переподписка по скорости: 3:1 or 6:1 oversubscription. Но, лучше посмотреть datasheet, там есть нюансы.
Скорость backplane: 5.12 Tbps in a QFX3000-M system and 40 Tbps in a QFX3000-G system, это так, для общего представления масштабов.

 




Virtual Chassis Fabric

VCF построена с использованием spine-and-leaf архитектуры.
В spine-and-leaf архитектуре, каждый spine device соединен с leaf device.
VCF поддерживает максимум 32 устройства, максимум 4 из которых могут быть сконфигурированы в качестве spine, остальные - leaf устройства.
Каждый spine device имеет хотя бы один Virtual Chassis port (VCP) который подключен к leaf device в фабрике VCF.

Роль Spine может быть только у QFX5100 (кроме медного QFX5100-48T).
Leaf устройствами могут быть: QFX3600, QFX3500, and EX4300.

Если источник и получатель трафика находятся на разных leaf устройствах, то трафик всегда будет проходить через Spine устройство.

Spine device:
- Должен быть QFX5100.
- Конфигурируется в роли Routing Engine (но, если Spine устройств больше чем 2, то некоторые из  них будут работать в linecard роли...).
Только 2 Spine устройства одновременно могут работать в Routing Engine роли. Если в фабрике 3 или 4 spine устройства, то некоторые их них будут работать в linecard режиме. Устройство, которое работает в linecard перейдет в статус Routing Engine, если текущее устройство со статусом Routing Engine уйдет в offline.
- Имеет прямое соединение с каждым Leaf устройством.
- Сверху подключаются к маршрутизаторам, фаерволам, в зависимости от топологии.
VCF всегда должен иметь минимум 2 Spine устройства.
Master Routing Engine и backup Routing Engine всегда должны присутствовать в фабрике и быть Online. Кто будет мастер и кто бэкап определяется по алгоритму выбора мастера для VCF.

Leaf device:
- Может быть QFX5100 (в идеале), также поддерживаются: QFX3500, QFX3600, EX4300.
- Подключен к каждому spine device.
- Всегда работает в linecard режиме.
- Подключаются конечные устройства (сервера и тд.)
Исходя из логики, что Spine максимум 4 а всего в фабрике может быть 32 устройства, то Leaf может быть максимум 30 (если у нас 2 Spine, а вдруг...).

Все Leaf устройства являются Linecard устройствами. При подключении нового коммутатора и в зависимости от типа его конфигурации autoprovisioned, preprovisioned, nonprovisioned, новое устройство может либо сразу ставатьLinecard нодой фабрики, либо его придется сконфигурировать руками, или оно вступит в master election algorithm.

Virtual Chassis Ports (VCPs):
Такими портами могут быть SFP+ либо QSFP+ соответственно 10 гбит/сек либо 40 гбит/сек порты.
Порты 10-Gbps SFP+ and 40-Gbps QSFP+ не настроены в VCF по умолчанию!
Но, они могут автоматически стать VCPs, если:
- Link Layer Discovery Protocol (LLDP) is enabled on the interfaces on both ends of the link. LLDP is enabled by default.
- The device being added to the VCF is configured into fabric mode.
- The interfaces on both ends of the link are not configured as VCPs.
- One of the devices is already part of a VCF that was autoprovisioned or preprovisioned.

При подключении всех устройств в фабрику, они должны быть настроены в Fabric Mode (перевод в этот режим требует перезагрузку). Если в фабрике используются не только QFX5100, то надо переводить устройства в mixed mode.

Пример сбора в VCF QFX5100:



Ссылки на литературу:
https://www.juniper.net/techpubs/en_US/junos14.1/topics/concept/vcf-overview.html
https://www.juniper.net/techpubs/en_US/junos14.1/topics/concept/vcf-components.html#vcf-spine-leaf-architecture-overview-2
https://www.juniper.net/techpubs/en_US/junos14.1/topics/concept/vcf-configuration.html

По поводу обычной Virtual Chassis:





Комментариев нет:

Отправить комментарий