close

Вход

Забыли?

вход по аккаунту

- Cisco Connect

код для вставкиСкачать
Виртуализация сетевой
транспортной инфраструктуры
Андрей Вишняков
25.11.2014
© 2014 Cisco and/or its affiliates. All rights reserved.
Network Function Virtualization (NFV)
Уменьшение времени
развертывания сервисов с
дней до минут
Переход от каблирования к
Service Chaining
Упрощение логистики
и формирования ЗИП
Динамическая
масштабируемость
Интеграция с существующими
сетями
dDOS
SBC
Firewall
NAT
VM
VM
VM
VM
CGN
DPI
IPS
Virus Scan
VM
VM
VM
VM
DHCP
DNS
PCRF
Portal
VM
VM
VM
VM
WLC
RaaS
SDN Ctrl.
BRAS
VM
VM
VM
VM
NMS
Caching
CDN
WAAS
VM
VM
VM
VM
Содержание




Cloud Services Router 1000V
Виртуальный IOS XR маршрутизатор
Сетевые приложения ASAv и vSCE
Cisco Modeling Labs
25.11.2014
© 2014 Cisco and/or its affiliates. All rights reserved.
3
Cloud Services Router 1000V
Cisco Cloud Services Router (CSR) 1000V
Cisco IOS XE в виртуальном форм-факторе
CSR 1000V
App
App
OS
OS
IOS XE Cloud Edition
Поддержка IOS XE функций на запросу заказчиков

Независимость от инфраструктуры
Нет привязки к аппаратным характеристиками серверов,
поддержка ESXi, KVM, Xen и Hyper-V гипервизоров

Гибкая производительность

Гипервизор
Виртуальный коммутатор
Сервер
Производительность от 10Mbps до 20 Gbps при
задействовании от 1 до 8 vCPU
Гибкая лицензионная политика

Ограниченные по времени действия и постоянные
лицензии
Программируемость

Поддержка RESTful API (набор OnePK), Netconf/Yang
Функционал и лицензии CSR 1000V
Лицензия
IOS-XE функционал

IPBase
SEC
AppX
AX





Basic Networking: BGP, OSPF, EIGRP, RIP, ISIS, IPv6, GRE, VRF-LITE,
NTP, QoS
Multicast: IGMP, PIM
High Availability: HSRP, VRRP, GLBP
Addressing: 802.1Q VLAN, EVC, NAT, DHCP, DNS
Basic Security: ACL, AAA, RADIUS, TACACS+
Management: IOS-XE CLI, SSH, Flexible NetFlow, SNMP, EEM, NETCONF
IPBase включая …

Advanced Security: Zone Based Firewall, IPSec VPN, EZVPN, DMVPN,
FlexVPN, SSLVPN, GETVPN
IPBase включая …

Advanced Networking: L2TPv3, BFD, MPLS, VRF, VXLAN

Application Experience: WCCPv2, AppXNAV, NBAR2, AVC, IP SLA

Hybrid Cloud Connectivity: LISP, OTV, VPLS, EoMPLS

Subscriber Management: PTA, LNS, ISG
Весь доступный функционал
Виртуализация
ESXi 5.5
XenServer 6.1
KVM (Ubuntu
12.04 LTS, RHEV
3.1, RHEL 6.3)
Hyper-V 2012
R2
Позиционирование в сети CSR 1000V
Фаза 3 – CPE
Фаза 2 – SP граница
• vCPE / Все сервисы на одной x86
• Оркестрация сервисов
• Сетевые сервисы – VPN шлюз,
BRAS (NFV)
• Функционал плоскости управления
- Route Reflector, IP SLA
Корпорация A
Дата
Центр
ASR 1000
Филиал/
CPE
CSR
1000V
Корпорация B
PoP
PE
PE
ASR
9000
ASR
9000
Фаза 1 - Cloud
• Cloud инфраструктура - vCE/ vPE
• Сетевые сервисы - VPN шлюз
• Гибридные облака – L2/ L3 VPN
связность
Абонент A
CSR
1000V
CSR
1000V
CSR
1000V
ASR
9000
CSR
1000V
Абонент B
IaaS Cloud
Архитектура CSR 1000v
 Виртуальный IOS XE
Control Plane
Forwarding Plane
 Control Plane и Data Plane работают на отдельных
vCPU
IOS
FFP Client
/ Driver
 Bootflash: NVRAM: соответствуют областям в
оперативной памяти, копируются с HDD
Chassis Mgr.
Chassis Mgr.
Forwarding Mgr.
Forwarding Mgr.
 Нет аппаратного криптографического ускорителя –
используется Intel AES-NI набор инструкций
Linux Container
 Bootloader функционал реализован за счет GRUB
FFP code
vCPU
vMemory
vDisk
vNIC
 Путь пакета через CSR 1000v
1. Ethernet driver (вход)
2. Rx поток
Гипервизор (VMware / Citrix / KVM)
CPU
Memory
Disk
3. PPE поток (обработка пакета)
4. HQF поток (исходящий QoS)
NIC
5. Ethernet driver (выход)
Physical Hardware
8
Взаимодействие виртуальной машины и
гипервизора
 Гипервизор абстрагирует и
распределяет аппаратные ресурсы
среди множества VM
Blade
Hypervisor
Blade
VM CSR 1000V
VM CSR 1000V
VNIC
vMem
Tables
VNIC
Vswitch
vCPU
vCPU
port
 Алгоритм соответствия vCPU
физическим процессорам влияет
на производительность
port
vCPU
vCPU
vMem
Tables
Планировщик
CPU
Core
UCS
 Набор VMWare установок влияет
на распределение ресурсов:
CPU
Core
Core
Core
Memory
Phy i/f
 Диспетчеризация vNIC по
физическим интерфейсам может
привести к потере пакетов/
джитеру
Phy i/f

Кол-во vCPU на VM

Минимум циклов на vCPU/ привязка
vCPU к физическому ядру

Балансировка трафика в vSwitch
CSR 1000v IOS XE потоки и vCPU ассоциации
 IOS XE процессорные потоки в гостевой ОС привязаны к vCPU
 vCPU потоки в свою очередь привязываются к физическим CPU ядрам с помощью
настроек гипервизора
CSR
footprint
Control
Plane
Data Plane
PPE
1
Data Plane
HQF
Data Plane Rx
processing
vCPU 0
2
vCPU 0
vCPU 1
4
vCPU 0
vCPU 1 & 2
8
vCPU 0
vCPU 1-5
vCPU 3
vCPU 6
vCPU 7
Модели I/O и производительность
Virtual NIC
(VMXNET3)
Virtual NIC
(VMXNET3)
NIC driver
Virtual NIC
(VMXNET3)
NIC driver
Virtual NIC
(VMXNET3)
HW Queues
Sereno ASIC
Hypervisor Virtual Switch
NIC Driver
RX Ring
TX Ring
Аппаратная NIC
Paravirtualized
9 Gbps
NIC Driver
RX Ring
Аппаратная
NIC
TX Ring
RX Ring
TX Ring
RX Ring
Аппаратная
NIC
Direct I/O
11.2 Gbps
Результаты тестирования CEF 1500 байт коммутации на сервере 4 vCPU, ESXi 5.5
TX Ring
Аппаратная
NIC
UCS VM-FEX
13.2 Gbps
Single Root IO Virtualization - SR-IOV
 Одно физическое PCIe устройство эмулирует
несколько отдельных PCIe адаптеров
 Позволяет виртуальной машине общаться
напрямую с аппаратной составляющей минуя
гипервизор
 Физические и виртуальные функции/элементы
(PF/VF)
 PF: полнофункциональное PCIe устройство
 VF: PCIe без конфигурируемых ресурсов
 Каждый PF/VF получает отдельный PCIe
идентификатор, таким образом разделяется IO
работа с памятью для VF
 Требуется поддержка в BIOS/Гипервизоре
 Поддерживается для IOS XE с релиза 3.13 для
ESXi и HyperV
vMotion для VM-FEX с включенным DirectPath I/O
Временный переход
от DirectPath к
стандартному I/O
10000
Mbps
7500
vMotion на
второй хост
5000
2500
1 сек перерыв трафика
• VM передает TCP поток (1500MTU)
• UCS B200 M2 шасси с UCS VIC картой
13
19:06:52
19:06:47
Time (secs)
19:06:43
19:06:39
19:06:35
19:06:31
19:06:27
19:06:23
19:06:19
0
Интерпретация Loss Rate, потерь пакетов при измерении
производительности виртуальных машин
 Результаты измерений производительности
сильно разнятся в зависимости от выбора
приемлемого уровня потерь пакетов.
Например, можем выбрать

Без потерь -> Non-Drop Rate (NDR)

Не более 5-ти пакетов

0.1% от PPS, частоты передачи пакетов
 Небольшое ослабление LR критерия
приводит к значительному росту
производительности
 Обычно тесты на производительность
подразумевают потерю 5 пакетов
(«прогрев» системы), а также интерполяцию
результатов по нескольким 2-ух минутным
тестам

Если не указано иное
2vCPU:
производительность
670 Mbps при 1%
потерь
2vCPU:
производительность
384 Mbps при 0%
потерь
Как определить производительность при заданном
Loss Rate
 В ходе теста измеряем % потерь данных для
различной нагрузки
 Нагружаем устройство -> наблюдаем потери ->
уменьшаем нагрузку до тех пор пока потери не станут
допустимыми
 НО! Сложно получить сходные результаты на
множестве тестов
 Необходимо заранее договориться как
интерпретировать результаты!
 Например:



Наибольшая нагрузка при которой видим LR = 0.01% ->
475 Mbps
Нагрузка при которой LR всегда меньше 0.01% -> 374
Mbps
Потери пакетов превышают допустимый уровень 0.01%
при {445, 435, 414, 384} Mbps
Пиковая производительность CSR 1000v
 Одна виртуальная машина CSR 1000v способна
обрабатывать 20 Gbps IPv4 CEF
 Конфигурация с 8 vCPU
 Также доступны конфигурации с 1, 2, 4 vCPU
 IOS XE 3.13 содержит улучшения по
производительности
 До 8 vCPU на VM
 Поддержка VM-Fex/Direct Path/VIC1280 c Vmware
ESXi
 Оптимизация HQF (исходящий QoS)
 Уменьшение процессов в виртуальной машине
* Предварительная информация на основе тестирования инженерного
релиза IOS XE 3.13; Использовался UCS-B200-M3, E7-2690 с VM-Fex.
Улучшение производительности CSR 1000v с
каждым релизом ПО
 Постоянное улучшение
производительности
 Внутренние доработки кода СSR1000V
 Поддержка большего количества vCPU
 Оптимизация настроек гипервизора
 Поддержка VM Fex с Direct Path
 Поддержка Netmap
 Оптимизация компилятора
 VM Fex с DirectPath I/O и привязкой VM к
определенным CPU дает скачок в
производительности
 В дополнении к постоянным характеристикам
по потерям и задержкам пакетов
Up to IOS XE 3.12: B230-Base-M2, 128 GB RAM, CPU: Intel Xeon E7-2870 @ 2.40 GHz
IOS XE 3.13: B200M3, 256GB RAM, CPU: Intel Xeon E7-2690 @ 3.0 GHz
Traffic Generator : Spirent ( RFC-2544)
Hypervisor : Vmware: ESXi 5.5.0,
Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}
Производительность CSR 1000v для различных
профилей на базе ESXi гипервизора
 Тестируется IOS XE 3.13
 Одновременно задействовано
несколько функций, типовые
конфигурации
 IMIX смесь пакетов
 Наблюдается минимальная потеря
производительности для ACL+QoS
профиля
 Ожидаемо NAT + IPSec приводит к
максимальной деградации
Hardware: UCS C200 M2 : 2x Intel Xeon 2690 Sandy
Bridge 2.90 Ghz 8 cores, 16 threads
Traffic Generator : Spirent ( RFC-2544)
Hypervisor : Vmware: ESXi 5.5.0,
Traffic Profile : IMIX {64 byes (58.33%), 594 bytes
(33.33%), 1518 bytes (8.33%)}
KVM+Ubuntu Обзор архитектуры
 KVM+Ubuntu набирают популярность

Open source -> “дешевле чем VMWare”
 Гипервизор виртуализирует NIC сетевую карту для
нескольких VM
 Гипервизор планирует выполнение I/O процессов на
сервере
 Физически всего лишь один набор аппаратного
обеспечения, т.е. порт, очереди на нем и т.д.
 1-N отношение между VM’ vNIC и одним NIC портом
 Один vHost/VirtIO процесс на виртуальный интерфейс
(vNIC) –> «узкое горлышко» для высоких скоростей
передачи
Guest-OS
App
App
App
Guest-OS
App
App
App
Virtio-net
Host-OS /
KVM
Virtio-net
Qemu /
v-Host
Qemu /
v-Host
tap
tap
vSwitch (OVS) / Linux bridge
NIC driver
NIC port
X86 сервер
Производительность CSR 1000v для различных
профилей на базе KVM гипервизора
 Тестируется KVM+Ubuntu и IOS XE 3.13
 Результаты аналогичны ESXi:

ACL+QoS деградирует незначительно

IPSec и NAT наиболее требовательная
конфигурация
 Производительность незначительно
отличается для 1/2/4 vCPU конфигураций
 Причина в размере Tx buffer
 Необходима ручная настройка параметров
KVM для достижения максимальной
производительности
Hardware: UCS C220 M2 : 2x Intel Xeon E2690
Sandy Bridge 2.90Ghz 8 cores, 16 threads
Traffic Generator : Spirent ( RFC-2544)
Hypervisor : KVM Ubuntu 14.04 w/ netmap,
Traffic Profile : IMIX {64 byes (58.33%), 594 bytes
(33.33%), 1518 bytes (8.33%)}
Влияние тюнинга параметров KVM на
производительность
Поддержка начиная:
IOS XE 3.13.1S (Окт. 2014)
CSR 1000v в роли vPTA / vLNS агрегатора

Первая в отрасли реализация виртуального BNG (PTA/LNS)

CSR 1000v переиспользует IOS XE код от ASR 1000



PTA / LNS функционал портирован на виртуальную платформу
Внедрения с числом сессий менее 4K на виртульную машину

1Gbps пропускная способность (фаза 1)

Частота установления сессий 50-100CPS
Поддержка PTA (PPPoE) и LNS профилей
Дата Центр
Абонент
SP Aggregation
VM
vPTA
SP Ядро
vLNS
Поддержка начиная:
IOS XE 3.13.1S (Окт. 2014)
CSR 1000v в роли vISG

Virtual Intelligent Services Gateway (vISG) устанавливается как шлюз доступа,
предоставляя абонентам IPoE функционал аналогичный таковому на ASR1000

Целевой группой являются внедрения с числом сессий менее 4K на виртуальную машину


Для фазы 1 рекомендуемая производительность 1Gbps

Частота установления абонентских сессий 50-100CPS
vISG инициаторы сессий – DHCP, unclassified MAC
Metro Wi-Fi
Indoor Hotspot
Wi-Fi Доступ
Residential / Community WiFi
Дата Центр
Виртуальные
машины
vISG
CSR1000v vBNG поддерживаемые профили
Профиль
vPTA
vLNS
vISG
Тип сессии
PPPoEoVLAN
PPPoVLANoL2TP
IPoEoVLAN
Функционал
Input/output ACL, ingress QoS
(policing) / egress QoS
(shaping), vrf-awareness,
IPv4/IPv6 dual-stack, AAA,
ANCP
IPv4/IPv6, HQoS, Input/output
ACL, dual-stack service and TC
accounting, CoA Service Push
vCPU
2 vCPU
Память
8GB
DHCP, Unclassified MAC,
HQoS, Input/output ACL, ISG
TC, L4R, PBHK,
Unauthenticated timeout, etc.
Кол-во сессий
4K
4K
4K
Рекомендуемая
лицензия по
производительности
1Gbps
1Gbps
1Gbps
CEF vs vBNG производительность CSR1000v
5000
 CEF профиль берется за точку
отсчета
4500
4000
Throughput in Mbits
3500
3000
4000 сессий протестировано для каждого
профиля
2500
2000
 IPoE сессии требуют меньше
памяти по сравнению с PPPoE
(аналогично ASR1000), отсюда и
разница в производительности
 Производительность указана
для 1450-байтных пакетов
 Каждый профиль был
протестирован с 4000 активных
сессий, трафик равномерно
распределен по ним
1500
1000
500
0
CEF
vIPoE
IPoEoVLAN
vBRAS
PPPoEoVLAN
vLAC
PPPoEoVLAN
vLNS
PPPoEoVLAN
CSR1000v как BGP Route Reflector
Дата Центр
Абонентский
сайт
SP Агрегация
IOS XE 3.13.0S
Июль 2014
Виртуальные
машины
SP Ядро
vRR
CSR 1000v переиспользует IOS XE код в части ASR 1000 Route Reflector функционала
ASR1001 &
ASR1002-X
(8GB)
ASR1001 &
ASR1002-X
(16GB)
CSR1000v (8GB)
CSR1000v
(16GB)
RP2 (8GB)
RP2 (16GB)
ipv4 маршрутов
7M
13M
8.5M
24.8M
8M
24M
vpnv4 маршрутов
6M
12M
8.1M
23.9M
7M
18M
ipv6 маршрутов
6M
11M
7.4M
21.9M
6M
17M
vpnv6 маршрутов
6M
11M
7.3M
21.3M
6M
15M
4000
4000
4000
4000
8000
8000
BGP сессий
Виртуальная абонентская инфраструктура vCPE
Управление
 Упрощение домашней
пользовательской
инфраструктуры
Шлюз
 Расширение L2 домена до
операторского дата центра
 Сервисы на базе
инфраструктуры дата центра:
NAT, FW, NAS, Автоматизация
домашней сети, …
 Управление виртуальными
машинами
 Управление сервисами
Сервисы в
дата центре
FW
Wireless AP
Облачный дата центр
L2 домен
Internet
Виртуальный IOS XR маршрутизатор
или
Cisco IOS XRv
IOS XR 5.1.1
Виртуализация IOS XR = IOS XRv
 IOS XR поддерживается в x86 виртуальной
среде
 Тоже самое программное обеспечение IOS XR,
что работает на CRS и ASR9K маршрутизаторах,
характеризующееся масштабируемой
плоскостью управления и поддержкой:




Микроядерной ОС
Модульного ПО
Возможностью рестарта процессов
Активации PIE и SMU патчей без перезагрузки VM
 Аналогичный «железным» реализациям IOS XR
набор функционала в области сигнальных
протоколов, например, протоколов
маршрутизации
Full Standard
IOS XR
PI Binaries
Виртуальная
машина
Гипервизор
Стратегия виртуализации SP маршрутизатора
Три категории приложений для виртуализации
• Виртуализация Control Plane (виртуальный BGP Route Reflector)
• Полностью виртуализированный маршрутизатор (virtual Control + Data plane)
• Разделение Control Plane и Data Plane
Полностью
виртуальный
маршрутизатор
Виртуальный Route
Reflector
CP:DP разделение
IOS XRv
IOS XRv
IOS XRv
IOS XRv
IOS XRv
Dataplane
Control (DPC)
IOS XRv
Virtual
DP
Virtual
DP
Virtual
DP
Virtual
DP
Физический Dataplane
DPA
Виртуальн
ый XR
DPA
Dataplane
Физический оптимизированный по
стоимости Dataplane
DPA
Virtual
XR DP
IOS XRv
Server / Hypervisor
r
Server Blade (Hypervisor)
Доступно к заказу
Фокус этой презентации
Аппаратная передача данных и
виртуальная плоскость управления
Стратегия Cisco: Разработать универсальную архитектуру физического, виртуального или гибридного
маршрутизатора. IOS-XRv взят за основу в роли плоскости управления для всех приложений
Разделение Control и Data Plane
Подход к линейному масштабированию
Текущий режим работы
Router/LC
Router/LC
Control-Plane
RP
LL
LL
…
LL
LC
Routers/Compute
Control-Plane
RP
CC
Data-Plane
Data-Plane
Data-Plane
Целевая архитектура
LL
LC
CC
Data-Plane
Data-Plane
Data-Plane
1 x CPU : N x LCs
CC L
Data-Plane
Data-Plane
C
Data-Plane
CC
Data-Plane
Data-Plane
Data-Plane
Compute
x86
x86
servers
x86
servers
x86
servers
x86
servers
servers
Control-Plane
M x CPU : N x NPU
• Линейное масштабирование Data Plane за счет NPU
• Масштабирование Control Plane за счет x86 CPU
Дальнейшее развитие Cisco IOS XR (кодовое имя “Spirit”)
Распределенная архитектура

Масштабируемость, изоляция отказов, расширение
за счет подключаемы модулей
XR Образ v1
XR Образ v2
Поддержка многоядерных 64-ех битных CPU,
включая SMP, а также Open Source приложений
Виртуализация

ISSU, разделение Control и Admin плоскостей,
упрощение SDR архитектуры
ISSU и архитектура высокой доступности

Локализация и устранение отказов с минимальными
потерями работоспособности
Доступно с IOS XR 5.0 на NCS6K

Distributed Infra
Distributed Infra
Kernel
(Linux,
Kernel
(Linux,
64bit)
Kernel (Linux,
64bit)
64bit)
Поддержка Zero Packet Loss (ZPL) и Zero Topology
Loss (ZTL)
Управление отказами

BGP
OSPF
PIM
ACL
QoS
LPTS
SNMP
XML
NetFlow

BGP
Hosted Apps
OSPF
PIM
ACL
QoS
LPTS
SNMP
XML
NetFlow
Современная OS инфраструктура
Планируется к внедрению – NCS4K, ASR9K
Уровень виртуализации
System
Admin
Kernel
(Linux, 64bit)
Стандартный интерфейс между плоскостями
управления и передачи данных
•
•
•
Новая архитектура IOS XR раздельных Control и Data Plane
Эволюция Spirit/XR 64-bit Linux операционной системы, то
что мы называем виртуальным XR следующего поколения
XRv разделяет CP-DP путем создания DPC-DPA уровней
 DPC = Data Plane Controller, расположен на RP
 DPA = Data Plane Agent, расположен на линейной карте
XRv
DPC
DPA
Dataplane
Многообразие систем при переходе к раздельным
плоскостям передачи данных и управления
Автоматизация и управление сервисами
SDN API – NetConf / YANG, и т.д.
IOS XRv
Dataplane
Control (DPC)
CP - DP API
Физический Dataplane
DPA
Виртуальный XR
Dataplane
Аппаратный оптимизированный по стоимости
Dataplane
DPA
DPA
Virtual
XR DP
Логические маршрутизаторы на базе x86
инфраструктуры
Массив х86 вычислительных
ресурсов
Data Plane
Virtual
Forwarder
Data Plane
Virtual
Forwarder
IOS
IOSXRv
XRv
Control
ControlPlane
Plane
Router 1
L3 VPN
IOS XRv
DPC
Data Plane
Virtual
Forwarder
IOS
IOSXRv
XRv
Control
ControlPlane
Plane
Router 2
L2 VPN
DPA
Data Plane
Virtual
Forwarder
Data Plane
Virtual
Forwarder
IOS
IOSXRv
XRv
Control
ControlPlane
Plane
Virtual
Forwarder
Router 3
Internet
Currently not scheduled for delivery.
Логические маршрутизаторы и физические шасси
линейных карт
Физические шасси
Массив x86
ресурсов (RP)
Линейная карта | LC
Линейная карта | LC
IOS
IOSXRv
XRv
Control
ControlPlane
Plane
Router 1
L3 VPN
DPC
DPC
Линейная карта | LC
Линейная карта | LC
Линейная карта | LC
IOS
IOSXRv
XRv
Control
ControlPlane
Plane
Router 2
Internet
DPA
DPA
Линейная карта | LC
Линейная карта | LC
Линейная карта | LC
IOS XRv
IOS
IOSXRv
XRv
Control
ControlPlane
Plane
Router 3
L2 VPN
Physical
Выделенная
Dataplane
LC
Slice
Currently not scheduled for delivery.
Позиционирование виртуального IOS XR
маршрутизатора
32768
8192
2048
Gbps
512
ASR 9912
ASR 9010
128
ASR 9904
32
IOS XR VR
8
2
Virtual
XR DP
ASR 9001
ASR 9006
ASR 9922
Архитектура XR виртуального маршрутизатора
Виртуальная машина
LINUX
LXC
Admin
LXC
XR
CP
XR комбинированная RP+LC
функциональность



Data Plane
Controller

LXC
Плоскость передачи данных
Virtual Forwarder (VF)
DPA
UVF DP
GigE 0/0/2
GigE 0/0/1
TenGigE 0/0/0
MgmtEth 0/0/1
vswitch HV
Основывается на Virtualized IOS-XR
(Spirit)
Маршрутизатор внутри
виртуальной машины
CP, DP & Admin модули внутри Linux
Containers (LXC)
LXC = Shared Kernel, отдельные
kernel namespace (process/network)
Что ожидают от IOS XRv маршрутизатора?
Сформулированные требования:
 20Gbps производительность для
IMIX трафика с включенными
сервисами (на одном сокете)




т.е. 2x10GE порта
PCIe pass-through
Гибкая балансировка нагрузки по
нескольким ядрам CPU
Высокопроизводительный QOS
планировщик (TM)

3-ех уровневый H-QOS
Поддержка Fast Re-Route (LFA,
FRR)
 Портируемый 64 битный C-код,
поддержка в будущем ARM
платформ
 Общая кодовая база с Cisco
nPower X чипами

Виртуальный XRv
маршрутизатор
IOS XRv
Иерархический QOS
планировщик
• 20Gbps+ на одном ядре
• 64k абонентов
• ½ миллиона очередей
• 5000 policy-map
64 бит
операционная
система
Universal Virtual Forwarder
Interface
classification
& FIB lookup
Forwarding &
Features
Traffic
Manager
Масштабируемый IPv4 и IPv6 FIB
Набор сервисов
• ACLs
• uRPF
• Marking, Policing
• IPv4, IPv6, MPLS
• Segment routing
• BFD
Коммутация данных на виртуальном IOS XR
DPA

Обрабатывает управляющие сообщения
от/к DPC

Обрабатывает punt / inject пакеты сетевых
протоколов

DPA
Выполняет сбор статистики и ее агрегацию
UVF микрокод

DPC
Control
Message
s
Dataplane
L2 классификация, Коммутация, QoS
Высокопроизводительная классификация и
группировка сетевых пакетов в один пакет
для обработки; балансировка
Высокопроизводительные драйверы для
передачи информации между виртуальной
машиной и аппаратным обеспечением
Punt/Inje
ct
UVF ucode
VPP
DPDK
DPDK

Stats
Platform/ NPU
Layer
VPP

SPP
Сетевые
интерфейсы
VPP Nodes
VPP nodes
Device
Drivers
Memory
Management
Виртуализация сетевых приложений
ASAv и vSCE
Доступно начиная:
5.0.0 (Июль 2014)
Виртуальный DPI (vSCE)
5G
10G*
8x1G
2x10G
225,000
450,000
Число ядер CPU #
10
16
TPS (Login/ Logout)
300
500
Интерфейсы
Максимально абонентов
VLinks
2048
2048
# Производительность при
использовании Intel сетевой карты
с DPDK и CPU скоростью 2.9 Ghz
* Предположительно будет
доступно Q2 2015
Рейт L4 потоков
195,000
flows/sec
390,000
flows/sec
vSCE – пример HW конфигурации для 5G
• Количество ядер: 10 @ 2.9 Ghz
• Оперативная память: 32 GB
• Сетевая карта: 8x1G
Пример UCS конфигурации (UCS C220)
UCSC-C220-M3L=
UCS C220 M3 LFF w/o CPU, mem, HDD, PCIe, PSU, rail kit
1 Unit
UCS-CPU-E5-2667=
2.90 GHz E5-2667/130W 6C/15MB Cache/DDR3
1600MHz/NoHeatSink
2 Units
UCSC-PCIE-IRJ45=
Intel Quad GbE adapter
2 Units
UCS-MR-1X162RY-A=
16GB DDR3-1866-MHz RDIMM/PC3-14900/dual rank/x4/1.5v 2 Units
UCSC-PSU-450W=
450W power supply for C-series rack servers
1 Unit
Обзор ASAv
 Полноценный ASA межсетевой экран в виртуальной форме




Поддержка нескольких vCPUs (до 4-ех) и vNICs (до 10-ти) с VLAN тэгами (до
200-т)
Виртуализация делает ненужным поддержку Multiple-context режима
Только Active/Standby failover резервирование; в будущем кластеризация
Etherchannel интерфейс должен быть сконфигурирован на NIC карте сервера
 Расширение использование ASA экранов




ASA 1000v на границе виртуального дата центра
Защита физических и VM коммуникаций на любых типах интерфейсов
Routed и Transparent режимы работы
Планируется поддержка VxLAN коммутации
 Рекомендация по использованию с ESXi vSwitch и Nexus 1000v, в тоже
время поддерживается работа и с KVM гипервизором (ASA 9.3.1)
Поддержка с
ASA 9.2(1)
GA 9.3.2
ASAv Производительность и масштабируемость
Метрика
ASAv10
ASAv30
Stateful Inspection Throughput (Maximum)
1 Gbps
2 Gbps
500 Mbps
1 Gbps
Concurrent Sessions
100,000
500,000
Connections Per Second
20,000
60,000
VLANS
50
200
Cisco® Cloud Web Security Users
150
500
125 Mbps
300 Mbps
250
750
250
750
250
1000
Stateful Inspection Throughput (Multi-Protocol)
3DES / AES VPN Throughput
S2S IPSec IKEv1 Client VPN User Sessions
AnyConnect®
Cisco
Sessions
UC Phone Proxy
or Clientless User
Протестировано
 UCS C260 M2
 UCS B200 M3
 Processor E5-2640
Необходимо GHz:
 5GHz для ASAv10 @1Gbps
 13GHz для ASAv30 @2Gbps
(включая ESX нагрузку)
Лимиты по ресурсам:
 5 GHz on ASAv10
 20 GHz on ASAv30
(ASAv перезагружается при
нарушении)
«Виртуальная песочница»
Cisco Modeling Labs
Август 2014
Cisco Modeling Labs – виртуальная лаборатория
Многоцелевая расширяемая
тестовая зона:
 Точная модель существующих сетей
 Использование реальных компонент
(сетевых операционных систем) для
прототипирования конфигураций
 Поддержка до сотен устройств в сети
 Возможность интеграции виртуальных
и физических устройств в одну
тестовую сеть
Виртуальные операционные системы для Cisco
Modeling Labs
Идет в комплекте с Cisco
Modeling Labs
Отдельные лицензии для
Cisco Modeling Labs
IOS
В виртуальном
формате IOSv
48
IOS XR
IOS XE
В виртуальном
формате
IOS XRv
В виртуальном
формате
CSR1000v
Cisco Modeling Labs Комплект поставки
Поддержка дополнительных
сетевых операционных
систем в формате
OVA/VMDK файлов
49
Cisco Modeling Lab Принцип работы
Конфигурация
устройства
1
4
CML Интерфейс
«Срезы» топологии
3
Виртуальные машины/
Коммутаторы
2
8
Схема топологии
5
9
A1-Console:
A1-Aux: 17001
…
Пакет данных – топология
и конфигурации
17000
6
Транслятор
команд
7
Ждем ваших сообщений с хештегом
#CiscoConnectRu
Спасибо за внимание!
Пожалуйста, используйте код для
оценки доклада
1557
Ваше мнение очень важно для нас
CiscoRu
25.11.2014
Cisco
© 2014 Cisco and/or its affiliates. All rights reserved.
CiscoRussia
1/--страниц
Пожаловаться на содержимое документа