cisco数据中心理论小记-3

2020-01-09 12:39:35 浏览数 (1)

=====port channel============= STP-防环,非根非指定口block. PCH-带宽利用率提升,逻辑上单链路 l2/l3都可以使用

passive -LACP /active-Lacp/ on-Static

无协议-on 有协商-LACP

neuxs 不支持PACP

vPC---纯二层 技术,没有三层功能

vitrual Port channel

解决的是跨框 ,目前只支持仅2台,逻辑上2台变逻辑一台,结合生成一个虚拟nexus 交换机 VPC: 最后的效果就是无环,链路全部打开. domain id,peers{一个设备只能create一个domain,两台设备的domain id要一样} PKL: peer keep live,UDP3200,不建议背对背--->check alive PL:peer link ,万兆10G以太网链路背对背 ,就是port channel--->transfer data,用来传流量.一般是用来传控制流量. A<--->B 间传CFS PORTS:member port :交换机上双上行口 , orphan (孤立口)port :交换机单上行口

VPC控制面:

CFS oe (over ethert):传了一堆控制面的信息 roles: 一台是 primary  另外一台是sencondary VPC没有抢占机制.

VPC数据面:

限制条件:所有流量经过PL就不回从member口出去.

出流量就近处理。

peer gateway-默认打开的---for external traffic VPC member port down产生后果:无附加后果 PKL Down: 各做各的事情 PL Down (PKL fine): seconday member ports suspend PKL Down and PL down===>双活/脑裂 各做个 补救:auto recovery ============Febric path==========

解决东西流量16-ways扩展,理解为16个上游,由于VPC只能支持2个设备,FP就诞生了,基于会话MAC地址学习. 大二层解决方案/SPINE-LEAF--FP,一旦spine多了,不同的LEAF就可以相互通信,从而实现了大二层. .受VXLAN打击现在用的少.

配置非常简单:开启feature,打开端口,划好vlan.

相同技术:Trill FP-----EVE--大多都是自动配置的 FP 端口角色:

core ports:仅收发fp帧,没有mac address table. edge ports:可发传统帧,基于MAC地址学习

core ports<--->fp<----->edge ports --->CE [classic ethernet]

core & edge 成对出现,形成邻居 ,全网跑isis,不用配,全网传递信息.

控制面: L2 ISIS 自己形成switch id ---IF 的对应表 unified port: 统一端口用来传ethernet OR FC,一个瞬间只能传ethernet or FC unified fabric:统一架构 支持 FCOE,基于以太网的类型来区分到底是over ethernet还是纯ethernet?!

FCOE 拓扑:

CNA<vN port>===<vF port>N5K

CNA <vN port>====<vF port>Nexus 2K Fex (fabric exterder)====Fabric link====Nexus 5000

FCOE and vPC:Fcoe的流量只能走单边

======SDN & CLOUD==================================== SDN/Rest API clinet ----> http --->server / provider ---> server server ----> http ---->json/xml ----> clinet SDN自动化控制器 NB 北向标准----- human----标准rest API

SB  南向标准----- device ----标准netconf<内容层,操作层,消息层,加密通信层-ssh/tcp>

netconf比较

云计算: 自服务化 可扩展化 资源池化(虚拟化) 可以随时访问 IAAS: infrastruture  as a service---open stack用来管理IAAS PAAS: platform as a service---platform for develop SAAS: software as a service--desktop application

UCSd : UCS director 相当于云管理平台

ACI/SDN: controller, APIC-DC,维护方式:GUI

北方向--REST API--SDN/Ph

南方向--opflex---N9K,APIC 控制 N9K角色,下发policy

===============CCIE process============= N7K 启动过程: kenerl: boot flash: ****kickstart.bin no mantennace mode (boot)load bootflash:***.bin 二层协议: STP : Rapid PVST / PVRST /MST Toolkit:

-----单向链路问题-----

loop gurad:配置在端口,避免进入foward状态,只对单一设备生效。不常用 。

BA:Bridge assurance.一种类似 loop guard的 功能 . BA bridge assurance:需要链路两段都配,所有端口 状态都可以 配 ,确保链路不会进去 环路 状态 上面 两种 技术都要 依赖 BPDU. UDLD:不依赖BPDU.一层检查设备连接 =====vPC======

show vpc role

show vpc status

interface edage )# vpc memeber 100 双下联:member port 单下联: oraphe port

vPC种类 : standard vpc enhance vpc vpc over fp=== VPC plus vpc over vxlan vpc over aci

VPC guidelines: 1-switch type 平台一样 2-link speed: 10Gbp 3-vpc keep live (三层可达,不建议 背对背) udp 3200 port 4-vpc peer link:万兆卡 5-number of VPC peers:2 6-number of VPC domain PER switch:1 7-routing 《vpc peer-gateway》

VPC最佳 用在接入层

1-create domain

2-configure PKL

3-configure PL ,建议背对背

4-create vpc

5-peer gateway {optional}

6-一致性检查

vPC 故障分析

1-memeber port down----no effect,memeber port change to orphan port.

2-PKL down only---- no role change.双方都认为对方不在online, 然后各做各的事情 forwarding

3-only PL Down ------ 双方信息不能同步 ,但直到对方在,secondary memeber ports suspended.

4-PKL down then PL down-----双方彻底失联。导致的结果是双活OR脑裂。各做各,中间有不确定路径.双方role都变为 primary. 链路恢复,定义角色恢复

5-PL DOWN then PKL down--------可以配置auto-recovery , 可以让secondary memeber port 激活,工作 ,最后的结果是 双活 OR 脑裂 .

vPC over FCOE 只能走单边。

vPC over ACI ,no need PL/pkl, 同步信息都是通过 controller(ZMQ信息instead of CFS)

====FEX===== Fex:就是远程板卡 Fex and vn tag,极度依赖parent HIF,LIF,VIF (according to VNTAG forwarding)

deployment type:static pinning,dynamic pinning (default), active-active,ehanced vPC.

======Fabric Path=====: MAC IN MAC 构造

=====FHRP=====(第一跳冗余协议)

HSRP/VRRP/GLBP

=======OTV========

Overlay transport vituralisation,不用MPLS L2×××,不用拉物理线路的前提下一种廉价技术方案. 不同数据中心二层访问解决方案。

OTV完成了:

1-mac路由 ,实现多个数据中心二层互通 《mac in ip》===>不是大二层技术,实现特定 vlan通信,而是DCI[跨数据中心]技术 ,跨数据中心mac互通,让两个站点间vlan互通。

mac routing-- conftrol plane:isis

2-dynamic encap of l2 in l3,动态封装

3-Arp cache ,支持组播 etc...

OTV构成components:

edge devices:N7k support only OTV (边缘设备,一般是旁挂方式)

边界设备有三种接口:

1-internal interfacs: 二层流量,二层口,纯MAC with vlan id 2-join interface:can support组播流量 <三层口> 3-overlay interface:本地给包做封装,本地环回口

PS:两边DC的SUBNET必须一致,VLANID最好保持一致

OTV Control plane: is-is 可以单播也可以组播 建立邻居关系

单播的话就需要制定一个单播服务器,把边界设备注册到单播服务器上

最后的结果形成vlan-mac-IF 这样对应表,进行mac routing.

show otv adjacency

show otv route //不是三层route

data plane: over gre (mpls 头), 老版本,效率低 

                  over udp (vxlan头), 新版本,效率高,需要手动制定

otv encapsulation-format ip gre | udp

otv 不传bpdu,未知单播流,避免环路和广播风暴

如果一个site有两个otv uplink,需要配site vlan,做统一站点识别

DC1:

feature otv

 interface overlay1

otv join-inter

otv exend-vlan 100,200

otv site-vlan 300 \不传流量

otv site-id 0x1  \dc site id

adj xxxx

DC2:

feature otv

 interface overlay1

otv join-inter

otv exend-vlan 100,200

otv site-vlan 300 \不传流量,可以根dc1一样,也可以不一样

otv site-id 0x2  \dc site id,必须跟DC1不一样

adj xxxx

OTV VLAN MApping 200 to 400 \转vlan, 两dc转后的vlan必须一致.

=========

云系统 架构

=========

hardware infras:底层资源

domain abstraction:资源池化

system abstraction:云 管理 平台 -open stack

0 人点赞