当前位置: 首页 > 文档资料 > SDN 网络指南 >

OVN - OVN实践

优质
小牛编辑
124浏览
2023-12-01

OVN Logical Flow

OVN逻辑流表会由ovn-northd分发给每台机器的ovn-controller,然后ovn-controller再把它们转换为物理流表。

更多参考

  • https://blog.russellbryant.net/2016/11/11/ovn-logical-flows-and-ovn-trace/
  • https://blog.russellbryant.net/2015/10/22/openstack-security-groups-using-ovn-acls/

OVN安全组

使用OVN只需要把VM的tap直接连接到br-int(而不是现在需要多加一层Linux Bridge),并使用OVS conntrack根据连接状态进行匹配,提高了流表的查找速度,同时也支持有状态防火墙和NAT。

  1. # allow all ip traffic from port "ls1-vm1" on switch "ls1" and allowing related connections back in
  2. ovn-nbctl acl-add ls1 from-lport 1000 "inport == "ls1-vm1" && ip" allow-related
  3. # allow ssh to ls1-vm1
  4. ovn-nbctl acl-add ls1 to-lport 999 "outport == "ls1-vm1" && tcp.dst == 22" allow-related
  5. # block all IPv4/IPv6 traffic to ls1-vm1
  6. ovn-nbctl acl-add ls1 to-lport 998 "outport == "ls1-vm1" && ip" drop
  7. # using address sets
  8. ovn-nbctl create Address_Set name=wwwServers addresses=172.16.1.2,172.16.1.3
  9. ovn-nbctl create Address_Set name=www6Servers addresses="fd00::1","fd00::2"
  10. ovn-nbctl create Address_Set name=macs addresses="02:00:00:00:00:01","02:00:00:00:00:02"
  11. ovn-nbctl create Address_Set name=dmz addresses="172.16.255.130/31"
  12. # allow from dmz on 3306
  13. ovn-nbctl acl-add inside to-lport 1000 'outport == "inside-vm3" && ip4.src == $dmz && tcp.dst == 3306' allow-related
  14. # clean up
  15. ovn-nbctl acl-del dmz
  16. ovn-nbctl acl-del inside
  17. ovn-nbctl destroy Address_Set dmz

更多参考https://blog.russellbryant.net/2015/10/22/openstack-security-groups-using-ovn-acls/。

OVN L2

OVN L2功能包括

  • L2 switch
  • L2 ACL
  • Supports software-based L2 gateways
  • Supports TOR (Top of Rack) based L2 gateways that implement the hardware_vtep schema
  • Can provide networking for both VMs and containers running inside of those VMs, without a second layer of overlay networking
  1. # Create the first logical switch and its two ports.
  2. ovn-nbctl ls-add sw0
  3. ovn-nbctl lsp-add sw0 sw0-port1
  4. ovn-nbctl lsp-set-addresses sw0-port1 "00:00:00:00:00:01 10.0.0.51"
  5. ovn-nbctl lsp-set-port-security sw0-port1 "00:00:00:00:00:01 10.0.0.51"
  6. ovn-nbctl lsp-add sw0 sw0-port2
  7. ovn-nbctl lsp-set-addresses sw0-port2 "00:00:00:00:00:02 10.0.0.52"
  8. ovn-nbctl lsp-set-port-security sw0-port2 "00:00:00:00:00:02 10.0.0.52"
  9. # Create the second logical switch and its two ports.
  10. ovn-nbctl ls-add sw1
  11. ovn-nbctl lsp-add sw1 sw1-port1
  12. ovn-nbctl lsp-set-addresses sw1-port1 "00:00:00:00:00:03 192.168.1.51"
  13. ovn-nbctl lsp-set-port-security sw1-port1 "00:00:00:00:00:03 192.168.1.51"
  14. ovn-nbctl lsp-add sw1 sw1-port2
  15. ovn-nbctl lsp-set-addresses sw1-port2 "00:00:00:00:00:04 192.168.1.52"
  16. ovn-nbctl lsp-set-port-security sw1-port2 "00:00:00:00:00:04 192.168.1.52"
  17. # Create a logical router between sw0 and sw1.
  18. ovn-nbctl create Logical_Router name=lr0
  19. ovn-nbctl lrp-add lr0 lrp0 00:00:00:00:ff:01 10.0.0.1/24
  20. ovn-nbctl lsp-add sw0 sw0-lrp0
  21. -- set Logical_Switch_Port sw0-lrp0 type=router
  22. options:router-port=lrp0 addresses='"00:00:00:00:ff:01"'
  23. ovn-nbctl lrp-add lr0 lrp1 00:00:00:00:ff:02 192.168.1.1/24
  24. ovn-nbctl lsp-add sw1 sw1-lrp1
  25. -- set Logical_Switch_Port sw1-lrp1 type=router
  26. options:router-port=lrp1 addresses='"00:00:00:00:ff:02"'
  27. # Create ovs port
  28. # Create ports on the local OVS bridge, br-int. When ovn-controller
  29. # sees these ports show up with an "iface-id" that matches the OVN
  30. # logical port names, it associates these local ports with the OVN
  31. # logical ports. ovn-controller will then set up the flows necessary
  32. # for these ports to be able to communicate each other as defined by
  33. # the OVN logical topology.
  34. ovs-vsctl add-port br-int lport1 -- set interface lport1 type=internal
  35. -- set Interface lport1 external_ids:iface-id=sw0-port1
  36. ovs-vsctl add-port br-int lport2 -- set interface lport2 type=internal
  37. -- set Interface lport2 external_ids:iface-id=sw0-port2

更多参考http://galsagie.github.io/2015/05/30/ovn-deep-dive/。

OVN L3

OVN L3的功能包括

  • IPv4/IPv6分布式L3路由
  • ARP and IPv6 Neighbor Discovery suppression for known IP-MAC bindings
  • L3 ACL
  • Native support for NAT and load balancing using OVS connection tracking
  • Native fully distributed support for DHCP
  • Supports L3 gateways from logical to physical networks
  1. # SNAT
  2. # create snat rule which will nat to the edge1-outside interface
  3. ovn-nbctl -- --id=@nat create nat type="snat" logical_ip=172.16.255.128/25
  4. external_ip=10.127.0.129 -- add logical_router edge1 nat @nat

更多参考http://galsagie.github.io/2015/11/23/ovn-l3-deepdive/和http://networkop.co.uk/blog/2016/12/10/ovn-part2/。

OVN VTEP

OVN 可以通过 VTEP 网关把物理网络和逻辑网络连接起来。VTEP 网关可以是 TOR(Top of Rack)switch,目前很多硬件厂商都支持,比如 Arista,Juniper,HP 等等;也可以是软件做的逻辑 switch,OVS 社区就做了一个简单的VTEP 模拟器。

VTEP网关需要遵守 VTEP OVSDB schema,它里面定义了 VTEP 网关需要支持的数据表项和内容,VTEP 通过 OVSDB 协议与 OVN 通信,通信的流程 OVN 也有相关标准,VTEP 上需要一个 ovn-controller-vtep 来做 ovn-controller 所做的事情。VTEP 网关和 HV 之间常用 VXLAN 封装技术。

虽然 VTEP OVSDB schema 里面定义了三层的表项,但是目前没有硬件厂商支持,VTEP 模拟器也不支持,所以 VTEP 网络只支持二层的功能,也就是说只能连接物理网络的 VLAN 到逻辑网络的 VXLAN,如果 VTEP 上不同 VLAN 之间要做路由,需要 OVN 里面的路由器来做。

OVN Chassis

Chassis 是 OVN 新增的概念,OVS 里面没有这个概念,Chassis 可以是 HV,也可以是 VTEP 网关。
Chassis 的信息保存在 Southbound DB 里面,由 ovn-controller/ovn-controller-vtep 来维护。

以 ovn-controller 为例,当 ovn-controller 启动的时候,它去本地的数据库 Open_vSwitch 表里面读取external_ids:system_id,external_ids:ovn-remote,external_ids:ovn-encap-ip 和external_ids:ovn-encap-type的值,然后它把这些值写到 Southbound DB 里面的表 Chassis 和表 Encap 里面:

  • external_ids:system_id表示 Chassis 名字
  • external_ids:ovn-remote表示 Sounthbound DB 的 IP 地址
  • external_ids:ovn-encap-ip表示 tunnel endpoint IP 地址,可以是 HV 的某个接口的 IP 地址
  • external_ids:ovn-encap-type表示 tunnel 封装类型,可以是 VXLAN/Geneve/STT

external_ids:ovn-encap-ip和external_ids:ovn-encap-type是一对,每个 tunnel IP 地址对应一个 tunnel 封装类型,如果 HV 有多个接口可以建立 tunnel,可以在 ovn-controller 启动之前,把每对值填在 table Open_vSwitch 里面。

OVN tunnel

OVN 支持的 tunnel 类型有三种,分别是 Geneve,STT 和 VXLAN。HV 与 HV 之间的流量,只能用 Geneve 和 STT 两种,HV 和 VTEP 网关之间的流量除了用 Geneve 和 STT 外,还能用 VXLAN,这是为了兼容硬件 VTEP网关,因为大部分硬件 VTEP 网关只支持 VXLAN。

虽然 VXLAN 是数据中心常用的 tunnel 技术,但是 VXLAN header 是固定的,只能传递一个 VNID(VXLAN network identifier),如果想在 tunnel 里面传递更多的信息,VXLAN 实现不了。所以 OVN 选择了Geneve 和 STT,Geneve 的头部有个 option 字段,支持 TLV 格式,用户可以根据自己的需要进行扩展,而 STT的头部可以传递 64-bit 的数据,比 VXLAN 的 24-bit 大很多。

OVN tunnel 封装时使用了三种数据,

  • Logical datapath identifier(逻辑的数据通道标识符):datapath 是 OVS 里面的概念,报文需要送到 datapath 进行处理,一个 datapath 对应一个 OVN 里面的逻辑交换机或者逻辑路由器,类似于 tunnel ID。这个标识符有 24-bit,由 ovn-northd 分配的,全局唯一,保存在 Southbound DB 里面的表 Datapath_Binding 的列tunnel_key 里。
  • Logical input port identifier(逻辑的入端口标识符):进入 logical datapath 的端口标识符,15-bit 长,由 ovn-northd 分配的,在每个 datapath 里面唯一。它可用范围是 1-32767,0 预留给内部使用。保存在 Southbound DB 里面的表 Port_Binding 的列 tunnel_key 里。
  • Logical output port identifier(逻辑的出端口标识符):出 logical datapath 的端口标识符,16-bit 长,范围 0-32767 和 logical input port identifier 含义一样,范围 32768-65535 给组播组使用。对于每个 logical port,input port identifier 和 output port identifier 相同。

如果 tunnel 类型是 Geneve,Geneve header 里面的 VNI 字段填 logical datapath
identifier,Option 字段填 logical input port identifier 和 logical output
port identifier,TLV 的 class 为 0xffff,type 为 0,value 为 1-bit 0 +
15-bit logical input port identifier + 16-bit logical output port
identifier。

如果 tunnel 类型是 STT,上面三个值填在 Context ID 字段,格式为 9-bit 0 + 15-bit logical
input port identifier + 16-bit logical output port identifier +
24-bit logical datapath identifier。

OVS 的 tunnel 封装是由 Openflow 流表来做的,所以 ovn-controller 需要把这三个标识符写到本地 HV 的Openflow flow table 里面,对于每个进入 br-int 的报文,都会有这三个属性,logical datapathidentifier 和 logical input port identifier 在入口方向被赋值,分别存在 openflow
metadata 字段和 Nicira 扩展寄存器 reg6 里面。报文经过 OVS 的 pipeline
处理后,如果需要从指定端口发出去,只需要把 Logical output port identifier 写在 Nicira 扩展寄存器reg7 里面。

OVN tunnel 里面所携带的 logical input port identifier 和 logical output port identifier 可以提高流表的查找效率,OVS 流表可以通过这两个值来处理报文,不需要解析报文的字段。

OVN 里面的 tunnel 类型是由 HV 上面的 ovn-controller 来设置的,并不是由 CMS 指定的,并且 OVN 里面的 tunnel ID 又由 OVN 自己分配的,所以用 neutron 创建 network 时指定 tunnel 类型和 tunnel ID(比如 vnid)是无用的,OVN 不做处理。

OVN Northbound DB

Northbound DB 是 OVN 和 CMS 之间的接口,Northbound DB 里面的几乎所有的内容都是由 CMS
产生的,ovn-northd 监听这个数据库的内容变化,然后翻译,保存到 Southbound DB 里面。

Northbound DB 里面主要有如下几张表:

  • Logical_Switch:每一行代表一个逻辑交换机,逻辑交换机有两种,一种是 overlay logical switches,对应于 neutron network,每创建一个 neutron network,networking-ovn 会在这张表里增加一行;另一种是 bridged logical switch,连接物理网络和逻辑网络,被 VTEP gateway 使用。Logical_Switch 里面保存了它包含的 logical port(指向 Logical_Port table)和应用在它上面的 ACL(指向 ACL table)。
  • Logical_Port:每一行代表一个逻辑端口,每创建一个 neutron port,networking-ovn 会在这张表里增加一行,每行保存的信息有端口的类型,比如 patch port,localnet port,端口的 IP 和 MAC 地址,端口的状态 UP/Down。
  • ACL:每一行代表一个应用到逻辑交换机上的 ACL 规则,如果逻辑交换机上面的所有端口都没有配置 security group,那么这个逻辑交换机上不应用 ACL。每条 ACL 规则包含匹配的内容,方向,还有动作。
  • Logical_Router:每一行代表一个逻辑路由器,每创建一个 neutron router,networking-ovn 会在这张表里增加一行,每行保存了它包含的逻辑的路由器端口。
  • Logical_Router_Port:每一行代表一个逻辑路由器端口,每创建一个 router interface,networking-ovn 会在这张表里加一行,它主要保存了路由器端口的 IP 和 MAC。

OVN Southbound DB

Southbound DB 里面有如下几张表:

  • Chassis:每一行表示一个 HV 或者 VTEP 网关,由 ovn-controller/ovn-controller-vtep 填写,包含 chassis 的名字和 chassis 支持的封装的配置(指向表 Encap),如果 chassis 是 VTEP 网关,VTEP 网关上和 OVN 关联的逻辑交换机也保存在这张表里。
  • Encap:保存着 tunnel 的类型和 tunnel endpoint IP 地址。
  • Logical_Flow:每一行表示一个逻辑的流表,这张表是 ovn-northd 根据 Nourthbound DB 里面二三层拓扑信息和 ACL 信息转换而来的,ovn-controller 把这个表里面的流表转换成 OVS 流表,配到 HV 上的 OVS table。流表主要包含匹配的规则,匹配的方向,优先级,table ID 和执行的动作。
  • Multicast_Group:每一行代表一个组播组,组播报文和广播报文的转发由这张表决定,它保存了组播组所属的 datapath,组播组包含的端口,还有代表 logical egress port 的 tunnel_key。
  • Datapath_Binding:每一行代表一个 datapath 和物理网络的绑定关系,每个 logical switch 和 logical router 对应一行。它主要保存了 OVN 给 datapath 分配的代表 logical datapath identifier 的 tunnel_key。
  • Port_Binding:这张表主要用来确定 logical port 处在哪个 chassis 上面。每一行包含的内容主要有 logical port 的 MAC 和 IP 地址,端口类型,端口属于哪个 datapath binding,代表 logical input/output port identifier 的 tunnel_key, 以及端口处在哪个 chassis。端口所处的 chassis 由 ovn-controller/ovn-controller 设置,其余的值由 ovn-northd 设置。

表 Chassis 和表 Encap 包含的是物理网络的数据,表 Logical_Flow 和表 Multicast_Group包含的是逻辑网络的数据,表 Datapath_Binding 和表 Port_Binding 包含的是逻辑网络和物理网络绑定关系的数据。

OVN DB汇总

  1. ovn-nbctl list Logical_Switch
  2. ovn-nbctl list Logical_Switch_Port
  3. ovn-nbctl list ACL
  4. ovn-nbctl list Address_Set
  5. ovn-nbctl list Logical_Router
  6. ovn-nbctl list Logical_Router_Port
  7. ovn-sbctl list Chassis
  8. ovn-sbctl list Encap
  9. ovn-nbctl list Address_Set
  10. ovn-sbctl lflow-list
  11. ovn-sbctl list Multicast_Group
  12. ovn-sbctl list Datapath_Binding
  13. ovn-sbctl list Port_Binding
  14. ovn-sbctl list MAC_Binding

OVN Load Balancer

OVN Load Balancer提供了一种基于hash的负载均衡机制,可以用在逻辑switch或者逻辑router上:

  • 用在logical router上
    • 只能用在gateway router上
    • 集中式(而不是分布式的)
  • 用在logical switch上
    • 分布式的
    • 由于OVN Load Balancer仅处理ingress,所以要把它用在client logical switch (而不是server logical switch)
  1. uuid=`ovn-nbctl create load_balancer vips:10.127.0.254="172.16.255.130,172.16.255.131"`
  2. # apply to logical router
  3. ovn-nbctl set logical_router edge1 load_balancer=$uuid
  4. # clean up
  5. ovn-nbctl clear logical_router edge1 load_balancer
  6. ovn-nbctl destroy load_balancer $uuid
  1. uuid=`ovn-nbctl create load_balancer vips:172.16.255.62="172.16.255.130,172.16.255.131"`
  2. # apply to logical switch
  3. ovn-nbctl set logical_switch inside load_balancer=$uuid
  4. # clean up
  5. ovn-nbctl clear logical_switch inside load_balancer
  6. ovn-nbctl destroy load_balancer $uuid

DHCP

  1. ovn-nbctl ls-add dmz
  2. # add the router
  3. ovn-nbctl lr-add tenant1
  4. # create router port for the connection to dmz
  5. ovn-nbctl lrp-add tenant1 tenant1-dmz 02:ac:10:ff:01:29 172.16.255.129/26
  6. ovn-nbctl lsp-add dmz dmz-vm1
  7. ovn-nbctl lsp-set-addresses dmz-vm1 "02:ac:10:ff:01:30 172.16.255.130"
  8. ovn-nbctl lsp-set-port-security dmz-vm1 "02:ac:10:ff:01:30 172.16.255.130"
  9. dmzDhcp="$(ovn-nbctl create DHCP_Options cidr=172.16.255.128/26
  10. options=""server_id"="172.16.255.129" "server_mac"="02:ac:10:ff:01:29"
  11. "lease_time"="3600" "router"="172.16.255.129"")"
  12. echo $dmzDhcp
  13. ovn-nbctl lsp-set-dhcpv4-options dmz-vm1 $dmzDhcp
  14. ovn-nbctl lsp-get-dhcpv4-options dmz-vm1
  15. ip netns add vm1
  16. ovs-vsctl add-port br-int vm1 -- set interface vm1 type=internal
  17. ip link set vm1 address 02:ac:10:ff:01:30
  18. ip link set vm1 netns vm1
  19. ovs-vsctl set Interface vm1 external_ids:iface-id=dmz-vm1
  20. ip netns exec vm1 dhclient vm1
  21. ip netns exec vm1 ip addr show vm1
  22. ip netns exec vm1 ip route show

OVN Trace

ovn-trace是很好的辅助工具.

  1. $ sudo ovn-trace --minimal sw0 'inport == "sw0-port1" && eth.src == 00:00:00:00:00:01 && eth.dst == 00:00:00:00:00:02'
  2. # reg14=0x1,vlan_tci=0x0000,dl_src=00:00:00:00:00:01,dl_dst=00:00:00:00:00:02,dl_type=0x0000
  3. output("sw0-port2");
  4. $ ovn-trace --summary sw0 'inport == "sw0-port1" && eth.src == 00:00:00:00:00:01 && eth.dst == 00:00:00:00:00:02'
  5. # reg14=0x1,vlan_tci=0x0000,dl_src=00:00:00:00:00:01,dl_dst=00:00:00:00:00:02,dl_type=0x0000
  6. ingress(dp="sw0", inport="sw0-port1") {
  7. next;
  8. outport = "sw0-port2";
  9. output;
  10. egress(dp="sw0", inport="sw0-port1", outport="sw0-port2") {
  11. output;
  12. /* output to "sw0-port2", type "" */;
  13. };
  14. };
  15. $ ovn-trace --detailed sw0 'inport == "sw0-port1" && eth.src == 00:00:00:00:00:01 && eth.dst == 00:00:00:00:00:02'
  16. # reg14=0x1,vlan_tci=0x0000,dl_src=00:00:00:00:00:01,dl_dst=00:00:00:00:00:02,dl_type=0x0000
  17. ingress(dp="sw0", inport="sw0-port1")
  18. -------------------------------------
  19. 0. ls_in_port_sec_l2 (ovn-northd.c:2979): inport == "sw0-port1" && eth.src == {00:00:00:00:00:01}, priority 50, uuid 50dd1db0
  20. next;
  21. 13. ls_in_l2_lkup (ovn-northd.c:3274): eth.dst == 00:00:00:00:00:02, priority 50, uuid faab2844
  22. outport = "sw0-port2";
  23. output;
  24. egress(dp="sw0", inport="sw0-port1", outport="sw0-port2")
  25. ---------------------------------------------------------
  26. 8. ls_out_port_sec_l2 (ovn-northd.c:3399): outport == "sw0-port2" && eth.dst == {00:00:00:00:00:02}, priority 50, uuid 4b4d798e
  27. output;
  28. /* output to "sw0-port2", type "" */
  29. $ ovn-trace --detailed sw0 'inport == "sw0-port1" && eth.src == 00:00:00:00:00:ff && eth.dst == 00:00:00:00:00:02'
  30. # reg14=0x1,vlan_tci=0x0000,dl_src=00:00:00:00:00:ff,dl_dst=00:00:00:00:00:02,dl_type=0x0000
  31. ingress(dp="sw0", inport="sw0-port1")
  32. -------------------------------------
  33. 0. ls_in_port_sec_l2: no match (implicit drop)

更多OVN的使用方法可以参考这里。