MPLS support + loop_vm_arp test fix
[nfvbench.git] / nfvbench / cfg.default.yaml
1 #
2 # NFVbench default configuration file
3 #
4 # This configuration file is ALWAYS loaded by NFVbench and should never be modified by users.
5 # To specify your own property values, always define them in a separate config file
6 # and pass that file to the script using -c or --config <file>
7 # Property values in that config file will override the default values in the current file
8 #
9 ---
10 # IMPORTANT CUSTOMIZATION NOTES
11 # There are roughly 2 types of NFVbench config based on the OpenStack encaps used:
12 # - VLAN (OVS, OVS-DPDK, ML2/VPP)
13 # Many of the fields to customize are relevant to only 1 of the 2 encaps
14 # These will be clearly labeled "VxLAN only" or "VLAN only"
15 # Fields that are not applicable will not be used by NFVbench and can be left empty
16 #
17 # All fields are applicable to all encaps/traffic generators unless explicitly marked otherwise.
18 # Fields that can be over-ridden at the command line are marked with the corresponding
19 # option, e.g. "--interval"
20
21
22 # The OpenStack openrc file to use - must be a valid full pathname. If running
23 # in a container, this path must be valid in the container.
24 #
25 # The only case where this field can be empty is when measuring a system that does not run
26 # OpenStack or when OpenStack APIs are not accessible or OpenStack APis use is not
27 # desirable. In that case the EXT service chain must be used.
28 #
29 # If openrc is not admin some parameters are mandatory and must be filled with valid values in config file such as :
30 # - availability_zone
31 # - hypervisor_hostname
32 # - vlans
33 openrc_file:
34
35 # Forwarder to use in nfvbenchvm image. Available options: ['vpp', 'testpmd']
36 vm_forwarder: testpmd
37
38 # By default (empty) NFVbench will try to locate a VM image file
39 # from the package root directory named "nfvbench-<version>.qcow2" and
40 # upload that file. The image name will be "nfvbench-<version>"
41 # This can be overridden by specifying here a pathname of a file
42 # that follows the same naming convention.
43 # In most cases, this field should be left empty as the packaging should
44 # include the proper VM image file
45 vm_image_file:
46
47 # Name of the flavor to use for the loopback VMs
48 #
49 # If the provided name is an exact match to a flavor name known by OpenStack
50 # (as shown from 'nova flavor-list'), that flavor will be reused.
51 # Otherwise, a new flavor will be created with attributes listed below.
52 flavor_type: 'nfvbench.medium'
53
54 # Custom flavor attributes for the test VM
55 flavor:
56   # Number of vCPUs for the flavor, must be at least 2!
57   vcpus: 2
58   # Memory for the flavor in MB
59   ram: 4096
60   # Size of local disk in GB
61   disk: 0
62   # metadata are supported and can be added if needed, optional
63   # note that if your openstack does not have NUMA optimization
64   # (cpu pinning and huge pages)
65   # you must comment out extra_specs completely otherwise
66   # loopback VM creation will fail
67   extra_specs:
68       "hw:cpu_policy": dedicated
69       "hw:mem_page_size": large
70
71 # Enable multiqueue for all test VM interfaces (PVP and PVVP only).
72 # When enabled, the test VM image will get added the property to enable
73 # multiqueue (hw_vif_multiqueue_enabled='true').
74 # The number of queues per interace will be set to the number of vCPUs configured for
75 # the VM.
76 # By default there is only 1 queue per interface
77 # The max allowed queue per interface is 8.
78 # The valid range for this parameter is [1..min(8, vcpu_count)]
79 # When multiqueue is used the recommended setting is to set it to same value as the
80 # number of vCPU used - up to a max of 8 queues.
81 # Setting to a lower value than vCPU should also work. For example if using 4 vCPU and
82 # vif_multiqueue_size is set to 2, openstack will create 4 queues per interface but the
83 # test VM will only use the first 2 queues.
84 vif_multiqueue_size: 1
85
86 # Increase number of buffers allocated for VPP VM forwarder. May be needed in scenarios with large
87 # number of interfaces and worker threads, or a lot of physical interfaces with multiple RSS queues.
88 # Value is per CPU socket. Default is 16384.
89 num_mbufs: 16384
90
91 # Name of the availability zone to use for the test VMs
92 # Must be one of the zones listed by 'nova availability-zone-list'
93 # availability_zone: 'nova'
94 # If openrc is not admin set a valid value
95 availability_zone:
96 # To force placement on a given hypervisor, set the name here
97 # (if multiple names are provided, the first will be used)
98 # Leave empty to let openstack pick the hypervisor
99 compute_nodes:
100 # If openrc is not admin set a valid value for hypervisor hostname
101 # Example of value: hypervisor_hostname: "server1"
102 hypervisor_hostname:
103
104 # Type of service chain to run, possible options are PVP, PVVP and EXT
105 # PVP - port to VM to port
106 # PVVP - port to VM to VM to port
107 # EXT - external chain used only for running traffic and checking traffic generator counters,
108 #       all other parts of chain must be configured manually
109 # Can be overriden by --service-chain
110 service_chain: 'PVP'
111
112 # Total number of service chains, every chain has own traffic stream
113 # Can be overriden by --service-chain-count
114 service_chain_count: 1
115
116 # Specifies if all chains share the same right/left/middle networks
117 service_chain_shared_net: false
118
119 # Total number of traffic flows for all chains and directions generated by the traffic generator.
120 # Minimum is '2 * service_chain_count', it is automatically adjusted if too small
121 # value was configured. Must be even.
122 # Every flow has packets with different IPs in headers
123 # Can be overriden by --flow-count
124 flow_count: 10000
125
126 # set to true if service chains should use SRIOV
127 # This requires SRIOV to be available on compute nodes
128 sriov: false
129
130 # Perform port to port loopback (direct or through switch)
131 # Should be used with EXT service chain and no ARP (no_arp: true)
132 # When enabled, the vlans property must contain the same VLAN id for all chains.
133 # Can be overriden by --l2-loopback
134 l2_loopback: false
135
136 # Resources created by NFVbench will not be removed
137 # Can be overriden by --no-cleanup
138 no_cleanup: false
139
140 # Configuration for traffic generator
141 traffic_generator:
142     # Name of the traffic generator, only for informational purposes
143     host_name: 'nfvbench_tg'
144     # this is the default traffic generator profile to use
145     # the name must be defined under generator_profile
146     # you can override the traffic generator to use using the
147     # -g or --traffic-gen option at the command line
148     default_profile: trex-local
149
150     # IP addresses for L3 traffic.
151     # This section describes the addresses to use to fill in the UDP packets sent by the
152     # traffic generator. If you VNFs are L2 forwarders, these fields below do not need to change.
153     # If your VNFs are L3 routers, the fields below must match the static routes in your VNFs
154     # so that UDP packets can be routed back to the peer port of the traffic generator.
155
156     # All of the IPs are used as base for IP sequence computed based on chain or flow count.
157     # (sim-devices-left)---(tg-gateway-left)---(vnf-left)- ...
158     #                                      -(vnf-right)---(tg-gateway-right)---(sim-devices-right)
159     #
160     # `ip_addrs` base IPs used as src and dst in packet header, quantity depends on flow count
161     #            these are used for addressing virtual devices simulated by the traffic generator
162     #            and be a different subnet than tg_gateway_ip_addrs and gateway_ip_addrs
163     # `ip_addrs_step`: step for generating IP sequence. Use "random" for random patterns, default is 0.0.0.1.
164     ip_addrs: ['10.0.0.0/8', '20.0.0.0/8']
165     ip_addrs_step: 0.0.0.1
166     # `tg_gateway_ip_addrs` base IP for traffic generator ports in the left and right networks to the VNFs
167     #                       chain count consecutive IP addresses spaced by tg_gateway_ip_addrs_step will be used
168     # `tg_gateway_ip_addrs__step`: step for generating traffic generator gateway sequences. default is 0.0.0.1
169     tg_gateway_ip_addrs: ['1.1.0.100', '2.2.0.100']
170     tg_gateway_ip_cidrs: ['1.1.0.0/24','2.2.0.0/24']
171     tg_gateway_ip_addrs_step: 0.0.0.1
172     # `gateway_ip_addrs`: base IPs of VNF router gateways (left and right), quantity used depends on chain count
173     #                     must correspond to the public IP on the left and right networks
174     #                     for each left-most and right-most VNF of every chain.
175     #                     must be the same subnet but not same IP as tg_gateway_ip_addrs.
176     #                     chain count consecutive IP addresses spaced by gateway_ip_addrs_step will be used
177     # `gateway_ip_addrs_step`: step for generating router gateway sequences. default is 0.0.0.1
178     gateway_ip_addrs: ['1.1.0.2', '2.2.0.2']
179     gateway_ip_addrs_step: 0.0.0.1
180     # `udp_src_port`: the source port for sending UDP traffic, default is picked by TRex (53)
181     # `udp_dst_port`: the destination port for sending UDP traffic, default is picked by TRex (53)
182     udp_src_port:
183     udp_dst_port:
184
185     # VxLAN only: optionally specify what VLAN tag to use for the VxLAN overlay
186     # This is used if the vxlan tunnels are running on a specific VLAN.
187     # Leave empty if there is no VLAN tagging required, or specify the VLAN id to use
188     # for all VxLAN tunneled traffic
189     vtep_vlan:
190     # VxLAN and MPLS only: local/source vteps IP addresses for port 0 and 1 ['10.1.1.230', '10.1.1.231']
191     src_vteps:
192     # VxLAN only: remote IP address of the remote VTEPs that terminate all tunnels originating from local VTEPs
193     dst_vtep:
194     # The encapsulated L3/MPLS packet needs to traverse L3 or MPLS fabric to reach to its final dst_vtep.
195     # This parameter is required to resolve first next-hop MAC address if it next-hop is not its final dst_vtep.
196     # This parameter is mandatory for MPLS only
197     vtep_gateway_ips:
198     # L2 ADDRESSING OF UDP PACKETS
199     # Lists of dest MAC addresses to use on each traffic generator port (one dest MAC per chain)
200     # Leave empty for PVP, PVVP, EXT with ARP
201     # Only used when `service_chain` is EXT and `no_arp` is true.
202     #   - If both lists are empty the far end MAC of the traffic generator will be used for left and right
203     #     (this is typicaly used to loop back on the first hop switch or using a loopback cable)
204     #   - The length of each list must match the number of chains being used!
205     #   - The index of each list must correspond to the chain index to ensure proper pairing.
206     #   - Below is an example of using two chains:
207     #     - mac_addrs_left: ['00:00:00:00:01:00', '00:00:00:00:02:00']
208     #     - mac_addrs_right: ['00:00:00:00:01:01', '00:00:00:00:02:01']
209     #     UDP packets sent on port 0 will use dest MAC '00:00:00:00:01:00' for chain #0 and
210     #                                         dest MAC '00:00:00:00:02:00' for chain #1
211     #     UDP packets sent on port 1 will use dest MAC '00:00:00:00:01:01' for chain #0 and
212     #                                         dest MAC '00:00:00:00:02:01' for chain #1
213     #     It is expected that the looping device (L2 forwarder) will rewrite the src and dst MAC
214     #     of the looping UDP packet so that it can reach back to the peer port of the traffic
215     #     generator.
216     #
217     mac_addrs_left:
218     mac_addrs_right:
219
220     # Traffic Generator Profiles
221     # In case you have multiple testbeds or traffic generators,
222     # you can define one traffic generator profile per testbed/traffic generator.
223     # In most cases you only need to fill in the pci address for the 2 ports used by the
224     # traffic generator and leave all other fields unchanged
225     #
226     # Generator profiles are listed in the following format:
227     # `name`: Traffic generator profile name (use a unique name, no space or special character)
228     #         Do not change this field
229     # `tool`: Traffic generator tool to be used (currently supported is `TRex`).
230     #         Do not change this field
231     # `ip`: IP address of the traffic generator.
232     #       The default loopback address is used when the traffic generator runs on the same host
233     #       as NFVbench.
234     # `cores`: Specify the number of cores for running the TRex traffic generator.
235     #          ONLY applies to trex-local.
236     # `software_mode`: Advice TRex to use software mode which provides the best compability. But
237     #                  note that TRex will not use any hardware acceleration technology under
238     #                  software mode, therefore the performance of TRex will be significantly
239     #                  lower. ONLY applies to trex-local.
240     #                  Recommended to leave the default value (false)
241     # `limit_memory`: Specify the memory reserved for running the TRex traffic generator (in MB). Limit the amount
242     #                 of packet memory used. (Passed to dpdk as -m arg)
243     #          ONLY applies to trex-local.
244     # `zmq_pub_port`: Specify the ZMQ pub port number for the TRex traffic generator instance (default value is 4500).
245     #          ONLY applies to trex-local.
246     # `zmq_rpc_port`: Specify the ZMQ rpc port for the TRex traffic generator instance (default value is 4501).
247     #          ONLY applies to trex-local.
248     # `interfaces`: Configuration of traffic generator interfaces.
249     # `interfaces.port`: The port of the traffic generator to be used (leave as 0 and 1 resp.)
250     # `interfaces.switch_port`: Leave empty (deprecated)
251     # `interfaces.pci`: The PCI address of the intel NIC interface associated to this port
252     #                   This field is required and cannot be empty
253     #                   Use lspci to list the PCI address of all devices
254     #                   Example of value: "0000:5e:00.0"
255     # `intf_speed`: The speed of the interfaces used by the traffic generator (per direction).
256     #               Empty value (default) to use the speed discovered by the traffic generator.
257     #               Recommended to leave this field empty.
258     #               Do not use unless you want to override the speed discovered by the
259     #               traffic generator. Expected format: 10Gbps
260     #
261     # `platform`: Optional. Used to tune the performance and allocate the cores to the right NUMA.
262     #             See https://trex-tgn.cisco.com/trex/doc/trex_manual.html (6.2.3. Platform section configuration)
263     #             for more details
264     # `platform.master_thread_id`: Hardware thread_id for control thread. (Valid value is mandatory if platform property is set)
265     # `platform.latency_thread_id`: Hardware thread_id for RX thread. (Valid value is mandatory if platform property is set)
266     # `platform.dual_if`: Section defines info for interface pairs (according to the order in “interfaces” list). (Valid value is mandatory if platform property is set)
267     #                     Each section, starting with “- socket” defines info for different interface pair. (Valid value is mandatory if platform property is set)
268     # `platform.dual_if.socket`: The NUMA node from which memory will be allocated for use by the interface pair. (Valid value is mandatory if platform property is set)
269     # `platform.dual_if.threads`: Hardware threads to be used for sending packets for the interface pair. (Valid value is mandatory if platform property is set)
270     #                     Threads are pinned to cores, so specifying threads actually determines the hardware cores.
271     # Example of values:
272     # platform:
273     #   master_thread_id: 0
274     #   latency_thread_id: 2
275     #   dual_if:
276     #     - socket: 0
277     #       threads: [1]
278     #
279     generator_profile:
280         - name: trex-local
281           tool: TRex
282           ip: 127.0.0.1
283           cores: 4
284           software_mode: false
285           limit_memory: 1024
286           zmq_pub_port: 4500
287           zmq_rpc_port: 4501
288           interfaces:
289             - port: 0
290               pci:
291               switch_port:
292             - port: 1
293               pci:
294               switch_port:
295           intf_speed:
296           platform:
297             master_thread_id:
298             latency_thread_id:
299             dual_if:
300               - socket:
301                 threads:
302
303 # Use 'true' to force restart of local TRex server before next run
304 # TRex local server will be restarted even if restart property is false in case of generator config changes between runs
305 restart: false
306
307 # Simpler override for trex core count and mbuf multilier factor
308 # if empty defaults to the one specified in generator_profile.cores
309 cores:
310
311 # Add cache size in packet generation for TRex field engine (FE).
312 # More information for TRex performance:
313 # https://trex-tgn.cisco.com/trex/doc/trex_stateless.html#_tutorial_field_engine_significantly_improve_performance
314 # If cache_size = 0 (or empty): no cache will be used by TRex (default)
315 # If cache_size < 0: cache_size will be set to flow count value
316 cache_size: 0
317 # The cache size is actually limited by the number of 64B mbufs configured in the trex platform configuration (see Trex manual 6.2.2. Memory section configuration)
318 # Trex will use 1 x 64B mbuf per pre-built cached packet, assuming 1 pre-built cached packet per flow, it means for very large number of flows, the number of configured mbuf_64 will need to be set accordingly.
319 mbuf_64:
320
321 # mbuffer ratio to use for TRex (see TRex documentation for more details)
322 mbuf_factor: 0.2
323
324 # A switch to disable hdrh
325 # hdrh is enabled by default and requires TRex v2.58 or higher
326 disable_hdrh: false
327
328 # -----------------------------------------------------------------------------
329 # These variables are not likely to be changed
330
331 # Number of seconds to wait for VMs to pass traffic in both directions
332 check_traffic_time_sec: 200
333
334 # General retry count
335 generic_retry_count: 100
336
337 # General poll period
338 generic_poll_sec: 2
339
340 # name of the loop VM
341 loop_vm_name: 'nfvbench-loop-vm'
342
343 # Default names, subnets and CIDRs for PVP/PVVP networks (openstack only)
344 #
345 # If a network with given name already exists it will be reused.
346 # - PVP only uses left and right
347 # - PVVP uses left, middle and right
348 # - for EXT chains, this structure is not relevant - refer to external_networks
349 # Otherwise a new internal network will be created with that name, subnet and CIDR.
350 #
351 # network_type must be 'vlan' (for VLAN and SRIOV) or 'vxlan' (for VxLAN)
352 #              all 3 networks must use the same network type in this release
353 # segmentation_id can be set to enforce a specific segmentation id (vlan ID or VNI if vxlan)
354 #                 by default (empty) the segmentation id will be assigned by Neutron.
355 #                 If specified, it must be unique for each network
356 #                 For multi-chaining, see notes below
357 # physical_network can be set to pick a specific phsyical network - by default (empty) the
358 #                   default physical network will be picked
359 # SR-IOV: both physical_network and VLAN segmentation ID must be provided
360 # VxLAN: the VNI must generally be provided (except special Neutron VxLAN implementations)
361 #
362 # For example to setup 1xPVP using 2 different SR-IOV ports, you must put the appropriate physnet
363 # names under left.physical_network and right.physical_network.
364 # For multi-chaining and non shared networks,
365 # Example of override configuration to force PVP to run on 2 SRIOV ports (phys_sriov0 and phys_sriov1)
366 # using VLAN ID 2000 and 2001:
367 # internal_networks:
368 #    left:
369 #        segmentation_id: 2000
370 #        physical_network: phys_sriov0
371 #    right:
372 #        segmentation_id: 2001
373 #        physical_network: phys_sriov1
374 #
375 # For multi-chaining and non shared network mode (VLAN, SRIOV, VxLAN, MPLS):
376 # - the segmentation_id field if provided must be a list of values (as many as chains)
377 # - segmentation_id auto-indexing:
378 #   the segmentation_id field can also be a single value that represents the base value from which
379 #   values for each chain is derived using the chain ID as an offset. For example
380 #   if 2000 is specified, NFVbench will use 2000 for chain 0, 2001 for chain 1 etc...
381 #   The ranges of all the networks must not overlap.
382 # - the physical_network can be a single name (all VFs to be allocated on same physnet)
383 #   of a list of physnet names to use different PFs
384 #
385 #   Example of 2-chain VLAN configuration:
386 #   internal_networks:
387 #      left:
388 #          segmentation_id: [2000, 2001]
389 #          physical_network: phys_sriov0
390 #      right:
391 #          segmentation_id: [2010, 2011]
392 #          physical_network: phys_sriov1
393 #   Equivalent to (using auto-indexing):
394 #   internal_networks:
395 #      left:
396 #          segmentation_id: 2000
397 #          physical_network: phys_sriov0
398 #      right:
399 #          segmentation_id: 2010
400 #          physical_network: phys_sriov1
401 #
402 # - mpls_transport_labels is used only when MPLS encapsulation is enabled (mpls: true)
403 #   this parameter doesn't support auto-indexing because this is not a typical scenario
404 #   expected the list of values in a range 256-1048575, one value per chain is expected
405 #
406 #   In the bellow configuration example 'segmentation_id; contains the inner MPLS label for each chain
407 #   and 'mpls_transport_labels' contains the outer transport MPLS label for each chain
408 #   Example of 2-chain MPLS configuration:
409 #   internal_networks:
410 #      left:
411 #          network_type: mpls
412 #          segmentation_id: [2000, 2001]
413 #          mpls_transport_labels: [10000, 10000]
414 #          physical_network: phys_sriov0
415 #      right:
416 #          network_type: mpls
417 #          segmentation_id: [2010, 2011]
418 #          mpls_transport_labels: [11000, 11000]
419 #          physical_network: phys_sriov1
420
421
422 internal_networks:
423     left:
424         name: 'nfvbench-lnet'
425         subnet: 'nfvbench-lsubnet'
426         cidr: '192.168.1.0/24'
427         network_type: 'vlan'
428         segmentation_id:
429         physical_network:
430         mpls_transport_labels:
431     right:
432         name: 'nfvbench-rnet'
433         subnet: 'nfvbench-rsubnet'
434         cidr: '192.168.2.0/24'
435         network_type: 'vlan'
436         segmentation_id:
437         physical_network:
438         mpls_transport_labels:
439     middle:
440         name: 'nfvbench-mnet'
441         subnet: 'nfvbench-msubnet'
442         cidr: '192.168.3.0/24'
443         network_type: 'vlan'
444         segmentation_id:
445         physical_network:
446         mpls_transport_labels:
447
448 # IDLE INTERFACES: PVP, PVVP and non shared net only.
449 # By default each test VM will have 2 virtual interfaces for looping traffic.
450 # If service_chain_shared_net is false, additional virtual interfaces can be
451 # added at VM creation time, these interfaces will not carry any traffic and
452 # can be used to test the impact of idle interfaces in the overall performance.
453 # All these idle interfaces will use normal ports (not direct).
454 # Number of idle interfaces per VM (none by default)
455 idle_interfaces_per_vm: 0
456
457 # A new network is created for each idle interface.
458 # If service_chain_shared_net is true, the options below will be ignored
459 # and no idle interfaces will be added.
460 idle_networks:
461     # Prefix for all idle networks, the final name will append the chain ID and idle index
462     # e.g. "nfvbench-idle-net.0.4" chain 0 idle index 4
463     name: 'nfvbench-idle-net'
464     # Subnet name to use for all idle subnetworks
465     subnet: 'nfvbench-idle-subnet'
466     # CIDR to use for all idle networks (value should not matter)
467     cidr: '192.169.1.0/24'
468     # Type of network associated to the idle virtual interfaces (vlan or vxlan)
469     network_type: 'vlan'
470     # segmentation ID to use for the network attached to the idle virtual interfaces
471     # vlan: leave empty to let neutron pick the segmentation ID
472     # vxlan: must specify the starting VNI value to be used (cannot be empty)
473     # Note that NFVbench will use as many consecutive segmentation IDs as needed.
474     # For example, for 4 PVP chains and 8 idle
475     # interfaces per VM, NFVbench will use 32 consecutive values of segmentation ID
476     # starting from the value provided.
477     segmentation_id:
478     # physnet name to use for all idle interfaces
479     physical_network:
480
481 # MANAGEMENT INTERFACE
482 # By default each test VM will have 2 virtual interfaces for looping traffic.
483 # If use_management_port is true, additional virtual interface can be
484 # added at VM creation time, this interface will be used for VM management over SSH.
485 # This will be helpful for debug (forwarder config, capture traffic...)
486 # or to emulate VNF with management interface
487 use_management_port: false
488
489 # If a network with given name already exists it will be reused.
490 # Otherwise a new network is created for management interface.
491 # If use_management_port is false, the options below will be ignored
492 # and no management interface will be added.
493 management_network:
494     name: 'nfvbench-management-net'
495     # Subnet name to use for management subnetwork
496     subnet: 'nfvbench-management-subnet'
497     # CIDR to use for management network
498     cidr: '192.168.0.0/24'
499     gateway: '192.168.0.254'
500     # Type of network associated to the management virtual interface (vlan or vxlan)
501     network_type: 'vlan'
502     # segmentation ID to use for the network attached to the management virtual interface
503     # vlan: leave empty to let neutron pick the segmentation ID
504     # vxlan: must specify the starting VNI value to be used (cannot be empty)
505     segmentation_id:
506     # physnet name to use for all idle interfaces
507     physical_network:
508
509 # Floating IP for management interface
510 # If use_floating_ip is true, floating IP will be set on management interface port
511 # One floating IP by loop VM will be used (floating ips are often limited,
512 # use them on limited context mainly for debug). If there are 10 PVP chains, this will require 10
513 # floating IPs. If 10 PVVP chains, it will require 20 floating IPs
514 use_floating_ip: false
515
516 # If a network with given name already exists it will be reused.
517 # Set same name as management_network if you want to use a floating IP from this network
518 # Otherwise set name, subnet and CIDR information from your floating IP pool network
519 # Floating network used to set floating IP on management port.
520 # Only 1 floating network will be used for all VMs and chains (shared network).
521 # If use_floating_ip is false, the options below will be ignored
522 # and no floating IP will be added.
523 floating_network:
524     name: 'nfvbench-floating-net'
525     # Subnet name to use for floating subnetwork
526     subnet: 'nfvbench-floating-subnet'
527     # CIDR to use for floating network
528     cidr: '192.168.0.0/24'
529     # Type of network associated to the management virtual interface (vlan or vxlan)
530     network_type: 'vlan'
531     # segmentation ID to use for the network attached to the management virtual interface
532     # vlan: leave empty to let neutron pick the segmentation ID
533     # vxlan: must specify the starting VNI value to be used (cannot be empty)
534     segmentation_id:
535     # physnet name to use for all idle interfaces
536     physical_network:
537
538 # In the scenario of PVVP + SRIOV, there is choice of how the traffic will be
539 # handled in the middle network. The default (false) will use vswitch, while
540 # SRIOV can be used by toggling below setting.
541 use_sriov_middle_net: false
542
543 # EXT chain only. Prefix names of edge networks or list of edge network names
544 # used to send traffic via traffic generator.
545 #
546 # If service_chain_shared_net is true, the left and right networks must pre-exist and match exactly by name.
547 #
548 # If service_chain_shared_net is false, each chain must have its own pre-existing left and right networks.
549 # left and right can take either a string prefix or a list of arbitrary network names
550 # If a string prefix is passed, an index will be appended to each network name to form the final name.
551 # Example:
552 # external_networks:
553 #    left:  'ext-lnet'
554 #    right: 'ext-rnet'
555 # ext-lnet0 ext-rnet0 for chain #0
556 # ext-lnet1 ext-rnet1 for chain #1
557 # etc...
558 # If a list of strings is passed, each string in the list must be the name of the network used for the
559 # chain indexed by the entry position in the list.
560 # The list must have at least as many entries as there are chains
561 # Example:
562 # external_networks:
563 #   left:  ['ext-lnet', 'ext-lnet2']
564 #   right: ['ext-rnet', 'ext-rnet2']
565 #
566 external_networks:
567     left:
568     right:
569
570 # PVP with L3 router in the packet path only.
571 # Only use when l3_router option is True (see l3_router)
572 # Prefix names of edge networks which will be used to send traffic via traffic generator.
573 # If a network with given name already exists it will be reused.
574 # Otherwise a new edge network will be created with that name, subnet and CIDR.
575 #
576 # gateway can be set in case of L3 traffic with edge networks - refer to edge_networks
577 #
578 # segmentation_id can be set to enforce a specific VLAN id - by default (empty) the VLAN id
579 #                 will be assigned by Neutron.
580 #                 Must be unique for each network
581 # physical_network can be set to pick a specific phsyical network - by default (empty) the
582 #                   default physical network will be picked
583 #
584 edge_networks:
585     left:
586         name: 'nfvbench-net2'
587         router_name: 'router_left'
588         subnet: 'nfvbench-subnet2'
589         cidr: '192.168.3.0/24'
590         gateway:
591         network_type:
592         segmentation_id:
593         physical_network:
594     right:
595         name: 'nfvbench-net3'
596         router_name: 'router_right'
597         subnet: 'nfvbench-subnet3'
598         cidr: '192.168.4.0/24'
599         gateway:
600         network_type:
601         segmentation_id:
602         physical_network:
603
604 # Use 'true' to enable VXLAN encapsulation support and sent by the traffic generator
605 # When this option enabled internal networks 'network type' parameter value should be 'vxlan'
606 # VxLAN and MPLS encapsulations are mutual exclusive if 'vxlan' is true then 'mpls' should be false
607 # and vise versa
608 vxlan: false
609 # Use 'true' to enable MPLS encapsulation support and sent by the traffic generator
610 # When this option enabled internal networks 'network type' parameter value should be 'mpls'
611 # MPLS and VxLAN encapsulations are mutual exclusive if 'mpls' is 'true' then 'vxlan' should be set to 'false'
612 # and vise versa. no_flow_stats, no_latency_stats, no_latency_streams should be set to 'true' because these
613 # features are not supported at the moment. In future when these features will be supported they will require
614 # special NIC hardware. Only 2 label stack supported at the moment where one label is transport and another
615 # is VPN for more details please refer to 'mpls_transport_labels' and 'segmentation_id' in networks configuration
616 mpls: false
617 # Use 'true' to enable VLAN tagging of packets generated and sent by the traffic generator
618 # Leave empty or set to false if you do not want the traffic generator to insert the VLAN tag (this is
619 # needed for example if VLAN tagging is enabled on switch (access mode) or if you want to hook
620 # directly to a NIC).
621 # By default is set to true (which is the nominal use case with TOR and trunk mode to Trex ports)
622 # If VxLAN or MPLS are enabled, this option should be set to false (vlan tagging for encapsulated packets
623 # is not supported). Use the vtep_vlan option to enable vlan tagging for the VxLAN overlay network.
624 vlan_tagging: true
625
626 # Used only in the case of EXT chain and no openstack or not admin access to specify the VLAN IDs to use.
627 # This property is ignored when OpenStakc is used or in the case of l2-loopback.
628 # If OpenStack is used leave the list empty, VLAN IDs are retrieved from OpenStack networks using Neutron API.
629 # If networks are shared across all chains (service_chain_shared_net=true), the list should have exactly 2 values
630 # If networks are not shared across chains (service_chain_shared_net=false), the list should have
631 # 2 list of vlan IDs
632 # In the special case of l2-loopback the list should have the same VLAN id for all chains
633 # Examples:
634 #   [1998, 1999] left network uses vlan 1998 right network uses vlan 1999
635 #   [[1,2],[3,4]] chain 0 left vlan 1, right vlan 2 - chain 1 left vlan 3 right vlan 4
636 #   [1010, 1010] same VLAN id with l2-loopback enabled
637 #
638 vlans: []
639
640 # ARP is used to discover the MAC address of VNFs that run L3 routing.
641 # Used only with EXT chain.
642 # False (default): ARP requests are sent to find out dest MAC addresses.
643 # True: do not send ARP but use provisioned dest macs instead
644 #       (see mac_addrs_left and mac_addrs_right)
645 no_arp: false
646
647 # Loop VM (VPP forwarder) can use ARP to discover next hop mac address
648 # False (default): do not send ARP but use static config devices macs instead (TRex gratuitous ARP are not interpreted by VPP)
649 # True: ARP requests are sent to find out next hop MAC addresses (for instance SDN-GW)
650 loop_vm_arp: false
651
652 # Traffic Profiles
653 # You can add here more profiles as needed
654 # `l2frame_size` can be specified in any none zero integer value to represent the size in bytes
655 # of the L2 frame, or "IMIX" to represent the standard 3-packet size mixed sequence (IMIX1).
656 traffic_profile:
657     - name: traffic_profile_64B
658       l2frame_size: ['64']
659     - name: traffic_profile_IMIX
660       l2frame_size: ['IMIX']
661     - name: traffic_profile_1518B
662       l2frame_size: ['1518']
663     - name: traffic_profile_3sizes
664       l2frame_size: ['64', 'IMIX', '1518']
665
666 # Traffic Configuration
667 # bidirectional: to have traffic generated from both direction, set bidirectional to true
668 # profile: must be one of the profiles defined in traffic_profile
669 # The traffic profile can be overriden with the options --frame-size and --uni-dir
670 traffic:
671     bidirectional: true
672     profile: traffic_profile_64B
673
674 # Check config and connectivity only - do not generate traffic
675 # Can be overriden by --no-traffic
676 no_traffic: false
677
678 # Use an L3 router in the packet path. This option if set will create or reuse an openstack neutron
679 # router (PVP, PVVP) or reuse an existing L3 router (EXT) to route traffic to the destination VM.
680 # Can be overriden by --l3-router
681 l3_router: false
682
683 # Test configuration
684
685 # The rate pps for traffic going in reverse direction in case of unidirectional flow. Default to 1.
686 unidir_reverse_traffic_pps: 1
687
688 # The rate specifies if NFVbench should determine the NDR/PDR
689 #  or if NFVbench should just generate traffic at a given fixed rate
690 # for a given duration (called "single run" mode)
691 # Supported rate format:
692 # NDR/PDR test: `ndr`, `pdr`, `ndr_pdr` (default)
693 # Or for single run mode:
694 # Packet per second: pps (e.g. `50pps`)
695 # Bits per second: bps, kbps, Mbps, etc (e.g. `1Gbps`, `1000bps`)
696 # Load percentage: % (e.g. `50%`)
697 # Can be overridden by --rate
698 rate: ndr_pdr
699
700 # Default run duration (single run at given rate only)
701 # Can be overridden by --duration
702 duration_sec: 60
703
704 # Interval between intermediate reports when interval reporting is enabled
705 # Can be overridden by --interval
706 interval_sec: 10
707
708 # Default pause between iterations of a binary search (NDR/PDR)
709 pause_sec: 2
710
711 # NDR / PDR configuration
712 measurement:
713     # Drop rates represent the ratio of dropped packet to the total number of packets sent.
714     # Values provided here are percentages. A value of 0.01 means that at most 0.01% of all
715     # packets sent are dropped (or 1 packet every 10,000 packets sent)
716
717     # No Drop Rate in percentage; Default to 0.001%
718     NDR: 0.001
719     # Partial Drop Rate in percentage; NDR should always be less than PDR
720     PDR: 0.1
721     # The accuracy of NDR and PDR as a percnetage of line rate; The exact NDR
722     # or PDR should be within `load_epsilon` line rate % from the one calculated.
723     # For example, with a value 0.1, and a line rate of 10Gbps, the accuracy
724     # of NDR and PDR will be within 0.1% Of 10Gbps or 10Mbps.
725     # The lower the value the more iterations and the longer it will take to find the NDR/PDR.
726     # In practice, due to the precision of the traffic generator it is not recommended to
727     # set it to lower than 0.1
728     load_epsilon: 0.1
729
730 # Location where to store results in a JSON format. Must be container specific path.
731 # Can be overriden by --json
732 json:
733
734 # Location where to store results in the NFVbench standard JSON format:
735 # <service-chain-type>-<service-chain-count>-<flow-count>-<packet-sizes>.json
736 # Example: PVP-1-10-64-IMIX.json
737 # Must be container specific path.
738 # Can be overriden by --std-json
739 std_json:
740
741 # Prints debug messages (verbose mode)
742 # Can be overriden by --debug
743 debug: false
744
745 # Set to a valid path name if logging to file is to be enabled
746 # Defaults to disabled
747 log_file:
748
749 # When enabled, all results and/or logs will be sent to a fluentd servers at the requested IPs and ports
750 # A list of one or more fluentd servers identified by their IPs and  port numbers should be given.
751 # For each recipient it is possible to enable both sending logs and performance
752 # results, or enable either logs or performance results. For enabling logs or results logging_tag or
753 # result_tag should be set.
754
755 fluentd:
756       # by default (logging_tag is empty) nfvbench log messages are not sent to fluentd
757       # to enable logging to fluents, specify a valid fluentd tag name to be used for the
758       # log records
759     - logging_tag:
760
761       # by default (result_tag is empty) nfvbench results are not sent to fluentd
762       # to enable sending nfvbench results to fluentd, specify a valid fluentd tag name
763       # to be used for the results records, which is different than logging_tag
764       result_tag:
765
766       # IP address of the server, defaults to loopback
767       ip: 127.0.0.1
768
769       # port # to use, by default, use the default fluentd forward port
770       port: 24224
771
772       # by default (logging_tag is empty) nfvbench log messages are not sent to fluentd
773       # to enable logging to fluents, specify a valid fluentd tag name to be used for the
774       # log records
775
776 # Module and class name of factory which will be used to provide classes dynamically for other components.
777 factory_module: 'nfvbench.factory'
778 factory_class: 'BasicFactory'
779
780 # Custom label added for every perf record generated during this run.
781 # Can be overriden by --user-label
782 user_label:
783
784
785 # THESE FIELDS SHOULD BE USED VERY RARELY
786
787 # Skip vswitch configuration and retrieving of stats
788 # Can be overriden by --no-vswitch-access
789 # Should be left to the default value (false)
790 no_vswitch_access: false
791
792
793 # Enable service mode for trafic capture from TRex console (for debugging purpose)
794 # Can be overriden by --service-mode
795 # Should be left to the default value (false)
796 service_mode: false
797
798 # Disable extra flow stats (on high load traffic)
799 # Can be overriden by --no-flow-stats
800 # Should be left to the default value (false)
801 no_flow_stats: false
802
803 # Disable flow stats for latency traffic
804 # Can be overriden by --no-latency-stats
805 # Should be left to the default value (false)
806 no_latency_stats: false
807
808 # Disable latency measurements (no streams)
809 # Can be overriden by --no-latency-stream
810 # Should be left to the default value (false)
811 no_latency_streams: false