Merge "Update CephPools format in the docker templates to fit ceph-ansible" into...
[apex-tripleo-heat-templates.git] / environments / neutron-ovs-dpdk.yaml
1 # A Heat environment that can be used to deploy DPDK with OVS
2 # Deploying DPDK requires enabling hugepages for the overcloud nodes
3 resource_registry:
4   OS::TripleO::Services::ComputeNeutronOvsDpdk: ../puppet/services/neutron-ovs-dpdk-agent.yaml
5
6 parameter_defaults:
7   NeutronDatapathType: "netdev"
8   NeutronVhostuserSocketDir: "/var/lib/vhost_sockets"
9   NovaSchedulerDefaultFilters: "RamFilter,ComputeFilter,AvailabilityZoneFilter,ComputeCapabilitiesFilter,ImagePropertiesFilter,NUMATopologyFilter"
10   OvsDpdkDriverType: "vfio-pci"
11
12   #ComputeOvsDpdkParameters:
13     ## Host configuration Parameters
14     #TunedProfileName: "cpu-partitioning"
15     #IsolCpusList: ""               # Logical CPUs list to be isolated from the host process (applied via cpu-partitioning tuned).
16                                     # It is mandatory to provide isolated cpus for tuned to achive optimal performance.
17                                     # Example: "3-8,12-15,18"
18     #KernelArgs: ""                 # Space separated kernel args to configure hugepage and IOMMU.
19                                     # Deploying DPDK requires enabling hugepages for the overcloud compute nodes.
20                                     # It also requires enabling IOMMU when using the VFIO (vfio-pci) OvsDpdkDriverType.
21                                     # This should be done by configuring parameters via host-config-and-reboot.yaml environment file.
22
23     ## Attempting to deploy DPDK without appropriate values for the below parameters may lead to unstable deployments
24     ## due to CPU contention of DPDK PMD threads.
25     ## It is highly recommended to to enable isolcpus (via KernelArgs) on compute overcloud nodes and set the following parameters:
26     #OvsDpdkSocketMemory: ""       # Sets the amount of hugepage memory to assign per NUMA node.
27                                    # It is recommended to use the socket closest to the PCIe slot used for the
28                                    # desired DPDK NIC.  Format should be comma separated per socket string such as:
29                                    # "<socket 0 mem MB>,<socket 1 mem MB>", for example: "1024,0".
30     #OvsPmdCoreList: ""            # List or range of CPU cores for PMD threads to be pinned to.  Note, NIC
31                                    # location to cores on socket, number of hyper-threaded logical cores, and
32                                    # desired number of PMD threads can all play a role in configuring this setting.
33                                    # These cores should be on the same socket where OvsDpdkSocketMemory is assigned.
34                                    # If using hyperthreading then specify both logical cores that would equal the
35                                    # physical core.  Also, specifying more than one core will trigger multiple PMD
36                                    # threads to be spawned, which may improve dataplane performance.
37     #NovaVcpuPinSet: ""            # Cores to pin Nova instances to.  For maximum performance, select cores
38                                    # on the same NUMA node(s) selected for previous settings.