Update scenario test results files for Colorado release
[yardstick.git] / docs / results / os-onos-sfc-ha.rst
1 .. This work is licensed under a Creative Commons Attribution 4.0 International
2 .. License.
3 .. http://creativecommons.org/licenses/by/4.0
4
5
6 ===============================
7 Test Results for os-onos-sfc-ha
8 ===============================
9
10 .. toctree::
11    :maxdepth: 2
12
13
14 fuel
15 ====
16
17 .. _Grafana: http://testresults.opnfv.org/grafana/dashboard/db/yardstick-main
18 .. _POD2: https://wiki.opnfv.org/pharos?&#community_test_labs
19
20 Overview of test results
21 ------------------------
22
23 See Grafana_ for viewing test result metrics for each respective test case. It
24 is possible to chose which specific scenarios to look at, and then to zoom in
25 on the details of each run test scenario as well.
26
27 All of the test case results below are based on 4 scenario test runs, each run
28 on the Ericsson POD2_ or LF POD2_ between September 5 and 10 in 2016.
29
30 TC002
31 -----
32 The round-trip-time (RTT) between 2 VMs on different blades is measured using
33 ping. Most test run measurements result on average between 0.5 and 0.6 ms.
34 A few runs start with a 1 - 1.5 ms RTT spike (This could be because of normal ARP
35 handling). One test run has a greater RTT spike of 1.9 ms, which is the same
36 one with the 0.7 ms average. The other runs have no similar spike at all.
37 To be able to draw conclusions more runs should be made.
38 SLA set to 10 ms. The SLA value is used as a reference, it has not
39 been defined by OPNFV.
40
41 TC005
42 -----
43 The IO read bandwidth looks similar between different dates, with an
44 average between approx. 170 and 200 MB/s. Within each test run the results
45 vary, with a minimum 2 MB/s and maximum 838 MB/s on the totality. Most runs
46 have a minimum BW of 3 MB/s (two runs at 2 MB/s). The maximum BW varies more in
47 absolute numbers between the dates, between 617 and 838 MB/s.
48 SLA set to 400 MB/s. The SLA value is used as a reference, it has not been
49 defined by OPNFV.
50
51 TC010
52 -----
53 The measurements for memory latency are similar between test dates and result
54 in approx. 1.2 ns. The variations within each test run are similar, between
55 1.215 and 1.219 ns. One exception is February 16, where the average is 1.222
56 and varies between 1.22 and 1.28 ns.
57 SLA set to 30 ns. The SLA value is used as a reference, it has not been defined
58 by OPNFV.
59
60 TC011
61 -----
62 Packet delay variation between 2 VMs on different blades is measured using
63 Iperf3. On the first date the reported packet delay variation varies between
64 0.0025 and 0.011 ms, with an average delay variation of 0.0067 ms.
65 On the second date the delay variation varies between 0.002 and 0.006 ms, with
66 an average delay variation of 0.004 ms.
67
68 TC012
69 -----
70 Between test dates, the average measurements for memory bandwidth vary between
71 17.4 and 17.9 GB/s. Within each test run the results vary more, with a minimal
72 BW of 16.4 GB/s and maximum of 18.2 GB/s on the totality.
73 SLA set to 15 GB/s. The SLA value is used as a reference, it has not been
74 defined by OPNFV.
75
76 TC014
77 -----
78 The Unixbench processor test run results vary between scores 3080 and 3240,
79 one result each date. The average score on the total is 3150.
80 No SLA set.
81
82 TC037
83 -----
84 The amount of packets per second (PPS) and round trip times (RTT) between 2 VMs
85 on different blades are measured when increasing the amount of UDP flows sent
86 between the VMs using pktgen as packet generator tool.
87
88 Round trip times and packet throughput between VMs can typically be affected by
89 the amount of flows set up and result in higher RTT and less PPS throughput.
90
91 The RTT results are similar throughout the different test dates and runs at
92 approx. 15 ms. Some test runs show an increase with many flows, in the range
93 towards 16 to 17 ms. One exception standing out is Feb. 15 where the average
94 RTT is stable at approx. 13 ms. The PPS results are not as consistent as the
95 RTT results.
96 In some test runs when running with less than approx. 10000 flows the PPS
97 throughput is normally flatter compared to when running with more flows, after
98 which the PPS throughput decreases. Around 20 percent decrease in the worst
99 case. For the other test runs there is however no significant change to the PPS
100 throughput when the number of flows are increased. In some test runs the PPS
101 is also greater with 1000000 flows compared to other test runs where the PPS
102 result is less with only 2 flows.
103
104 The average PPS throughput in the different runs varies between 414000 and
105 452000 PPS. The total amount of packets in each test run is approx. 7500000 to
106 8200000 packets. One test run Feb. 15 sticks out with a PPS average of
107 558000 and approx. 1100000 packets in total (same as the on mentioned earlier
108 for RTT results).
109
110 There are lost packets reported in most of the test runs. There is no observed
111 correlation between the amount of flows and the amount of lost packets.
112 The lost amount of packets normally range between 100 and 1000 per test run,
113 but there are spikes in the range of 10000 lost packets as well, and even
114 more in a rare cases.
115
116 CPU utilization statistics are collected during UDP flows sent between the VMs
117 using pktgen as packet generator tool. The average measurements for CPU
118 utilization ratio vary between 1% to 2%. The peak of CPU utilization ratio
119 appears around 7%.
120
121 TC069
122 -----
123 Between test dates, the average measurements for memory bandwidth vary between
124 15.5 and 25.4 GB/s. Within each test run the results vary more, with a minimal
125 BW of 9.7 GB/s and maximum of 29.5 GB/s on the totality.
126 SLA set to 6 GB/s. The SLA value is used as a reference, it has not been
127 defined by OPNFV.
128
129 TC070
130 -----
131 The amount of packets per second (PPS) and round trip times (RTT) between 2 VMs
132 on different blades are measured when increasing the amount of UDP flows sent
133 between the VMs using pktgen as packet generator tool.
134
135 Round trip times and packet throughput between VMs can typically be affected by
136 the amount of flows set up and result in higher RTT and less PPS throughput.
137
138 The RTT results are similar throughout the different test dates and runs at
139 approx. 15 ms. Some test runs show an increase with many flows, in the range
140 towards 16 to 17 ms. One exception standing out is Feb. 15 where the average
141 RTT is stable at approx. 13 ms. The PPS results are not as consistent as the
142 RTT results.
143 In some test runs when running with less than approx. 10000 flows the PPS
144 throughput is normally flatter compared to when running with more flows, after
145 which the PPS throughput decreases. Around 20 percent decrease in the worst
146 case. For the other test runs there is however no significant change to the PPS
147 throughput when the number of flows are increased. In some test runs the PPS
148 is also greater with 1000000 flows compared to other test runs where the PPS
149 result is less with only 2 flows.
150
151 The average PPS throughput in the different runs varies between 414000 and
152 452000 PPS. The total amount of packets in each test run is approx. 7500000 to
153 8200000 packets. One test run Feb. 15 sticks out with a PPS average of
154 558000 and approx. 1100000 packets in total (same as the on mentioned earlier
155 for RTT results).
156
157 There are lost packets reported in most of the test runs. There is no observed
158 correlation between the amount of flows and the amount of lost packets.
159 The lost amount of packets normally range between 100 and 1000 per test run,
160 but there are spikes in the range of 10000 lost packets as well, and even
161 more in a rare cases.
162
163 Memory utilization statistics are collected during UDP flows sent between the
164 VMs using pktgen as packet generator tool. The average measurements for memory
165 utilization vary between 225MB to 246MB. The peak of memory utilization appears
166 around 340MB.
167
168 TC071
169 -----
170 The amount of packets per second (PPS) and round trip times (RTT) between 2 VMs
171 on different blades are measured when increasing the amount of UDP flows sent
172 between the VMs using pktgen as packet generator tool.
173
174 Round trip times and packet throughput between VMs can typically be affected by
175 the amount of flows set up and result in higher RTT and less PPS throughput.
176
177 The RTT results are similar throughout the different test dates and runs at
178 approx. 15 ms. Some test runs show an increase with many flows, in the range
179 towards 16 to 17 ms. One exception standing out is Feb. 15 where the average
180 RTT is stable at approx. 13 ms. The PPS results are not as consistent as the
181 RTT results.
182 In some test runs when running with less than approx. 10000 flows the PPS
183 throughput is normally flatter compared to when running with more flows, after
184 which the PPS throughput decreases. Around 20 percent decrease in the worst
185 case. For the other test runs there is however no significant change to the PPS
186 throughput when the number of flows are increased. In some test runs the PPS
187 is also greater with 1000000 flows compared to other test runs where the PPS
188 result is less with only 2 flows.
189
190 The average PPS throughput in the different runs varies between 414000 and
191 452000 PPS. The total amount of packets in each test run is approx. 7500000 to
192 8200000 packets. One test run Feb. 15 sticks out with a PPS average of
193 558000 and approx. 1100000 packets in total (same as the on mentioned earlier
194 for RTT results).
195
196 There are lost packets reported in most of the test runs. There is no observed
197 correlation between the amount of flows and the amount of lost packets.
198 The lost amount of packets normally range between 100 and 1000 per test run,
199 but there are spikes in the range of 10000 lost packets as well, and even
200 more in a rare cases.
201
202 Cache utilization statistics are collected during UDP flows sent between the
203 VMs using pktgen as packet generator tool. The average measurements for cache
204 utilization vary between 205MB to 212MB.
205
206 TC072
207 -----
208 The amount of packets per second (PPS) and round trip times (RTT) between 2 VMs
209 on different blades are measured when increasing the amount of UDP flows sent
210 between the VMs using pktgen as packet generator tool.
211
212 Round trip times and packet throughput between VMs can typically be affected by
213 the amount of flows set up and result in higher RTT and less PPS throughput.
214
215 The RTT results are similar throughout the different test dates and runs at
216 approx. 15 ms. Some test runs show an increase with many flows, in the range
217 towards 16 to 17 ms. One exception standing out is Feb. 15 where the average
218 RTT is stable at approx. 13 ms. The PPS results are not as consistent as the
219 RTT results.
220 In some test runs when running with less than approx. 10000 flows the PPS
221 throughput is normally flatter compared to when running with more flows, after
222 which the PPS throughput decreases. Around 20 percent decrease in the worst
223 case. For the other test runs there is however no significant change to the PPS
224 throughput when the number of flows are increased. In some test runs the PPS
225 is also greater with 1000000 flows compared to other test runs where the PPS
226 result is less with only 2 flows.
227
228 The average PPS throughput in the different runs varies between 414000 and
229 452000 PPS. The total amount of packets in each test run is approx. 7500000 to
230 8200000 packets. One test run Feb. 15 sticks out with a PPS average of
231 558000 and approx. 1100000 packets in total (same as the on mentioned earlier
232 for RTT results).
233
234 There are lost packets reported in most of the test runs. There is no observed
235 correlation between the amount of flows and the amount of lost packets.
236 The lost amount of packets normally range between 100 and 1000 per test run,
237 but there are spikes in the range of 10000 lost packets as well, and even
238 more in a rare cases.
239
240 Network utilization statistics are collected during UDP flows sent between the
241 VMs using pktgen as packet generator tool. Total number of packets received per
242 second was average on 200 kpps and total number of packets transmitted per
243 second was average on 600 kpps.
244
245 Detailed test results
246 ---------------------
247 The scenario was run on Ericsson POD2_ and LF POD2_ with:
248 Fuel 9.0
249 OpenStack Mitaka
250 Onos Goldeneye
251 OpenVirtualSwitch 2.5.90
252 OpenDayLight Beryllium
253
254 Rationale for decisions
255 -----------------------
256 Pass
257
258 Tests were successfully executed and metrics collected.
259 No SLA was verified. To be decided on in next release of OPNFV.
260
261 Conclusions and recommendations
262 -------------------------------
263 The pktgen test configuration has a relatively large base effect on RTT in
264 TC037 compared to TC002, where there is no background load at all. Approx.
265 15 ms compared to approx. 0.5 ms, which is more than a 3000 percentage
266 difference in RTT results.
267 Especially RTT and throughput come out with better results than for instance
268 the *fuel-os-nosdn-nofeature-ha* scenario does. The reason for this should
269 probably be further analyzed and understood. Also of interest could be
270 to make further analyzes to find patterns and reasons for lost traffic.
271 Also of interest could be to see if there are continuous variations where
272 some test cases stand out with better or worse results than the general test
273 case.
274