7d793f4b4a25c4ad79e34c0ce1cde7be79038063
[opnfvdocs.git] / docs / testing / ecosystem / overview.rst
1 .. This work is licensed under a Creative Commons Attribution 4.0 International License.
2 .. SPDX-License-Identifier: CC-BY-4.0
3
4 =============
5 OPNFV testing
6 =============
7
8 Introduction
9 ============
10
11 Testing is one of the key activities in OPNFV and includes unit, feature, component, system
12 level testing for development, automated deployment, performance characterization or stress
13 testing.
14
15 Test projects are dedicated to provide frameworks, tooling and test-cases categorized as
16 functional, performance or compliance testing. Test projects fulfill different roles such as
17 verifying VIM functionality, benchmarking components and platforms or analysis of measured
18 KPIs for the scenarios released in OPNFV.
19
20 Feature projects also provide their own test suites that either run independently or within a
21 test project.
22
23 This document details the OPNFV testing ecosystem, describes common test components used
24 by individual OPNFV projects and provides links to project specific documentation.
25
26
27 OPNFV testing ecosystem
28 =======================
29
30 The testing projects
31 --------------------
32
33 The OPNFV testing projects may be summarized as follows:
34
35 .. figure:: ../../images/OPNFV_testing_working_group.png
36    :align: center
37    :alt: Overview of OPNFV Testing projects
38
39 The major testing projects are described in the table below:
40
41 +----------------+---------------------------------------------------------+
42 |  Project       |   Description                                           |
43 +================+=========================================================+
44 |  Bottlenecks   | This project aims to find system bottlenecks by testing |
45 |                | and verifying OPNFV infrastructure in a staging         |
46 |                | environment before committing it to a production        |
47 |                | environment. Instead of debugging a deployment in       |
48 |                | production environment, an automatic method for         |
49 |                | executing benchmarks which plans to validate the        |
50 |                | deployment during staging is adopted. This project      |
51 |                | forms a staging framework to find bottlenecks and to do |
52 |                | analysis of the OPNFV infrastructure.                   |
53 +----------------+---------------------------------------------------------+
54 | CPerf          | SDN Controller benchmarks and performance testing,      |
55 |                | applicable to controllers in general.                   |
56 +----------------+---------------------------------------------------------+
57 | Dovetail       | This project intends to define and provide a set of     |
58 |                | OPNFV related validation criteria that will provide     |
59 |                | input for the evaluation of the use of OPNFV trademarks.|
60 |                | The dovetail project is executed with the guidance and  |
61 |                | oversight of the Compliance and Certification committee |
62 |                | and work to secure the goals of the C&C committee for   |
63 |                | each release. The project intends to incrementally      |
64 |                | define qualification criteria that establish the        |
65 |                | foundations of how we are able to measure the ability to|
66 |                | utilize the OPNFV platform, how the platform itself     |
67 |                | should behave, and how applications may be deployed on  |
68 |                | the platform.                                           |
69 +----------------+---------------------------------------------------------+
70 | Functest       | This project deals with the functional testing of the   |
71 |                | VIM and NFVI. It leverages several upstream test suites |
72 |                | (OpenStack, ODL, ONOS, etc.) and can be used by feature |
73 |                | project to launch feature test suites in CI/CD.         |
74 |                | The project is used for scenario validation.            |
75 +----------------+---------------------------------------------------------+
76 | Qtip           | QTIP as the project for "Platform Performance           |
77 |                | Benchmarking" in OPNFV aims to provide user a simple    |
78 |                | indicator for performance, supported by comprehensive   |
79 |                | testing data and transparent calculation formula.       |
80 |                | It provides a platform with common services for         |
81 |                | performance benchmarking which helps users to build     |
82 |                | indicators by themselves with ease.                     |
83 +----------------+---------------------------------------------------------+
84 | Storperf       | The purpose of this project is to provide a tool to     |
85 |                | measure block and object storage performance in an NFVI.|
86 |                | When complemented with a characterization of typical VF |
87 |                | storage performance requirements, it can provide        |
88 |                | pass/fail thresholds for test, staging, and production  |
89 |                | NFVI environments.                                      |
90 +----------------+---------------------------------------------------------+
91 | VSperf         | This project provides a framework for automation of NFV |
92 |                | data-plane performance testing and benchmarking. The    |
93 |                | NFVI fast-path includes switch technology and network   |
94 |                | with physical and virtual interfaces. VSperf can be     |
95 |                | used to evaluate the suitability of different Switch    |
96 |                | implementations and features, quantify data-path        |
97 |                | performance and optimize platform configurations.       |
98 +----------------+---------------------------------------------------------+
99 | Yardstick      | The goal of the Project is to verify the infrastructure |
100 |                | compliance when running VNF applications. NFV Use Cases |
101 |                | described in ETSI GS NFV 001 show a large variety of    |
102 |                | applications, each defining specific requirements and   |
103 |                | complex configuration on the underlying infrastructure  |
104 |                | and test tools.The Yardstick concept decomposes typical |
105 |                | VNF work-load performance metrics into a number of      |
106 |                | characteristics/performance vectors, which each of them |
107 |                | can be represented by distinct test-cases.              |
108 +----------------+---------------------------------------------------------+
109
110
111 ===================================
112 The testing working group resources
113 ===================================
114
115 The assets
116 ==========
117
118 Overall Architecture
119 --------------------
120 The Test result management can be summarized as follows::
121
122   +-------------+    +-------------+    +-------------+
123   |             |    |             |    |             |
124   |   Test      |    |   Test      |    |   Test      |
125   | Project #1  |    | Project #2  |    | Project #N  |
126   |             |    |             |    |             |
127   +-------------+    +-------------+    +-------------+
128            |               |               |
129            V               V               V
130        +---------------------------------------------+
131        |                                             |
132        |           Test Rest API front end           |
133        |    http://testresults.opnfv.org/test        |
134        |                                             |
135        +---------------------------------------------+
136            ^                |                     ^
137            |                V                     |
138            |     +-------------------------+      |
139            |     |                         |      |
140            |     |    Test Results DB      |      |
141            |     |         Mongo DB        |      |
142            |     |                         |      |
143            |     +-------------------------+      |
144            |                                      |
145            |                                      |
146      +----------------------+        +----------------------+
147      |                      |        |                      |
148      | Testing Dashboards   |        |      Landing page    |
149      |                      |        |                      |
150      +----------------------+        +----------------------+
151
152
153 The testing databases
154 ---------------------
155 A Mongo DB Database has been introduced for the Brahmaputra release.
156 The following collections are declared in this database:
157  * pods: the list of pods used for production CI
158  * projects: the list of projects providing test cases
159  * testcases: the test cases related to a given project
160  * results: the results of the test cases
161  * scenarios: the OPNFV scenarios tested in CI
162
163 This database can be used by any project through the testapi.
164 Please note that projects may also use additional databases. This database is
165 mainly use to colelct CI results and scenario trust indicators.
166
167 This database is also cloned for OPNFV Plugfest.
168
169
170 The test API
171 ------------
172 The Test API is used to declare pods, projects, test cases and test results.
173 Pods correspond to the cluster of machines (3 controller and 2 compute nodes in
174 HA mode) used to run the tests and defined in Pharos project.
175 The results pushed in the database are related to pods, projects and cases.
176 If you try to push results of test done on non referenced pod, the API will
177 return an error message.
178
179 An additional method dashboard has been added to post-process the raw results in
180 the Brahmaputra release (deprecated in Colorado release).
181
182 The data model is very basic, 5 objects are available:
183   * Pods
184   * Projects
185   * Testcases
186   * Results
187   * Scenarios
188
189 For detailed information, please go to http://artifacts.opnfv.org/releng/docs/testapi.html
190
191
192 The reporting
193 -------------
194 The reporting page for the test projects is http://testresults.opnfv.org/reporting/
195
196 .. figure:: ../../images/reporting_page.png
197    :align: center
198    :alt: Testing group reporting page
199
200 This page provides a reporting per OPNFV release and per testing project.
201
202 .. figure:: ../../images/reporting_danube_page.png
203    :align: center
204    :alt: Testing group Danube reporting page
205
206 An evolution of this page is planned.
207 It was decided to unify the reporting by creating a landing page that should give
208 the scenario status in one glance (it was previously consolidated manually
209 on a wiki page).
210
211 The landing page (planned for Danube 2.0) will be displayed per scenario:
212  * the status of the deployment
213  * the score of the test projectS
214  * a trust indicator
215
216 Additional filters (version, installer, test collection time window,... ) are
217 included.
218
219 The test case catalog
220 ---------------------
221 Until the Colorado release, each testing project was managing the list of its
222 test cases. It was very hard to have a global view of the available test cases
223 among the different test projects. A common view was possible through the API
224 but it was not very user friendly.
225 In fact you may know all the cases per project calling:
226
227  http://testresults.opnfv.org/test/api/v1/projects/<project_name>/cases
228
229 with project_name: bottlenecks, functest, qtip, storperf, vsperf, yardstick
230
231 It was decided to build a web site providing a consistent view of the test cases
232 per project and allow any scenario owner to build his/her custom list of tests
233 (Danube 2.0).
234
235 Other resources
236 ===============
237
238 wiki: https://wiki.opnfv.org/testing
239
240 mailing list: test-wg@lists.opnfv.org
241
242 IRC chan: #opnfv-testperf
243
244 weekly meeting (https://wiki.opnfv.org/display/meetings/TestPerf):
245  * Usual time: Every Thursday 15:00-16:00 UTC / 7:00-8:00 PST
246  * APAC time: 2nd Wednesday of the month 8:00-9:00 UTC
247
248 =======================
249 Reference documentation
250 =======================
251
252 +----------------+---------------------------------------------------------+
253 |  Project       |   Documentation links                                   |
254 +================+=========================================================+
255 |  Bottlenecks   | https://wiki.opnfv.org/display/bottlenecks/Bottlenecks  |
256 +----------------+---------------------------------------------------------+
257 | CPerf          | https://wiki.opnfv.org/display/cperf                    |
258 +----------------+---------------------------------------------------------+
259 | Dovetail       | https://wiki.opnfv.org/display/dovetail                 |
260 +----------------+---------------------------------------------------------+
261 | Functest       | https://wiki.opnfv.org/display/functest/                |
262 +----------------+---------------------------------------------------------+
263 | Qtip           | https://wiki.opnfv.org/display/qtip                     |
264 +----------------+---------------------------------------------------------+
265 | Storperf       | https://wiki.opnfv.org/display/storperf/Storperf        |
266 +----------------+---------------------------------------------------------+
267 | VSperf         | https://wiki.opnfv.org/display/vsperf                   |
268 +----------------+---------------------------------------------------------+
269 | Yardstick      | https://wiki.opnfv.org/display/yardstick/Yardstick      |
270 +----------------+---------------------------------------------------------+