Add run_in_background attribute to scenarios
[yardstick.git] / docs / templates / testcase_description_template.rst
1 .. Template to be used for test case descriptions in Yardstick Project.
2    Write one .rst per test case.
3    Upload the .rst for the test case in /docs/source/yardstick directory.
4    Review in Gerrit.
5
6 .. image:: ../etc/opnfv-logo.png
7   :height: 40
8   :width: 200
9   :alt: OPNFV
10   :align: left
11
12 ******************
13 Test Case <slogan>
14 ******************
15
16 .. contents:: Table of Contents
17    :depth: 3
18
19 ---------------------
20 Test Case Description
21 ---------------------
22
23 Yardstick Test Case ID
24 ----------------------
25
26 OPNFV_YARDSTICK_TC<abc>_<slogan>
27
28 where:
29     - <abc>: check Jira issue for the test case
30     - <slogan>: check Jira issue for the test case
31
32
33 Purpose
34 -------
35
36 Describe what is the purpose of the test case
37
38 Area
39 ----
40
41 State the area and sub-area covered by the test case.
42
43 Areas: Compute, Networking, Storage
44
45 Sub-areas: Performance, System limit, QoS
46
47 Metrics
48 -------
49
50 What will be measured, attribute name or collection of attributes, behavior
51
52 References
53 ----------
54
55 Reference documentation
56
57 --------------
58 Pre-requisites
59 --------------
60
61 Tools
62 -----
63
64 What tools are used to perform the measurements (e.g. fio, pktgen)
65
66
67 Configuration
68 -------------
69
70 State the .yaml file to use.
71
72 State default configuration in the tool(s) used to perform the measurements
73 (e.g. fio, pktgen).
74
75 State what POD-specific configuration is required to enable running the test
76 case in different PODs.
77
78
79 State SLA, if applicable.
80
81 State test duration.
82
83 -------
84 Results
85 -------
86
87 Expected outcome
88 ----------------
89
90 State applicable graphical presentation
91
92 State applicable output details
93
94 State expected Value, behavior, pass/fail criteria