Introducing Standalone context for running test in non-managed environment.
[yardstick.git] / yardstick / benchmark / runners / duration.py
1 # Copyright 2014: Mirantis Inc.
2 # All Rights Reserved.
3 #
4 #    Licensed under the Apache License, Version 2.0 (the "License"); you may
5 #    not use this file except in compliance with the License. You may obtain
6 #    a copy of the License at
7 #
8 #         http://www.apache.org/licenses/LICENSE-2.0
9 #
10 #    Unless required by applicable law or agreed to in writing, software
11 #    distributed under the License is distributed on an "AS IS" BASIS, WITHOUT
12 #    WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the
13 #    License for the specific language governing permissions and limitations
14 #    under the License.
15
16 # yardstick comment: this is a modified copy of
17 # rally/rally/benchmark/runners/constant.py
18
19 """A runner that runs a specific time before it returns
20 """
21
22 from __future__ import absolute_import
23 import os
24 import multiprocessing
25 import logging
26 import traceback
27 import time
28
29 from yardstick.benchmark.runners import base
30
31 LOG = logging.getLogger(__name__)
32
33
34 def _worker_process(queue, cls, method_name, scenario_cfg,
35                     context_cfg, aborted):
36
37     sequence = 1
38
39     runner_cfg = scenario_cfg['runner']
40
41     interval = runner_cfg.get("interval", 1)
42     duration = runner_cfg.get("duration", 60)
43     LOG.info("worker START, duration %d sec, class %s", duration, cls)
44
45     runner_cfg['runner_id'] = os.getpid()
46
47     benchmark = cls(scenario_cfg, context_cfg)
48     benchmark.setup()
49     method = getattr(benchmark, method_name)
50
51     sla_action = None
52     if "sla" in scenario_cfg:
53         sla_action = scenario_cfg["sla"].get("action", "assert")
54
55     queue.put({'runner_id': runner_cfg['runner_id'],
56                'scenario_cfg': scenario_cfg,
57                'context_cfg': context_cfg})
58
59     start = time.time()
60     while True:
61
62         LOG.debug("runner=%(runner)s seq=%(sequence)s START",
63                   {"runner": runner_cfg["runner_id"], "sequence": sequence})
64
65         data = {}
66         errors = ""
67
68         try:
69             method(data)
70         except AssertionError as assertion:
71             # SLA validation failed in scenario, determine what to do now
72             if sla_action == "assert":
73                 raise
74             elif sla_action == "monitor":
75                 LOG.warning("SLA validation failed: %s", assertion.args)
76                 errors = assertion.args
77         except Exception as e:
78             errors = traceback.format_exc()
79             LOG.exception(e)
80
81         time.sleep(interval)
82
83         benchmark_output = {
84             'timestamp': time.time(),
85             'sequence': sequence,
86             'data': data,
87             'errors': errors
88         }
89
90         record = {'runner_id': runner_cfg['runner_id'],
91                   'benchmark': benchmark_output}
92
93         queue.put(record)
94
95         LOG.debug("runner=%(runner)s seq=%(sequence)s END",
96                   {"runner": runner_cfg["runner_id"], "sequence": sequence})
97
98         sequence += 1
99
100         if (errors and sla_action is None) or \
101                 (time.time() - start > duration or aborted.is_set()):
102             LOG.info("worker END")
103             break
104
105     benchmark.teardown()
106
107
108 class DurationRunner(base.Runner):
109     """Run a scenario for a certain amount of time
110
111 If the scenario ends before the time has elapsed, it will be started again.
112
113   Parameters
114     duration - amount of time the scenario will be run for
115         type:    int
116         unit:    seconds
117         default: 1 sec
118     interval - time to wait between each scenario invocation
119         type:    int
120         unit:    seconds
121         default: 1 sec
122     """
123     __execution_type__ = 'Duration'
124
125     def _run_benchmark(self, cls, method, scenario_cfg, context_cfg):
126         self.process = multiprocessing.Process(
127             target=_worker_process,
128             args=(self.result_queue, cls, method, scenario_cfg,
129                   context_cfg, self.aborted))
130         self.process.start()