6c827efc2a200425658909d2f6f1c7099eec81b7
[yardstick.git] / yardstick / benchmark / scenarios / compute / perf.py
1 ##############################################################################
2 # Copyright (c) 2015 Ericsson AB and others.
3 #
4 # All rights reserved. This program and the accompanying materials
5 # are made available under the terms of the Apache License, Version 2.0
6 # which accompanies this distribution, and is available at
7 # http://www.apache.org/licenses/LICENSE-2.0
8 ##############################################################################
9 import pkg_resources
10 import logging
11 import json
12
13 import yardstick.ssh as ssh
14 from yardstick.benchmark.scenarios import base
15
16 LOG = logging.getLogger(__name__)
17
18
19 class Perf(base.Scenario):
20     """Execute perf benchmark in a host
21
22   Parameters
23     events - perf tool software, hardware or tracepoint events
24         type:       [str]
25         unit:       na
26         default:    ['task-clock']
27     load - simulate load on the host by doing IO operations
28         type:       bool
29         unit:       na
30         default:    false
31
32     For more info about perf and perf events see https://perf.wiki.kernel.org
33     """
34
35     __scenario_type__ = "Perf"
36
37     TARGET_SCRIPT = 'perf_benchmark.bash'
38
39     def __init__(self, scenario_cfg, context_cfg):
40         self.scenario_cfg = scenario_cfg
41         self.context_cfg = context_cfg
42         self.setup_done = False
43
44     def setup(self):
45         """scenario setup"""
46         self.target_script = pkg_resources.resource_filename(
47             'yardstick.benchmark.scenarios.compute', Perf.TARGET_SCRIPT)
48         host = self.context_cfg['host']
49         user = host.get('user', 'ubuntu')
50         ssh_port = host.get("ssh_port", ssh.DEFAULT_PORT)
51         ip = host.get('ip', None)
52         key_filename = host.get('key_filename', '~/.ssh/id_rsa')
53
54         LOG.info("user:%s, host:%s", user, ip)
55         self.client = ssh.SSH(user, ip, key_filename=key_filename,
56                               port=ssh_port)
57         self.client.wait(timeout=600)
58
59         # copy script to host
60         self.client.run("cat > ~/perf_benchmark.sh",
61                         stdin=open(self.target_script, "rb"))
62
63         self.setup_done = True
64
65     def run(self, result):
66         """execute the benchmark"""
67
68         if not self.setup_done:
69             self.setup()
70
71         options = self.scenario_cfg['options']
72         events = options.get('events', ['task-clock'])
73
74         events_string = ""
75         for event in events:
76             events_string += event + " "
77
78         # if run by a duration runner
79         duration_time = self.scenario_cfg["runner"].get("duration", None) \
80             if "runner" in self.scenario_cfg else None
81         # if run by an arithmetic runner
82         arithmetic_time = options.get("duration", None)
83         if duration_time:
84             duration = duration_time
85         elif arithmetic_time:
86             duration = arithmetic_time
87         else:
88             duration = 30
89
90         if 'load' in options:
91             load = "dd if=/dev/urandom of=/dev/null"
92         else:
93             load = "sleep %d" % duration
94
95         cmd = "sudo bash perf_benchmark.sh '%s' %d %s" \
96             % (load, duration, events_string)
97
98         LOG.debug("Executing command: %s", cmd)
99         status, stdout, stderr = self.client.execute(cmd)
100
101         if status:
102             raise RuntimeError(stdout)
103
104         result.update(json.loads(stdout))
105
106         if "sla" in self.scenario_cfg:
107             metric = self.scenario_cfg['sla']['metric']
108             exp_val = self.scenario_cfg['sla']['expected_value']
109             smaller_than_exp = 'smaller_than_expected' \
110                                in self.scenario_cfg['sla']
111
112             if metric not in result:
113                 assert False, "Metric (%s) not found." % metric
114             else:
115                 if smaller_than_exp:
116                     assert result[metric] < exp_val, "%s %d >= %d (sla); " \
117                         % (metric, result[metric], exp_val)
118                 else:
119                     assert result[metric] >= exp_val, "%s %d < %d (sla); " \
120                         % (metric, result[metric], exp_val)
121
122
123 def _test():
124     """internal test function"""
125     key_filename = pkg_resources.resource_filename('yardstick.resources',
126                                                    'files/yardstick_key')
127     ctx = {
128         'host': {
129             'ip': '10.229.47.137',
130             'user': 'root',
131             'key_filename': key_filename
132         }
133     }
134
135     logger = logging.getLogger('yardstick')
136     logger.setLevel(logging.DEBUG)
137
138     options = {'load': True}
139     args = {'options': options}
140     result = {}
141
142     p = Perf(args, ctx)
143     p.run(result)
144     print result
145
146 if __name__ == '__main__':
147     _test()