add scenario and sample file for Unixbench.
[yardstick.git] / yardstick / benchmark / scenarios / compute / unixbench.py
1 ##############################################################################
2 # Copyright (c) 2015 Huawei Technologies Co.,Ltd and other.
3 #
4 # All rights reserved. This program and the accompanying materials
5 # are made available under the terms of the Apache License, Version 2.0
6 # which accompanies this distribution, and is available at
7 # http://www.apache.org/licenses/LICENSE-2.0
8 ##############################################################################
9 import pkg_resources
10 import logging
11 import json
12
13 import yardstick.ssh as ssh
14 from yardstick.benchmark.scenarios import base
15
16 LOG = logging.getLogger(__name__)
17
18
19 class Unixbench(base.Scenario):
20     """Execute Unixbench cpu benchmark in a host
21     The Run script takes a number of options which you can use to customise a
22     test, and you can specify the names of the tests to run.  The full usage
23     is:
24
25     Run [ -q | -v ] [-i <n> ] [-c <n> [-c <n> ...]] [test ...]
26
27     -i <count>    Run <count> iterations for each test -- slower tests
28                 use <count> / 3, but at least 1.  Defaults to 10 (3 for
29                 slow tests).
30     -c <n>        Run <n> copies of each test in parallel.
31
32     Parameters for setting unixbench
33         run_mode - Run in quiet mode or verbose mode
34             type:       string
35             unit:       None
36             default:    None
37         test_type - The available tests are organised into categories;
38             type:       string
39             unit:       None
40             default:    None
41         iterations - Run <count> iterations for each test -- slower tests
42         use <count> / 3, but at least 1.  Defaults to 10 (3 for slow tests).
43             type:       int
44             unit:       None
45             default:    None
46         copies - Run <n> copies of each test in parallel.
47             type:       int
48             unit:       None
49             default:    None
50
51     more info https://github.com/kdlucas/byte-unixbench/blob/master/UnixBench
52     """
53     __scenario_type__ = "UnixBench"
54
55     TARGET_SCRIPT = "unixbench_benchmark.bash"
56
57     def __init__(self, scenario_cfg, context_cfg):
58         self.scenario_cfg = scenario_cfg
59         self.context_cfg = context_cfg
60         self.setup_done = False
61
62     def setup(self):
63         """scenario setup"""
64         self.target_script = pkg_resources.resource_filename(
65             "yardstick.benchmark.scenarios.compute",
66             Unixbench.TARGET_SCRIPT)
67
68         host = self.context_cfg["host"]
69         user = host.get("user", "ubuntu")
70         ip = host.get("ip", None)
71         key_filename = host.get('key_filename', "~/.ssh/id_rsa")
72
73         LOG.info("user:%s, host:%s", user, ip)
74         self.client = ssh.SSH(user, ip, key_filename=key_filename)
75         self.client.wait(timeout=600)
76
77         # copy scripts to host
78         self.client.run("cat > ~/unixbench_benchmark.sh",
79                         stdin=open(self.target_script, 'rb'))
80
81         self.setup_done = True
82
83     def run(self, result):
84         """execute the benchmark"""
85
86         if not self.setup_done:
87             self.setup()
88
89         options = self.scenario_cfg["options"]
90
91         run_mode = options.get("run_mode", None)
92         LOG.debug("Executing run_mode: %s", run_mode)
93         cmd_args = ""
94         if run_mode == "quiet":
95             cmd_args = "-q"
96         elif run_mode == "verbose":
97             cmd_args = "-v"
98
99         option_pair_list = [("iterations", "-i"),
100                             ("copies", "-c")]
101         for option_pair in option_pair_list:
102             if option_pair[0] in options:
103                 cmd_args += " %s %s " % (option_pair[1],
104                                          options[option_pair[0]])
105
106         test_type = options.get("test_type", None)
107         if test_type is not None:
108             cmd_args += " %s " % (test_type)
109
110         cmd = "sudo bash unixbench_benchmark.sh %s" % (cmd_args)
111         LOG.debug("Executing command: %s", cmd)
112         status, stdout, stderr = self.client.execute(cmd)
113         if status:
114             raise RuntimeError(stderr)
115
116         result.update(json.loads(stdout))
117
118         if "sla" in self.scenario_cfg:
119             sla_error = ""
120             for t, score in result.items():
121                 if t not in self.scenario_cfg['sla']:
122                     continue
123                 sla_score = float(self.scenario_cfg['sla'][t])
124                 score = float(score)
125                 if score < sla_score:
126                     sla_error += "%s score %f < sla:%s_score(%f); " % \
127                         (t, score, t, sla_score)
128             assert sla_error == "", sla_error
129
130
131 def _test():  # pragma: no cover
132     """internal test function"""
133     key_filename = pkg_resources.resource_filename('yardstick.resources',
134                                                    'files/yardstick_key')
135     ctx = {
136         'host': {
137             'ip': '10.229.47.137',
138             'user': 'root',
139             'key_filename': key_filename
140         }
141     }
142
143     options = {
144         'test_type': 'dhrystone',
145         'run_mode': 'verbose'
146     }
147
148     args = {'options': options}
149     result = {}
150
151     p = Unixbench(args, ctx)
152     p.run(result)
153     print result
154
155 if __name__ == '__main__':
156     _test()