behave_tests: tweak nfvbench results JSON filename
[nfvbench.git] / behave_tests / features / environment.py
index bb9780d..7621075 100644 (file)
@@ -17,6 +17,7 @@
 
 import json
 import os
+import logging
 import pathlib
 import time
 
@@ -25,7 +26,6 @@ def before_all(context):
     context.data = {'config': os.getenv('NFVBENCH_CONFIG_PATH', '/etc/nfvbench/nfvbench.cfg')}
 
     context.data['PROJECT_NAME'] = os.getenv('PROJECT_NAME', 'nfvbench')
-    context.data['TEST_DB_EXT_URL'] = os.getenv('TEST_DB_EXT_URL')
     context.data['TEST_DB_URL'] = os.getenv('TEST_DB_URL')
     context.data['BASE_TEST_DB_URL'] = ''
     if context.data['TEST_DB_URL']:
@@ -46,6 +46,22 @@ def before_feature(context, feature):
     context.start_time = time.time()
     context.CASE_NAME = feature.name
 
+    # Create results dir if needed
+    results_dir = pathlib.Path('/var/lib/xtesting/results/' + context.CASE_NAME)
+    if not results_dir.exists():
+        results_dir.mkdir()
+
+    # Setup a second logger to be able to understand why a test passed or failed
+    # (The main logger is used by behave itself)
+    context.logger = logging.getLogger('behave_tests')
+    context.logger.setLevel(logging.INFO)
+    fh = logging.FileHandler(filename=results_dir / pathlib.Path('behave_tests.log'),
+                             mode='w')  # Re-create the file at the beginning of the feature
+    fh.setFormatter(logging.Formatter('%(asctime)s - %(levelname)s - %(message)s'))
+    context.logger.addHandler(fh)
+
+    context.logger.info('before_feature: ' + feature.name)
+
 
 def before_scenario(context, scenario):
     context.tag = scenario.tags[0]
@@ -57,6 +73,9 @@ def before_scenario(context, scenario):
     if loopvm_flavor:
         context.json['flavor_type'] = loopvm_flavor
     context.synthesis = {}
+    context.percentage_rate = None
+
+    context.logger.info('before_scenario: ' + scenario.name)
 
 
 def after_feature(context, feature):
@@ -65,8 +84,5 @@ def after_feature(context, feature):
         return
 
     results_dir = pathlib.Path('/var/lib/xtesting/results/' + context.CASE_NAME)
-    if not results_dir.exists():
-        results_dir.mkdir()
-
     results_file = results_dir / pathlib.Path('campaign_result.json')
     results_file.write_text(json.dumps(context.results, indent=4))