Merge "Update SNMP agent config"
authorEmma Foley <efoley@redhat.com>
Thu, 28 May 2020 17:29:50 +0000 (17:29 +0000)
committerGerrit Code Review <gerrit@opnfv.org>
Thu, 28 May 2020 17:29:50 +0000 (17:29 +0000)
ci/utility/package-list.sh
docker/barometer-influxdb/Dockerfile
docker/barometer-tests/Dockerfile [new file with mode: 0644]
docker/barometer-tests/testcases.yaml [new file with mode: 0644]
docs/release/userguide/installguide.docker.rst
docs/release/userguide/installguide.oneclick.rst
requirements.txt
src/package-list.mk

index 1eb6f8d..30b7385 100755 (executable)
@@ -25,4 +25,4 @@ CMTCAT_BRANCH=8b27ad757e86a01bc51eafcb9e600605ff1beca4
 CMTCAT_VERSION="v1.1.0"
 
 COLLECTD_REPO=https://github.com/collectd/collectd.git
-COLLECTD_BRANCH=collectd-5.10
+COLLECTD_BRANCH=collectd-5.11
index f84b22d..5a640c2 100644 (file)
@@ -15,5 +15,5 @@
 
 FROM influxdb:1.3.7
 
-RUN wget https://raw.githubusercontent.com/collectd/collectd/collectd-5.10/src/types.db -O /types.db
+RUN wget https://raw.githubusercontent.com/collectd/collectd/collectd-5.11/src/types.db -O /types.db
 COPY ./influxdb.conf /etc/influxdb/influxdb.conf
diff --git a/docker/barometer-tests/Dockerfile b/docker/barometer-tests/Dockerfile
new file mode 100644 (file)
index 0000000..6b5d3f1
--- /dev/null
@@ -0,0 +1,18 @@
+FROM opnfv/functest-core:hunter
+
+ARG BRANCH=master
+ARG OPNFV_BRANCH=stable/hunter
+ARG OPENSTACK_TAG=stable/rocky
+
+RUN apk --no-cache add --virtual .build-deps --update \
+        python-dev build-base linux-headers libffi-dev \
+        openssl-dev libjpeg-turbo-dev && \
+    wget -q -O- https://opendev.org/openstack/requirements/raw/branch/$OPENSTACK_TAG/upper-constraints.txt > upper-constraints.txt && \
+    wget -q -O- https://git.opnfv.org/functest/plain/upper-constraints.txt?h=$OPNFV_BRANCH > upper-constraints.opnfv.txt && \
+    sed -i -E /#egg=baro_tests/d upper-constraints.opnfv.txt && \
+    pip install --no-cache-dir --src /src -cupper-constraints.txt -cupper-constraints.opnfv.txt \
+        git+https://gerrit.opnfv.org/gerrit/barometer@$BRANCH#egg=baro_tests && \
+    rm -r upper-constraints.txt upper-constraints.opnfv.txt && \
+    apk del .build-deps
+COPY testcases.yaml /usr/lib/python2.7/site-packages/xtesting/ci/testcases.yaml
+CMD ["run_tests", "-t", "all"]
diff --git a/docker/barometer-tests/testcases.yaml b/docker/barometer-tests/testcases.yaml
new file mode 100644 (file)
index 0000000..a8c0a4f
--- /dev/null
@@ -0,0 +1,21 @@
+---
+tiers:
+    -
+        name: barometer
+        order: 0
+        description: >-
+            Test suites from the Barometer project
+        testcases:
+            -
+                case_name: barometercollectd
+                project_name: barometer
+                criteria: 100
+                blocking: false
+                description: >-
+                    Test suite for the Barometer project. Separate tests verify
+                    the proper configuration and basic functionality of all the
+                    collectd plugins as described in the Project Release Plan
+                dependencies:
+                    - DEPLOY_SCENARIO: 'bar'
+                run:
+                    name: barometercollectd
index d1f5564..a342bbb 100644 (file)
@@ -234,11 +234,11 @@ The output should be something like:
 
 .. code:: bash
 
-   Unable to find image 'hello-world:latest' locally
-   latest: Pulling from library/hello-world
-   5b0f327be733: Pull complete
-   Digest: sha256:07d5f7800dfe37b8c2196c7b1c524c33808ce2e0f74e7aa00e603295ca9a0972
-   Status: Downloaded newer image for hello-world:latest
+   Trying to pull docker.io/library/hello-world...Getting image source signatures
+   Copying blob 0e03bdcc26d7 done
+   Copying config bf756fb1ae done
+   Writing manifest to image destination
+   Storing signatures
 
    Hello from Docker!
    This message shows that your installation appears to be working correctly.
@@ -251,11 +251,14 @@ The output should be something like:
     4. The Docker daemon streamed that output to the Docker client, which sent it
        to your terminal.
 
-To try something more ambitious, you can run an Ubuntu container with:
+   To try something more ambitious, you can run an Ubuntu container with:
+    $ docker run -it ubuntu bash
 
-.. code:: bash
+   Share images, automate workflows, and more with a free Docker ID:
+    https://hub.docker.com/
 
-    $ docker run -it ubuntu bash
+   For more examples and ideas, visit:
+    https://docs.docker.com/get-started/
 
 Build and Run Collectd Docker Image
 -----------------------------------
@@ -265,22 +268,22 @@ Collectd-barometer flavors
 
 Before starting to build and run the Collectd container, understand the available
 flavors of Collectd containers:
-  * barometer-collectd - stable release, based on collectd 5.8
+  * barometer-collectd - stable release, based on collectd 5.11
   * barometer-collectd-master - release based on collectd 'master' branch
   * barometer-collectd-experimental - release based on collectd 'master'
-    branch that also includes set of experimental(not yet merged into upstream)
+    branch that also includes set of experimental (not yet merged into upstream)
     pull requests
 
 .. note::
    Experimental container is not tested across various OS'es and the stability
    of the container can change. Usage of experimental flavor is at users risk.
 
-Stable barometer-collectd container is intended for work in production
+Stable `barometer-collectd` container is intended for work in production
 environment as it is based on latest collectd official release.
 `Barometer-collectd-master` and `barometer-collectd-experimental` containers
 can be used in order to try new collectd features.
-All flavors are located in `barometer` git repository - respective dockerfiles
-are stored in subdirectories of 'docker/' directory
+All flavors are located in `barometer` git repository - respective Dockerfiles
+are stored in subdirectories of `docker/` directory
 
 
 .. code:: bash
index c5cb42c..7b214de 100644 (file)
@@ -11,7 +11,10 @@ OPNFV Barometer One Click Install Guide
    :depth: 3
    :local:
 
-The intention of this user guide is to outline how to use the ansible playbooks for a one click installation of Barometer. A more in-depth installation guide is available with the :ref:`Docker user guide <barometer-docker-userguide>`.
+The intention of this user guide is to outline how to use the ansible
+playbooks for a one click installation of Barometer. A more in-depth
+installation guide is available with the
+:ref:`Docker user guide <barometer-docker-userguide>`.
 
 
 One Click Install with Ansible
@@ -25,19 +28,20 @@ Proxy for package manager on host
 
 Proxy URL have to be set in dedicated config file
 
-1. CentOS - /etc/yum.conf
+1. CentOS - ``/etc/yum.conf``
 
 .. code:: bash
 
     proxy=http://your.proxy.domain:1234
 
-2. Ubuntu - /etc/apt/apt.conf
+2. Ubuntu - ``/etc/apt/apt.conf``
 
 .. code:: bash
 
     Acquire::http::Proxy "http://your.proxy.domain:1234"
 
-After update of config file, apt mirrors have to be updated via 'apt-get update'
+After update of config file, apt mirrors have to be updaited via
+``apt-get update``
 
 .. code:: bash
 
@@ -52,24 +56,24 @@ Configuring proxy for packaging system is not enough, also some proxy
 environment variables have to be set in the system before ansible scripts
 can be started.
 Barometer configures docker proxy automatically via ansible task as a part
-of 'one click install' process - user only has to provide proxy URL using common
+of *one click install* process - user only has to provide proxy URL using common
 shell environment variables and ansible will automatically configure proxies
 for docker(to be able to fetch barometer images). Another component used by
 ansible (e.g. pip is used for downloading python dependencies) will also benefit
 from setting proxy variables properly in the system.
 
 Proxy variables used by ansible One Click Install:
-   * http_proxy
-   * https_proxy
-   * ftp_proxy
-   * no_proxy
+   * ``http_proxy``
+   * ``https_proxy``
+   * ``ftp_proxy``
+   * ``no_proxy``
 
 Variables mentioned above have to be visible for superuser (because most
-actions involving ansible-barometer installation require root privileges).
-Proxy variables are commonly defined in '/etc/environment' file (but any other
-place is good as long as variables can be seen by commands using 'su').
+actions involving ``ansible-barometer`` installation require root privileges).
+Proxy variables are commonly defined in ``/etc/environment`` file (but any other
+place is good as long as variables can be seen by commands using ``su``).
 
-Sample proxy configuration in /etc/environment:
+Sample proxy configuration in ``/etc/environment``:
 
 .. code:: bash
 
@@ -106,9 +110,9 @@ To install Ansible 2.6.3 on Centos:
     $ sudo yum install git
 
 .. note::
-   When using multi-node-setup, please make sure that 'python' package is
+   When using multi-node-setup, please make sure that ``python`` package is
    installed on all of the target nodes (ansible during 'Gathering facts'
-   phase is using python2 and it may not be installed by default on some
+   phase is using ``python2`` and it may not be installed by default on some
    distributions - e.g. on Ubuntu 16.04 it has to be installed manually)
 
 Clone barometer repo
@@ -121,7 +125,8 @@ Clone barometer repo
 
 Edit inventory file
 ^^^^^^^^^^^^^^^^^^^
-Edit inventory file and add hosts: $barometer_dir/docker/ansible/default.inv
+Edit inventory file and add hosts:
+``$barometer_dir/docker/ansible/default.inv``
 
 .. code:: bash
 
@@ -158,23 +163,24 @@ Edit inventory file and add hosts: $barometer_dir/docker/ansible/default.inv
     #hostname
 
 Change localhost to different hosts where neccessary.
-Hosts for influxdb and grafana are required only for collectd_service.yml.
-Hosts for zookeeper, kafka and ves are required only for collectd_ves.yml.
+Hosts for influxdb and grafana are required only for ``collectd_service.yml``.
+Hosts for zookeeper, kafka and ves are required only for ``collectd_ves.yml``.
 
 .. note::
    Zookeeper, Kafka and VES need to be on the same host, there is no
    support for multi node setup.
 
-To change host for kafka edit kafka_ip_addr in ./roles/config_files/vars/main.yml.
+To change host for kafka edit ``kafka_ip_addr`` in
+``./roles/config_files/vars/main.yml``.
 
 Additional plugin dependencies
 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
 
-By default ansible will try to fulfill dependencies for mcelog and ipmi plugin.
-For mcelog plugin it installs mcelog daemon. For ipmi it tries to insert ipmi_devintf
-and ipmi_si kernel modules.
-This can be changed in inventory file with use of variables install_mcelog
-and insert_ipmi_modules, both variables are independent:
+By default ansible will try to fulfill dependencies for ``mcelog`` and
+``ipmi`` plugin. For ``mcelog`` plugin it installs mcelog daemon. For ipmi it
+tries to insert ``ipmi_devintf`` and ``ipmi_si`` kernel modules.
+This can be changed in inventory file with use of variables ``install_mcelog``
+and ``insert_ipmi_modules``, both variables are independent:
 
 .. code:: bash
 
@@ -198,7 +204,7 @@ ssh keys are required for Ansible to connect the host you use for Barometer Inst
     $ sudo ssh-keygen
 
 Copy ssh key to all target hosts. It requires to provide root password.
-The example is for localhost.
+The example is for ``localhost``.
 
 .. code:: bash
 
@@ -227,7 +233,7 @@ through more details.
 
     $ sudo -H ansible-playbook -i default.inv collectd_service.yml
 
-Check the three containers are running, the output of docker ps should be similar to:
+Check the three containers are running, the output of ``docker ps`` should be similar to:
 
 .. code:: bash
 
@@ -243,12 +249,13 @@ To make some changes when a container is running run:
 
     $ sudo docker exec -ti <CONTAINER ID> /bin/bash
 
-Connect to <host_ip>:3000 with a browser and log into Grafana: admin/admin.
+Connect to ``<host_ip>:3000`` with a browser and log into Grafana: admin/admin.
 For short introduction please see the:
 `Grafana guide <http://docs.grafana.org/guides/getting_started/>`_.
 
-The collectd configuration files can be accessed directly on target system in '/opt/collectd/etc/collectd.conf.d'.
-It can be used for manual changes or enable/disable plugins. If configuration has been modified it is required to
+The collectd configuration files can be accessed directly on target system in
+``/opt/collectd/etc/collectd.conf.d``. It can be used for manual changes or
+enable/disable plugins. If configuration has been modified it is required to
 restart collectd:
 
 .. code:: bash
@@ -262,7 +269,7 @@ Download and run collectd+kafka+ves containers
 
     $ sudo ansible-playbook -i default.inv collectd_ves.yml
 
-Check the containers are running, the output of docker ps should be similar to:
+Check the containers are running, the output of ``docker ps`` should be similar to:
 
 .. code:: bash
 
@@ -285,21 +292,25 @@ List of default plugins for collectd container
 .. note::
    The dpdk plugins dpdkevents and dpdkstat were tested with DPDK v16.11.
 
-By default the collectd is started with default configuration which includes the followin plugins:
-   * csv, contextswitch, cpu, cpufreq, df, disk, ethstat, ipc, irq, load, memory, numa, processes,
-     swap, turbostat, uuid, uptime, exec, hugepages, intel_pmu, ipmi, write_kafka, logfile, mcelog,
-     network, intel_rdt, rrdtool, snmp_agent, syslog, virt, ovs_stats, ovs_events, dpdkevents,
-     dpdkstat
+By default the collectd is started with default configuration which includes
+the followin plugins:
+    * ``csv``, ``contextswitch``, ``cpu``, ``cpufreq``, ``df``, ``disk``,
+      ``ethstat``, ``ipc``, ``irq``, ``load``, ``memory``, ``numa``,
+      ``processes``, ``swap``, ``turbostat``, ``uuid``, ``uptime``, ``exec``,
+      ``hugepages``, ``intel_pmu``, ``ipmi``, ``write_kafka``, ``logfile``,
+      ``mcelog``, ``network``, ``intel_rdt``, ``rrdtool``, ``snmp_agent``,
+      ``syslog``, ``virt``, ``ovs_stats``, ``ovs_events``, ``dpdkevents``,
+      ``dpdkstat``
 
 Some of the plugins are loaded depending on specific system requirements and can be omitted if
 dependency is not met, this is the case for:
-   * hugepages, ipmi, mcelog, intel_rdt, virt, ovs_stats, ovs_events
+   * ``hugepages``, ``ipmi``, ``mcelog``, ``intel_rdt``, ``virt``, ``ovs_stats``, ``ovs_events``
 
 List and description of tags used in ansible scripts
 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
 
-Tags can be used to run a specific part of the configuration without running the whole playbook.
-To run a specific parts only:
+Tags can be used to run a specific part of the configuration without running
+the whole playbook. To run a specific parts only:
 
 .. code:: bash
 
@@ -313,27 +324,32 @@ To disable some parts or plugins:
 
 List of available tags:
 
-install_docker
+``install_docker``
   Install docker and required dependencies with package manager.
 
-add_docker_proxy
+``add_docker_proxy``
   Configure proxy file for docker service if proxy is set on host environment.
 
-rm_config_dir
+``rm_config_dir``
   Remove collectd config files.
 
-copy_additional_configs
-  Copy additional configuration files to target system. Path to additional configuration
-  is stored in $barometer_dir/docker/ansible/roles/config_files/vars/main.yml as additional_configs_path.
-
-en_default_all
-  Set of default read plugins: contextswitch, cpu, cpufreq, df, disk, ethstat, ipc, irq,
-  load, memory, numa, processes, swap, turbostat, uptime.
-
-plugins tags
-  The following tags can be used to enable/disable plugins: csv, contextswitch, cpu,
-  cpufreq, df, disk, ethstat, ipc, irq, load, memory, numa, processes, swap, turbostat,
-  uptime, exec, hugepages, ipmi, kafka, logfile, mcelogs, network, pmu, rdt, rrdtool,
-  snmp, syslog, virt, ovs_stats, ovs_events, uuid, dpdkevents, dpdkstat.
-
+``copy_additional_configs``
+  Copy additional configuration files to target system. Path to additional
+  configuration is stored in
+  ``$barometer_dir/docker/ansible/roles/config_files/vars/main.yml`` as
+  ``additional_configs_path``.
+
+``en_default_all``
+  Set of default read plugins: ``contextswitch``, ``cpu``, ``cpufreq``, ``df``,
+  ``disk``, ``ethstat``, ``ipc``, ``irq``, ``load``, ``memory``, ``numa``,
+  ``processes``, ``swap``, ``turbostat``, ``uptime``.
+
+``plugins tags``
+  The following tags can be used to enable/disable plugins: ``csv``,
+  ``contextswitch``, ``cpu``, ``cpufreq``, ``df``, ``disk,`` ``ethstat``,
+  ``ipc``, ``irq``, ``load``, ``memory``, ``numa``, ``processes``, ``swap``,
+  ``turbostat``, ``uptime``, ``exec``, ``hugepages``, ``ipmi``, ``kafka``,
+  ``logfile``, ``mcelogs``, ``n``etwork``,`` ``pmu``, ``rdt``, ``rrdtool``,
+  ``snmp``, ``syslog``, ``virt``, ``ovs_stats``, ``ovs_events``, ``uuid``,
+  ``dpdkevents``, ``dpdkstat``.
 
index 57a2f51..0c4b10c 100644 (file)
@@ -8,3 +8,4 @@ toml # MIT
 opnfv # Apache-2.0
 functest # Apache-2.0
 xtesting # Apache-2.0
+pika  # BSD
index d5fedf7..a5c7bcf 100644 (file)
@@ -27,7 +27,7 @@ COLLECTD_URL ?= https://github.com/collectd/collectd
 #                   set pull requests with experimental features
 ifeq ($(COLLECTD_FLAVOR), stable)
 # using latest stable release
-       COLLECTD_TAG ?= collectd-5.10
+       COLLECTD_TAG ?= collectd-5.11
        SAMPLE_CONF_VARIANT_NAME = collectd_sample_configs
 else
 # 'master' and 'experimental' collectd flavors are both using