Merge "[reclass] Set banner_company_name: OPNFV"
[fuel.git] / ci / deploy.sh
1 #!/bin/bash -e
2 # shellcheck disable=SC2034,SC2154,SC1090,SC1091,SC2155
3 ##############################################################################
4 # Copyright (c) 2018 Ericsson AB, Mirantis Inc., Enea AB and others.
5 # jonas.bjurel@ericsson.com
6 # All rights reserved. This program and the accompanying materials
7 # are made available under the terms of the Apache License, Version 2.0
8 # which accompanies this distribution, and is available at
9 # http://www.apache.org/licenses/LICENSE-2.0
10 ##############################################################################
11
12 ##############################################################################
13 # BEGIN of Exit handlers
14 #
15 do_exit () {
16     local RC=$?
17     cleanup_mounts > /dev/null 2>&1
18     if [ ${RC} -eq 0 ]; then
19         notify_n "[OK] MCP: Openstack installation finished succesfully!" 2
20     else
21         notify_n "[ERROR] MCP: Openstack installation threw a fatal error!"
22     fi
23 }
24 #
25 # End of Exit handlers
26 ##############################################################################
27
28 ##############################################################################
29 # BEGIN of usage description
30 #
31 usage ()
32 {
33 cat << EOF
34 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
35 $(notify "$(basename "$0"): Deploy the Fuel@OPNFV MCP stack" 3)
36
37 $(notify "USAGE:" 2)
38   $(basename "$0") -l lab-name -p pod-name -s deploy-scenario \\
39     [-b Lab Config Base URI] \\
40     [-S storage-dir] [-L /path/to/log/file.tar.gz] \\
41     [-f[f]] [-F] [-e | -E[E]] [-d] [-D] [-N]
42
43 $(notify "OPTIONS:" 2)
44   -b  Base-uri for the stack-configuration structure
45   -d  Dry-run
46   -D  Debug logging
47   -e  Do not launch environment deployment
48   -E  Remove existing VCP VMs (use twice to redeploy baremetal nodes)
49   -f  Deploy on existing Salt master (use twice to also skip config sync)
50   -F  Do only create a Salt master
51   -h  Print this message and exit
52   -l  Lab-name
53   -p  Pod-name
54   -P  Skip installation of package dependencies
55   -s  Deploy-scenario short-name
56   -S  Storage dir for VM images
57   -L  Deployment log path and file name
58   -N  Experimental: Do not virtualize control plane (novcp)
59
60 $(notify_i "Description:" 2)
61 Deploys the Fuel@OPNFV stack on the indicated lab resource.
62
63 This script provides the Fuel@OPNFV deployment abstraction.
64 It depends on the OPNFV official configuration directory/file structure
65 and provides a fairly simple mechanism to execute a deployment.
66
67 $(notify_i "Input parameters to the build script are:" 2)
68 -b Base URI to the configuration directory (needs to be provided in URI style,
69    it can be a local resource: file:// or a remote resource http(s)://).
70    A POD Descriptor File (PDF) and its Installer Descriptor File (IDF)
71    companion should be available at:
72    <base-uri>/labs/<lab-name>/<pod-name>.yaml
73    <base-uri>/labs/<lab-name>/idf-<pod-name>.yaml
74    The default is using the git submodule tracking 'OPNFV Pharos' in
75    <./mcp/scripts/pharos>.
76    An example config is provided inside current repo in
77    <./mcp/config>, automatically linked as <./mcp/scripts/pharos/labs/local>.
78 -d Dry-run - Produce deploy config files, but do not execute deploy
79 -D Debug logging - Enable extra logging in sh deploy scripts (set -x)
80 -e Do not launch environment deployment
81 -E Remove existing VCP VMs. It will destroy and undefine all VCP VMs
82    currently defined on cluster KVM nodes. If specified twice (e.g. -E -E),
83    baremetal nodes (VCP too, implicitly) will be removed, then reprovisioned.
84    Only applicable for baremetal deploys.
85 -f Deploy on existing Salt master. It will skip infrastructure VM creation,
86    but it will still sync reclass configuration from current repo to Salt
87    Master node. If specified twice (e.g. -f -f), config sync will also be
88    skipped.
89 -F Do only create a Salt master
90 -h Print this message and exit
91 -L Deployment log path and name, eg. -L /home/jenkins/job.log.tar.gz
92 -l Lab name as defined in the configuration directory, e.g. lf
93    For the sample configuration in <./mcp/config>, lab name is 'local'.
94 -p POD name as defined in the configuration directory, e.g. pod2
95    For the sample configuration in <./mcp/config>, POD name is 'virtual1'
96    for virtual deployments or 'pod1' for baremetal (based on lf-pod2).
97 -N Experimental: Instead of virtualizing the control plane (VCP), deploy
98    control plane directly on baremetal nodes
99 -P Skip installing dependency distro packages on current host
100    This flag should only be used if you have kept back older packages that
101    would be upgraded and that is undesirable on the current system.
102    Note that without the required packages, deploy will fail.
103 -s Deployment-scenario, this points to a short deployment scenario name, which
104    has to be defined in config directory (e.g. os-odl-nofeature-ha).
105 -S Storage dir for VM images, default is mcp/deploy/images
106
107 $(notify_i "[NOTE] sudo & virsh priviledges are needed for this script to run" 3)
108
109 Example:
110
111 $(notify_i "sudo $(basename "$0") \\
112   -b file:///home/jenkins/securedlab \\
113   -l lf -p pod2 \\
114   -s os-odl-nofeature-ha" 2)
115 EOF
116 }
117
118 #
119 # END of usage description
120 ##############################################################################
121
122 ##############################################################################
123 # BEGIN of variables to customize
124 #
125 CI_DEBUG=${CI_DEBUG:-0}; [[ "${CI_DEBUG}" =~ (false|0) ]] || set -x
126 REPO_ROOT_PATH=$(readlink -f "$(dirname "${BASH_SOURCE[0]}")/..")
127 DEPLOY_DIR=$(cd "${REPO_ROOT_PATH}/mcp/scripts"; pwd)
128 STORAGE_DIR=$(cd "${REPO_ROOT_PATH}/mcp/deploy/images"; pwd)
129 URI_REGEXP='(file|https?|ftp)://.*'
130 BASE_CONFIG_URI="file://${REPO_ROOT_PATH}/mcp/scripts/pharos"
131
132 # Customize deploy workflow
133 DRY_RUN=${DRY_RUN:-0}
134 USE_EXISTING_PKGS=${USE_EXISTING_PKGS:-0}
135 USE_EXISTING_INFRA=${USE_EXISTING_INFRA:-0}
136 INFRA_CREATION_ONLY=${INFRA_CREATION_ONLY:-0}
137 NO_DEPLOY_ENVIRONMENT=${NO_DEPLOY_ENVIRONMENT:-0}
138 ERASE_ENV=${ERASE_ENV:-0}
139 MCP_VCP=${MCP_VCP:-1}
140
141 source "${DEPLOY_DIR}/globals.sh"
142 source "${DEPLOY_DIR}/lib.sh"
143 source "${DEPLOY_DIR}/lib_template.sh"
144
145 #
146 # END of variables to customize
147 ##############################################################################
148
149 ##############################################################################
150 # BEGIN of main
151 #
152 set +x
153 while getopts "b:dDfEFl:L:Np:Ps:S:he" OPTION
154 do
155     case $OPTION in
156         b)
157             BASE_CONFIG_URI=${OPTARG}
158             if [[ ! $BASE_CONFIG_URI =~ ${URI_REGEXP} ]]; then
159                 notify "[ERROR] -b $BASE_CONFIG_URI - invalid URI"
160                 usage
161                 exit 1
162             fi
163             ;;
164         d)
165             DRY_RUN=1
166             ;;
167         D)
168             CI_DEBUG=1
169             ;;
170         f)
171             ((USE_EXISTING_INFRA+=1))
172             ;;
173         F)
174             INFRA_CREATION_ONLY=1
175             ;;
176         e)
177             NO_DEPLOY_ENVIRONMENT=1
178             ;;
179         E)
180             ((ERASE_ENV+=1))
181             ;;
182         l)
183             TARGET_LAB=${OPTARG}
184             ;;
185         L)
186             DEPLOY_LOG="${OPTARG}"
187             ;;
188         N)
189             MCP_VCP=0
190             ;;
191         p)
192             TARGET_POD=${OPTARG}
193             ;;
194         P)
195             USE_EXISTING_PKGS=1
196             ;;
197         s)
198             DEPLOY_SCENARIO=${OPTARG}
199             ;;
200         S)
201             if [[ ${OPTARG} ]]; then
202                 STORAGE_DIR="${OPTARG}"
203             fi
204             ;;
205         h)
206             usage
207             exit 0
208             ;;
209         *)
210             notify_e "[ERROR] Unsupported arg, see -h for help"
211             ;;
212     esac
213 done
214
215 if [[ "$(sudo whoami)" != 'root' ]]; then
216     notify_e "[ERROR] This script requires sudo rights"
217 fi
218
219 # Validate mandatory arguments are set
220 if [ -z "${TARGET_LAB}" ] || [ -z "${TARGET_POD}" ] || \
221    [ -z "${DEPLOY_SCENARIO}" ]; then
222     usage
223     notify_e "[ERROR] At least one of the mandatory args is missing!"
224 fi
225
226 [[ "${CI_DEBUG}" =~ (false|0) ]] || set -x
227
228 # Enable the automatic exit trap
229 trap do_exit SIGINT SIGTERM EXIT
230
231 # Set no restrictive umask so that Jenkins can remove any residuals
232 umask 0000
233
234 pushd "${DEPLOY_DIR}" > /dev/null
235 # Prepare the deploy config files based on lab/pod information, deployment
236 # scenario, etc.
237
238 # Install required packages on jump server
239 if [ ${USE_EXISTING_PKGS} -eq 1 ]; then
240     notify "[NOTE] Skipping distro pkg installation" 2
241 else
242     notify "[NOTE] Installing required distro pkgs" 2
243     jumpserver_pkg_install
244 fi
245
246 if ! virsh list >/dev/null 2>&1; then
247     notify_e "[ERROR] This script requires hypervisor access"
248 fi
249
250 # Collect jump server system information for deploy debugging
251 ./sysinfo_print.sh
252
253 # Clone git submodules and apply our patches
254 make -C "${REPO_ROOT_PATH}/mcp/patches" deepclean patches-import
255
256 # Check scenario file existence
257 SCENARIO_DIR="$(readlink -f "../config/scenario")"
258 if [ ! -f "${SCENARIO_DIR}/${DEPLOY_SCENARIO}.yaml" ] && \
259    [ ! -f "${SCENARIO_DIR}/${DEPLOY_SCENARIO}.yaml.j2" ]; then
260     notify_e "[ERROR] Scenario definition file is missing!"
261 fi
262
263 # key might not exist yet ...
264 generate_ssh_key
265 export MAAS_SSH_KEY="$(cat "$(basename "${SSH_KEY}").pub")"
266
267 MCP_DPDK_MODE=$([[ "$DEPLOY_SCENARIO" =~ ovs ]] && echo 1 || echo 0)
268 # Expand jinja2 templates based on PDF data and env vars
269 export MCP_VCP MCP_DPDK_MODE MCP_JUMP_ARCH=$(uname -i)
270 do_templates_scenario "${STORAGE_DIR}" "${TARGET_LAB}" "${TARGET_POD}" \
271                       "${BASE_CONFIG_URI}" "${SCENARIO_DIR}"
272 do_templates_cluster  "${STORAGE_DIR}" "${TARGET_LAB}" "${TARGET_POD}" \
273                       "${REPO_ROOT_PATH}" \
274                       "${SCENARIO_DIR}/defaults.yaml" \
275                       "${SCENARIO_DIR}/${DEPLOY_SCENARIO}.yaml"
276
277 # Determine additional data (e.g. jump bridge names) based on XDF
278 source "${DEPLOY_DIR}/xdf_data.sh"
279
280 # Jumpserver prerequisites check
281 notify "[NOTE] Using bridges: ${OPNFV_BRIDGES[*]}" 2
282 jumpserver_check_requirements "${virtual_nodes[*]}" "${OPNFV_BRIDGES[@]}"
283
284 # Infra setup
285 if [ ${DRY_RUN} -eq 1 ]; then
286     notify "[NOTE] Dry run, skipping all deployment tasks" 2
287     exit 0
288 elif [ ${USE_EXISTING_INFRA} -gt 0 ]; then
289     notify "[NOTE] Use existing infra" 2
290     check_connection
291 else
292     prepare_vms "${base_image}" "${STORAGE_DIR}" "${virtual_repos_pkgs}" \
293       "${virtual_nodes[@]}"
294     create_networks "${OPNFV_BRIDGES[@]}"
295     do_sysctl_cfg
296     do_udev_cfg
297     create_vms "${STORAGE_DIR}" "${virtual_nodes_data}" "${OPNFV_BRIDGES[@]}"
298     update_mcpcontrol_network
299     start_vms "${virtual_nodes[@]}"
300     check_connection
301 fi
302 if [ ${USE_EXISTING_INFRA} -lt 2 ]; then
303     wait_for 5 "./salt.sh ${STORAGE_DIR}/pod_config.yml ${virtual_nodes[*]}"
304 fi
305
306 # Openstack cluster setup
307 set +x
308 if [ ${INFRA_CREATION_ONLY} -eq 1 ] || [ ${NO_DEPLOY_ENVIRONMENT} -eq 1 ]; then
309     notify "[NOTE] Skip openstack cluster setup" 2
310 else
311     for state in "${cluster_states[@]}"; do
312         notify "[STATE] Applying state: ${state}" 2
313         # shellcheck disable=SC2086,2029
314         wait_for 5 "ssh ${SSH_OPTS} ${SSH_SALT} sudo \
315             CI_DEBUG=$CI_DEBUG ERASE_ENV=$ERASE_ENV \
316             /root/fuel/mcp/config/states/${state}"
317         if [ "${state}" = 'maas' ]; then
318             # For hybrid PODs (virtual + baremetal nodes), the virtual nodes
319             # should be reset to force a DHCP request from MaaS DHCP
320             reset_vms "${virtual_nodes[@]}"
321         fi
322     done
323 fi
324
325 ./log.sh "${DEPLOY_LOG}"
326
327 popd > /dev/null
328
329 #
330 # END of main
331 ##############################################################################