Merge "[docs] Update documentation for Hunter"
[fuel.git] / mcp / scripts / lib.sh
index 1812663..6455a65 100644 (file)
-#!/bin/bash
+#!/bin/bash -e
+# shellcheck disable=SC2155,SC2015
+##############################################################################
+# Copyright (c) 2018 Mirantis Inc., Enea AB and others.
+# All rights reserved. This program and the accompanying materials
+# are made available under the terms of the Apache License, Version 2.0
+# which accompanies this distribution, and is available at
+# http://www.apache.org/licenses/LICENSE-2.0
+##############################################################################
 #
-# Library of shell functions
+# Library of common shell functions used by build/deploy scripts, states etc.
 #
 
-generate_ssh_key() {
-  # shellcheck disable=SC2155
-  local mcp_ssh_key=$(basename "${SSH_KEY}")
-  local user=${USER}
-  if [ -n "${SUDO_USER}" ] && [ "${SUDO_USER}" != 'root' ]; then
-    user=${SUDO_USER}
-  fi
-
-  if [ -f "${SSH_KEY}" ]; then
-    cp "${SSH_KEY}" .
-    ssh-keygen -f "${mcp_ssh_key}" -y > "${mcp_ssh_key}.pub"
-  fi
-
-  [ -f "${mcp_ssh_key}" ] || ssh-keygen -f "${mcp_ssh_key}" -N ''
-  install -D -o "${user}" -m 0600 "${mcp_ssh_key}" "${SSH_KEY}"
-}
-
-get_base_image() {
-  local base_image=$1
-  local image_dir=$2
-
-  mkdir -p "${image_dir}"
-  wget -P "${image_dir}" -N "${base_image}"
-}
-
-cleanup_vms() {
-  # clean up existing nodes
-  for node in $(virsh list --name | grep -P '\w{3}\d{2}'); do
-    virsh destroy "${node}"
-  done
-  for node in $(virsh list --name --all | grep -P '\w{3}\d{2}'); do
-    virsh undefine --nvram "${node}"
-  done
-}
-
-prepare_vms() {
-  local -n vnodes=$1
-  local base_image=$2
-  local image_dir=$3
-
-  cleanup_vms
-  get_base_image "${base_image}" "${image_dir}"
-  envsubst '${SALT_MASTER},${CLUSTER_DOMAIN}' < \
-    user-data.template > user-data.sh
-
-  for node in "${vnodes[@]}"; do
-    # create/prepare images
-    ./create-config-drive.sh -k "$(basename "${SSH_KEY}").pub" -u user-data.sh \
-       -h "${node}" "${image_dir}/mcp_${node}.iso"
-    cp "${image_dir}/${base_image/*\/}" "${image_dir}/mcp_${node}.qcow2"
-    qemu-img resize "${image_dir}/mcp_${node}.qcow2" 100G
-  done
-}
-
-create_networks() {
-  local -n vnode_networks=$1
-  # create required networks, including constant "mcpcontrol"
-  # FIXME(alav): since we renamed "pxe" to "mcpcontrol", we need to make sure
-  # we delete the old "pxe" virtual network, or it would cause IP conflicts.
-  for net in "pxe" "mcpcontrol" "${vnode_networks[@]}"; do
-    if virsh net-info "${net}" >/dev/null 2>&1; then
-      virsh net-destroy "${net}" || true
-      virsh net-undefine "${net}"
-    fi
-    # in case of custom network, host should already have the bridge in place
-    if [ -f "net_${net}.xml" ]; then
-      virsh net-define "net_${net}.xml"
-      virsh net-autostart "${net}"
-      virsh net-start "${net}"
-    fi
-  done
-}
-
-create_vms() {
-  local -n vnodes=$1
-  local -n vnodes_ram=$2
-  local -n vnodes_vcpus=$3
-  local -n vnode_networks=$4
-  local image_dir=$5
-
-  # AArch64: prepare arch specific arguments
-  local virt_extra_args=""
-  if [ "$(uname -i)" = "aarch64" ]; then
-    # No Cirrus VGA on AArch64, use vga std
-    virt_extra_args="$virt_extra_args --video=vga"
-  fi
-
-  # create vms with specified options
-  for node in "${vnodes[@]}"; do
-    # prepare network args
-    net_args=" --network network=mcpcontrol,model=virtio"
-    if [ "${node}" = "mas01" ]; then
-      # MaaS node's 3rd interface gets connected to PXE/Admin Bridge
-      vnode_networks[2]="${vnode_networks[0]}"
-    fi
-    for net in "${vnode_networks[@]:1}"; do
-      net_type="network"
-      # in case of custom network, host should already have the bridge in place
-      if [ ! -f "net_${net}.xml" ]; then
-        net_type="bridge"
+function wait_for {
+  # Execute in a subshell to prevent local variable override during recursion
+  (
+    local total_attempts=$1; shift
+    local cmdstr=$*
+    local sleep_time=10
+    echo -e "\n[wait_for] Waiting for cmd to return success: ${cmdstr}"
+    # shellcheck disable=SC2034
+    for attempt in $(seq "${total_attempts}"); do
+      echo "[wait_for] Attempt ${attempt}/${total_attempts%.*} for: ${cmdstr}"
+      if [ "${total_attempts%.*}" = "${total_attempts}" ]; then
+        eval "${cmdstr}" && echo "[wait_for] OK: ${cmdstr}" && return 0 || true
+      else
+        ! (eval "${cmdstr}" || echo 'No response') |& tee /dev/stderr | \
+           grep -Eq '(Not connected|No response)' && \
+           echo "[wait_for] OK: ${cmdstr}" && return 0 || true
       fi
-      net_args="${net_args} --network ${net_type}=${net},model=virtio"
+      sleep "${sleep_time}"
     done
-
-    # shellcheck disable=SC2086
-    virt-install --name "${node}" \
-    --ram "${vnodes_ram[$node]}" --vcpus "${vnodes_vcpus[$node]}" \
-    --cpu host-passthrough --accelerate ${net_args} \
-    --disk path="${image_dir}/mcp_${node}.qcow2",format=qcow2,bus=virtio,cache=none,io=native \
-    --os-type linux --os-variant none \
-    --boot hd --vnc --console pty --autostart --noreboot \
-    --disk path="${image_dir}/mcp_${node}.iso",device=cdrom \
-    --noautoconsole \
-    ${virt_extra_args}
-  done
+    echo "[wait_for] ERROR: Failed after max attempts: ${cmdstr}"
+    return 1
+  )
 }
 
-update_mcpcontrol_network() {
-  # set static ip address for salt master node, MaaS node
-  # shellcheck disable=SC2155
-  local cmac=$(virsh domiflist cfg01 2>&1| awk '/mcpcontrol/ {print $5; exit}')
-  # shellcheck disable=SC2155
-  local amac=$(virsh domiflist mas01 2>&1| awk '/mcpcontrol/ {print $5; exit}')
-  virsh net-update "mcpcontrol" add ip-dhcp-host \
-    "<host mac='${cmac}' name='cfg01' ip='${SALT_MASTER}'/>" --live
-  [ -z "${amac}" ] || virsh net-update "mcpcontrol" add ip-dhcp-host \
-    "<host mac='${amac}' name='mas01' ip='${MAAS_IP}'/>" --live
-}
-
-start_vms() {
-  local -n vnodes=$1
+function cleanup_uefi {
+  # Clean up Ubuntu boot entry if cfg01, baremetal nodes online from previous deploy
+  local cmd_str="ssh ${SSH_OPTS} ${SSH_SALT}"
+  ping -c 1 -w 1 "${SALT_MASTER}" || return 0
+  [ ! "$(hostname)" = 'cfg01' ] || cmd_str='eval'
+  ${cmd_str} "sudo salt -C 'G@virtual:physical and not cfg01*' cmd.run \
+    \"which efibootmgr > /dev/null 2>&1 && \
+    efibootmgr | grep -oP '(?<=Boot)[0-9]+(?=.*ubuntu)' | \
+    xargs -I{} efibootmgr --delete-bootnum --bootnum {}; \
+    rm -rf /boot/efi/*\"" || true
 
-  # start vms
-  for node in "${vnodes[@]}"; do
-    virsh start "${node}"
-    sleep $[RANDOM%5+1]
-  done
+  ${cmd_str} "sudo salt -C 'G@virtual:physical and not cfg01*' cmd.run 'shutdown now'" || true
 }
 
-check_connection() {
-  local total_attempts=60
-  local sleep_time=5
-  local attempt=1
-
-  set +e
-  echo '[INFO] Attempting to get into Salt master ...'
-
-  # wait until ssh on Salt master is available
-  while ((attempt <= total_attempts)); do
-    # shellcheck disable=SC2086
-    ssh ${SSH_OPTS} "ubuntu@${SALT_MASTER}" uptime
-    case $? in
-      0) echo "${attempt}> Success"; break ;;
-      *) echo "${attempt}/${total_attempts}> ssh server ain't ready yet, waiting for ${sleep_time} seconds ..." ;;
-    esac
-    sleep $sleep_time
-    ((attempt+=1))
-  done
-  set -e
-}
-
-parse_yaml() {
-  local prefix=$2
-  local s
-  local w
-  local fs
-  s='[[:space:]]*'
-  w='[a-zA-Z0-9_]*'
-  fs="$(echo @|tr @ '\034')"
-  sed -ne "s|^\($s\)\($w\)$s:$s\"\(.*\)\"$s\$|\1$fs\2$fs\3|p" \
-      -e "s|^\($s\)\($w\)$s[:-]$s\(.*\)$s\$|\1$fs\2$fs\3|p" "$1" |
-  awk -F"$fs" '{
-  indent = length($1)/2;
-  vname[indent] = $2;
-  for (i in vname) {if (i > indent) {delete vname[i]}}
-      if (length($3) > 0) {
-          vn=""; for (i=0; i<indent; i++) {vn=(vn)(vname[i])("_")}
-          printf("%s%s%s=(\"%s\")\n", "'"$prefix"'",vn, $2, $3);
-      }
-  }' | sed 's/_=/+=/g'
+function get_nova_compute_pillar_data {
+  local value=$(salt -C 'I@nova:compute and *01*' pillar.get _param:"${1}" --out yaml | cut -d ' ' -f2)
+  if [ "${value}" != "''" ]; then
+    echo "${value}"
+  fi
 }