[baremetal] Move salt master IP to PXE/admin
[fuel.git] / mcp / scripts / lib.sh
index 1812663..e44278e 100644 (file)
@@ -1,9 +1,16 @@
-#!/bin/bash
+#!/bin/bash -e
+##############################################################################
+# Copyright (c) 2017 Mirantis Inc., Enea AB and others.
+# All rights reserved. This program and the accompanying materials
+# are made available under the terms of the Apache License, Version 2.0
+# which accompanies this distribution, and is available at
+# http://www.apache.org/licenses/LICENSE-2.0
+##############################################################################
 #
 # Library of shell functions
 #
 
-generate_ssh_key() {
+function generate_ssh_key {
   # shellcheck disable=SC2155
   local mcp_ssh_key=$(basename "${SSH_KEY}")
   local user=${USER}
@@ -17,10 +24,10 @@ generate_ssh_key() {
   fi
 
   [ -f "${mcp_ssh_key}" ] || ssh-keygen -f "${mcp_ssh_key}" -N ''
-  install -D -o "${user}" -m 0600 "${mcp_ssh_key}" "${SSH_KEY}"
+  sudo install -D -o "${user}" -m 0600 "${mcp_ssh_key}" "${SSH_KEY}"
 }
 
-get_base_image() {
+function get_base_image {
   local base_image=$1
   local image_dir=$2
 
@@ -28,23 +35,38 @@ get_base_image() {
   wget -P "${image_dir}" -N "${base_image}"
 }
 
-cleanup_vms() {
+function cleanup_uefi {
+  # Clean up Ubuntu boot entry if cfg01, kvm nodes online from previous deploy
+  local cmd_str="ssh ${SSH_OPTS} ${SSH_SALT}"
+  [ ! "$(hostname)" = 'cfg01' ] || cmd_str='eval'
+  ${cmd_str} "sudo salt -C 'kvm* or cmp*' cmd.run \
+    \"which efibootmgr > /dev/null 2>&1 && \
+    efibootmgr | grep -oP '(?<=Boot)[0-9]+(?=.*ubuntu)' | \
+    xargs -I{} efibootmgr --delete-bootnum --bootnum {}; \
+    rm -rf /boot/efi/*\"" || true
+}
+
+function cleanup_vms {
   # clean up existing nodes
   for node in $(virsh list --name | grep -P '\w{3}\d{2}'); do
     virsh destroy "${node}"
   done
   for node in $(virsh list --name --all | grep -P '\w{3}\d{2}'); do
-    virsh undefine --nvram "${node}"
+    virsh domblklist "${node}" | awk '/^.da/ {print $2}' | \
+      xargs --no-run-if-empty -I{} sudo rm -f {}
+    virsh undefine "${node}" --remove-all-storage --nvram
   done
 }
 
-prepare_vms() {
-  local -n vnodes=$1
-  local base_image=$2
-  local image_dir=$3
+function prepare_vms {
+  local base_image=$1; shift
+  local image_dir=$1; shift
+  local vnodes=("$@")
 
+  cleanup_uefi
   cleanup_vms
   get_base_image "${base_image}" "${image_dir}"
+  # shellcheck disable=SC2016
   envsubst '${SALT_MASTER},${CLUSTER_DOMAIN}' < \
     user-data.template > user-data.sh
 
@@ -57,8 +79,8 @@ prepare_vms() {
   done
 }
 
-create_networks() {
-  local -n vnode_networks=$1
+function create_networks {
+  local vnode_networks=("$@")
   # create required networks, including constant "mcpcontrol"
   # FIXME(alav): since we renamed "pxe" to "mcpcontrol", we need to make sure
   # we delete the old "pxe" virtual network, or it would cause IP conflicts.
@@ -68,7 +90,7 @@ create_networks() {
       virsh net-undefine "${net}"
     fi
     # in case of custom network, host should already have the bridge in place
-    if [ -f "net_${net}.xml" ]; then
+    if [ -f "net_${net}.xml" ] && [ ! -d "/sys/class/net/${net}/bridge" ]; then
       virsh net-define "net_${net}.xml"
       virsh net-autostart "${net}"
       virsh net-start "${net}"
@@ -76,82 +98,77 @@ create_networks() {
   done
 }
 
-create_vms() {
-  local -n vnodes=$1
-  local -n vnodes_ram=$2
-  local -n vnodes_vcpus=$3
-  local -n vnode_networks=$4
-  local image_dir=$5
+function create_vms {
+  local image_dir=$1; shift
+  IFS='|' read -r -a vnodes <<< "$1"; shift
+  local vnode_networks=("$@")
 
   # AArch64: prepare arch specific arguments
   local virt_extra_args=""
   if [ "$(uname -i)" = "aarch64" ]; then
-    # No Cirrus VGA on AArch64, use vga std
-    virt_extra_args="$virt_extra_args --video=vga"
+    # No Cirrus VGA on AArch64, use virtio instead
+    virt_extra_args="$virt_extra_args --video=virtio"
   fi
 
   # create vms with specified options
-  for node in "${vnodes[@]}"; do
+  for serialized_vnode_data in "${vnodes[@]}"; do
+    IFS=',' read -r -a vnode_data <<< "${serialized_vnode_data}"
+
     # prepare network args
     net_args=" --network network=mcpcontrol,model=virtio"
-    if [ "${node}" = "mas01" ]; then
-      # MaaS node's 3rd interface gets connected to PXE/Admin Bridge
+    if [ "${DEPLOY_TYPE:-}" = 'baremetal' ]; then
+      # 3rd interface gets connected to PXE/Admin Bridge (cfg01, mas01)
       vnode_networks[2]="${vnode_networks[0]}"
     fi
     for net in "${vnode_networks[@]:1}"; do
-      net_type="network"
-      # in case of custom network, host should already have the bridge in place
-      if [ ! -f "net_${net}.xml" ]; then
-        net_type="bridge"
-      fi
-      net_args="${net_args} --network ${net_type}=${net},model=virtio"
+      net_args="${net_args} --network bridge=${net},model=virtio"
     done
 
     # shellcheck disable=SC2086
-    virt-install --name "${node}" \
-    --ram "${vnodes_ram[$node]}" --vcpus "${vnodes_vcpus[$node]}" \
+    virt-install --name "${vnode_data[0]}" \
+    --ram "${vnode_data[1]}" --vcpus "${vnode_data[2]}" \
     --cpu host-passthrough --accelerate ${net_args} \
-    --disk path="${image_dir}/mcp_${node}.qcow2",format=qcow2,bus=virtio,cache=none,io=native \
+    --disk path="${image_dir}/mcp_${vnode_data[0]}.qcow2",format=qcow2,bus=virtio,cache=none,io=native \
     --os-type linux --os-variant none \
     --boot hd --vnc --console pty --autostart --noreboot \
-    --disk path="${image_dir}/mcp_${node}.iso",device=cdrom \
+    --disk path="${image_dir}/mcp_${vnode_data[0]}.iso",device=cdrom \
     --noautoconsole \
     ${virt_extra_args}
   done
 }
 
-update_mcpcontrol_network() {
+function update_mcpcontrol_network {
   # set static ip address for salt master node, MaaS node
   # shellcheck disable=SC2155
   local cmac=$(virsh domiflist cfg01 2>&1| awk '/mcpcontrol/ {print $5; exit}')
   # shellcheck disable=SC2155
   local amac=$(virsh domiflist mas01 2>&1| awk '/mcpcontrol/ {print $5; exit}')
   virsh net-update "mcpcontrol" add ip-dhcp-host \
-    "<host mac='${cmac}' name='cfg01' ip='${SALT_MASTER}'/>" --live
+    "<host mac='${cmac}' name='cfg01' ip='${SALT_MASTER}'/>" --live --config
   [ -z "${amac}" ] || virsh net-update "mcpcontrol" add ip-dhcp-host \
-    "<host mac='${amac}' name='mas01' ip='${MAAS_IP}'/>" --live
+    "<host mac='${amac}' name='mas01' ip='${MAAS_IP}'/>" --live --config
 }
 
-start_vms() {
-  local -n vnodes=$1
+function start_vms {
+  local vnodes=("$@")
 
   # start vms
   for node in "${vnodes[@]}"; do
     virsh start "${node}"
-    sleep $[RANDOM%5+1]
+    sleep $((RANDOM%5+1))
   done
 }
 
-check_connection() {
+function check_connection {
   local total_attempts=60
   local sleep_time=5
-  local attempt=1
 
   set +e
   echo '[INFO] Attempting to get into Salt master ...'
 
   # wait until ssh on Salt master is available
-  while ((attempt <= total_attempts)); do
+  # shellcheck disable=SC2034
+  for attempt in $(seq "${total_attempts}"); do
     # shellcheck disable=SC2086
     ssh ${SSH_OPTS} "ubuntu@${SALT_MASTER}" uptime
     case $? in
@@ -159,12 +176,11 @@ check_connection() {
       *) echo "${attempt}/${total_attempts}> ssh server ain't ready yet, waiting for ${sleep_time} seconds ..." ;;
     esac
     sleep $sleep_time
-    ((attempt+=1))
   done
   set -e
 }
 
-parse_yaml() {
+function parse_yaml {
   local prefix=$2
   local s
   local w
@@ -172,7 +188,7 @@ parse_yaml() {
   s='[[:space:]]*'
   w='[a-zA-Z0-9_]*'
   fs="$(echo @|tr @ '\034')"
-  sed -ne "s|^\($s\)\($w\)$s:$s\"\(.*\)\"$s\$|\1$fs\2$fs\3|p" \
+  sed -e 's|---||g' -ne "s|^\($s\)\($w\)$s:$s\"\(.*\)\"$s\$|\1$fs\2$fs\3|p" \
       -e "s|^\($s\)\($w\)$s[:-]$s\(.*\)$s\$|\1$fs\2$fs\3|p" "$1" |
   awk -F"$fs" '{
   indent = length($1)/2;
@@ -184,3 +200,20 @@ parse_yaml() {
       }
   }' | sed 's/_=/+=/g'
 }
+
+function wait_for {
+  # Execute in a subshell to prevent local variable override during recursion
+  (
+    local total_attempts=$1; shift
+    local cmdstr=$*
+    local sleep_time=10
+    echo "[NOTE] Waiting for cmd to return success: ${cmdstr}"
+    # shellcheck disable=SC2034
+    for attempt in $(seq "${total_attempts}"); do
+      # shellcheck disable=SC2015
+      eval "${cmdstr}" && return 0 || true
+      echo -n '.'; sleep "${sleep_time}"
+    done
+    return 1
+  )
+}