153ce3391850bd34e03c325b62f840ff118a5451
[apex.git] / ci / deploy.sh
1 #!/bin/bash
2
3 # Deploy script to install provisioning server for OPNFV Apex
4 # author: Dan Radez (dradez@redhat.com)
5 # author: Tim Rozet (trozet@redhat.com)
6 #
7 # Based on RDO Manager http://www.rdoproject.org
8 #
9 # Pre-requisties:
10 #  - Supports 3 or 4 network interface configuration
11 #  - Target system must be RPM based
12 #  - Provisioned nodes expected to have following order of network connections (note: not all have to exist, but order is maintained):
13 #    eth0- admin network
14 #    eth1- private network (+storage network in 3 NIC config)
15 #    eth2- public network
16 #    eth3- storage network
17 #  - script assumes /24 subnet mask
18
19 set -e
20
21 ##VARIABLES
22 #reset=`tput sgr0`
23 #blue=`tput setaf 4`
24 #red=`tput setaf 1`
25 #green=`tput setaf 2`
26
27 vm_index=4
28 declare -i CNT
29 declare UNDERCLOUD
30
31 SSH_OPTIONS=(-o StrictHostKeyChecking=no -o GlobalKnownHostsFile=/dev/null -o UserKnownHostsFile=/dev/null -o LogLevel=error)
32 DEPLOY_OPTIONS=""
33 RESOURCES=/var/opt/opnfv/stack
34 CONFIG=/var/opt/opnfv
35
36 ##FUNCTIONS
37 ##verify internet connectivity
38 #params: none
39 function verify_internet {
40   if ping -c 2 8.8.8.8 > /dev/null; then
41     if ping -c 2 www.google.com > /dev/null; then
42       echo "${blue}Internet connectivity detected${reset}"
43       return 0
44     else
45       echo "${red}Internet connectivity detected, but DNS lookup failed${reset}"
46       return 1
47     fi
48   else
49     echo "${red}No internet connectivity detected${reset}"
50     return 1
51   fi
52 }
53
54 ##download dependencies if missing and configure host
55 #params: none
56 function configure_deps {
57   if ! verify_internet; then
58     echo "${red}Will not download dependencies${reset}"
59     internet=false
60   else
61     internet=true
62   fi
63
64   # ensure brbm network is configured
65   systemctl start openvswitch
66   ovs-vsctl list-br | grep brbm > /dev/null || ovs-vsctl add-br brbm
67   virsh net-list --all | grep brbm > /dev/null || virsh net-create $CONFIG/brbm-net.xml
68   virsh net-list | grep -E "brbm\s+active" > /dev/null || virsh net-start brbm
69
70   # ensure storage pool exists and is started
71   virsh pool-list --all | grep default > /dev/null || virsh pool-create $CONFIG/default-pool.xml
72   virsh pool-list | grep -Eo "default\s+active" > /dev/null || virsh pool-start default
73
74   if virsh net-list | grep default > /dev/null; then
75     num_ints_same_subnet=$(ip addr show | grep "inet 192.168.122" | wc -l)
76     if [ "$num_ints_same_subnet" -gt 1 ]; then
77       virsh net-destroy default
78       ##go edit /etc/libvirt/qemu/networks/default.xml
79       sed -i 's/192.168.122/192.168.123/g' /etc/libvirt/qemu/networks/default.xml
80       sed -i 's/192.168.122/192.168.123/g' instackenv-virt.json
81       sleep 5
82       virsh net-start default
83       virsh net-autostart default
84     fi
85   fi
86
87   if ! egrep '^flags.*(vmx|svm)' /proc/cpuinfo > /dev/null; then
88     echo "${red}virtualization extensions not found, kvm kernel module insertion may fail.\n  \
89 Are you sure you have enabled vmx in your bios or hypervisor?${reset}"
90   fi
91
92   modprobe kvm
93   modprobe kvm_intel
94
95   if ! lsmod | grep kvm > /dev/null; then
96     echo "${red}kvm kernel modules not loaded!${reset}"
97     return 1
98   fi
99
100   ##sshkeygen for root
101   if [ ! -e ~/.ssh/id_rsa.pub ]; then
102     ssh-keygen -t rsa -N "" -f ~/.ssh/id_rsa
103   fi
104
105   echo "${blue}All dependencies installed and running${reset}"
106 }
107
108 ##verify vm exists, an has a dhcp lease assigned to it
109 ##params: none 
110 function setup_instack_vm {
111   if ! virsh list --all | grep instack > /dev/null; then
112       #virsh vol-create default instack.qcow2.xml
113       virsh define $CONFIG/instack.xml
114
115       #Upload instack image
116       #virsh vol-create default --file instack.qcow2.xml
117       virsh vol-create-as default instack.qcow2 30G --format qcow2
118       virsh vol-upload --pool default --vol instack.qcow2 --file $CONFIG/stack/instack.qcow2
119
120       sleep 1 # this was to let the copy settle, needed with vol-upload?
121
122   else
123       echo "Found Instack VM, using existing VM"
124   fi
125
126   # if the VM is not running update the authkeys and start it
127   if ! virsh list | grep instack > /dev/null; then
128     echo "Injecting ssh key to instack VM"
129     virt-customize -c qemu:///system -d instack --upload ~/.ssh/id_rsa.pub:/root/.ssh/authorized_keys \
130         --run-command "chmod 600 /root/.ssh/authorized_keys && restorecon /root/.ssh/authorized_keys" \
131         --run-command "cp /root/.ssh/authorized_keys /home/stack/.ssh/" \
132         --run-command "chown stack:stack /home/stack/.ssh/authorized_keys && chmod 600 /home/stack/.ssh/authorized_keys"
133     virsh start instack
134   fi
135
136   sleep 3 # let DHCP happen
137
138   CNT=10
139   echo -n "${blue}Waiting for instack's dhcp address${reset}"
140   while ! grep instack /var/lib/libvirt/dnsmasq/default.leases > /dev/null && [ $CNT -gt 0 ]; do
141       echo -n "."
142       sleep 3
143       CNT=CNT-1
144   done
145
146   # get the instack VM IP
147   UNDERCLOUD=$(grep instack /var/lib/libvirt/dnsmasq/default.leases | awk '{print $3}' | head -n 1)
148
149   CNT=10
150   echo -en "${blue}\rValidating instack VM connectivity${reset}"
151   while ! ping -c 1 $UNDERCLOUD > /dev/null && [ $CNT -gt 0 ]; do
152       echo -n "."
153       sleep 3
154       CNT=CNT-1
155   done
156   CNT=10
157   while ! ssh -T ${SSH_OPTIONS[@]} "root@$UNDERCLOUD" "echo ''" 2>&1> /dev/null && [ $CNT -gt 0 ]; do
158       echo -n "."
159       sleep 3
160       CNT=CNT-1
161   done
162
163   # extra space to overwrite the previous connectivity output
164   echo -e "${blue}\rInstack VM has IP $UNDERCLOUD                                    ${reset}"
165
166   ssh -T ${SSH_OPTIONS[@]} "root@$UNDERCLOUD" "if ! ip a s eth1 | grep 192.0.2.1 > /dev/null; then ip a a 192.0.2.1/24 dev eth1; fi"
167   # ssh key fix for stack user
168   ssh -T ${SSH_OPTIONS[@]} "root@$UNDERCLOUD" "restorecon -r /home/stack"
169 }
170
171 ##Create virtual nodes in virsh
172 ##params: none
173 function setup_virtual_baremetal {
174   for i in $(seq 0 $vm_index); do
175     if ! virsh list --all | grep baremetalbrbm_${i} > /dev/null; then
176       if [ ! -e $CONFIG/baremetalbrbm_${i}.xml ]; then
177         define_virtual_node baremetalbrbm_${i}
178       fi
179       virsh define $CONFIG/baremetalbrbm_${i}.xml
180     else
181       echo "Found Baremetal ${i} VM, using existing VM"
182     fi
183     virsh vol-list default | grep baremetalbrbm_${i} 2>&1> /dev/null || virsh vol-create-as default baremetalbrbm_${i}.qcow2 40G --format qcow2
184   done
185 }
186
187 ##Copy over the glance images and instack json file
188 ##params: none
189 function copy_materials {
190
191   echo
192   echo "Copying configuration file and disk images to instack"
193   scp ${SSH_OPTIONS[@]} $RESOURCES/deploy-ramdisk-ironic.initramfs "stack@$UNDERCLOUD":
194   scp ${SSH_OPTIONS[@]} $RESOURCES/deploy-ramdisk-ironic.kernel "stack@$UNDERCLOUD":
195   scp ${SSH_OPTIONS[@]} $RESOURCES/ironic-python-agent.initramfs "stack@$UNDERCLOUD":
196   scp ${SSH_OPTIONS[@]} $RESOURCES/ironic-python-agent.kernel "stack@$UNDERCLOUD":
197   scp ${SSH_OPTIONS[@]} $RESOURCES/ironic-python-agent.vmlinuz "stack@$UNDERCLOUD":
198   scp ${SSH_OPTIONS[@]} $RESOURCES/overcloud-full.initrd "stack@$UNDERCLOUD":
199   scp ${SSH_OPTIONS[@]} $RESOURCES/overcloud-full.qcow2 "stack@$UNDERCLOUD":
200   scp ${SSH_OPTIONS[@]} $RESOURCES/overcloud-full.vmlinuz "stack@$UNDERCLOUD":
201   scp ${SSH_OPTIONS[@]} $CONFIG/opendaylight.yaml "stack@$UNDERCLOUD":
202
203   ## WORK AROUND
204   # when OpenDaylight lands in upstream RDO manager this can be removed
205   # apply the opendaylight patch
206   scp ${SSH_OPTIONS[@]} $CONFIG/opendaylight.patch "root@$UNDERCLOUD":
207   ssh -T ${SSH_OPTIONS[@]} "root@$UNDERCLOUD" "cd /usr/share/openstack-tripleo-heat-templates/; patch -Np1 < /root/opendaylight.patch"
208   ## END WORK AROUND
209
210   # ensure stack user on instack machine has an ssh key
211   ssh -T ${SSH_OPTIONS[@]} "stack@$UNDERCLOUD" "if [ ! -e ~/.ssh/id_rsa.pub ]; then ssh-keygen -t rsa -N '' -f ~/.ssh/id_rsa; fi"
212
213   if [ $virtual == "TRUE" ]; then
214       # fix MACs to match new setup
215       for i in $(seq 0 $vm_index); do
216         pyscript="import json
217 data = json.load(open('$CONFIG/instackenv-virt.json'))
218 print data['nodes'][$i]['mac'][0]"
219
220         old_mac=$(python -c "$pyscript")
221         new_mac=$(virsh dumpxml baremetalbrbm_$i | grep "mac address" | cut -d = -f2 | grep -Eo "[0-9a-f:]+")
222         if [ "$old_mac" != "$new_mac" ]; then
223           echo "${blue}Modifying MAC for node from $old_mac to ${new_mac}${reset}"
224           sed -i 's/'"$old_mac"'/'"$new_mac"'/' $CONFIG/instackenv-virt.json
225         fi
226       done
227
228       # upload virt json file
229       scp ${SSH_OPTIONS[@]} $CONFIG/instackenv-virt.json "stack@$UNDERCLOUD":instackenv.json
230
231       # allow stack to control power management on the hypervisor via sshkey
232       ssh -T ${SSH_OPTIONS[@]} "stack@$UNDERCLOUD" <<EOI
233 while read -r line; do
234   stack_key=\${stack_key}\\\\\\\\n\${line}
235 done < <(cat ~/.ssh/id_rsa)
236 stack_key=\$(echo \$stack_key | sed 's/\\\\\\\\n//')
237 sed -i 's~INSERT_STACK_USER_PRIV_KEY~'"\$stack_key"'~' instackenv.json
238 EOI
239       DEPLOY_OPTIONS+="--libvirt-type qemu"
240   else
241       scp ${SSH_OPTIONS[@]} $CONFIG/instackenv.json "stack@$UNDERCLOUD":
242   fi
243
244
245 # copy stack's ssh key to this users authorized keys
246 ssh -T ${SSH_OPTIONS[@]} "root@$UNDERCLOUD" "cat /home/stack/.ssh/id_rsa.pub" >> ~/.ssh/authorized_keys
247 }
248
249 ##preping it for deployment and launch the deploy
250 ##params: none
251 function undercloud_prep_overcloud_deploy {
252   # check if HA is enabled
253   if [ "$vm_index" -gt 1 ]; then
254      DEPLOY_OPTIONS+=" --control-scale 3 --compute-scale 2"
255      DEPLOY_OPTIONS+=" -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml"
256      DEPLOY_OPTIONS+="  --ntp-server pool.ntp.org"
257   fi
258
259   ssh -T ${SSH_OPTIONS[@]} "stack@$UNDERCLOUD" <<EOI
260 source stackrc
261 set -o errexit
262 echo "Uploading overcloud glance images"
263 openstack overcloud image upload
264 echo "Configuring undercloud and discovering nodes"
265 openstack baremetal import --json instackenv.json
266 openstack baremetal configure boot
267 openstack baremetal introspection bulk start
268 echo "Configuring flavors"
269 openstack flavor list | grep baremetal || openstack flavor create --id auto --ram 4096 --disk 39 --vcpus 1 baremetal
270 openstack flavor set --property "cpu_arch"="x86_64" --property "capabilities:boot_option"="local" baremetal
271 echo "Configuring nameserver on ctlplane network"
272 neutron subnet-update \$(neutron subnet-list | grep -v id | grep -v \\\\-\\\\- | awk {'print \$2'}) --dns-nameserver 8.8.8.8
273 echo "Executing overcloud deployment, this should run for an extended period without output."
274 sleep 60 #wait for Hypervisor stats to check-in to nova
275 openstack overcloud deploy --templates $DEPLOY_OPTIONS -e opendaylight.yaml
276 EOI
277
278 }
279
280 display_usage() {
281   echo -e "\n\n${blue}This script is used to deploy the Apex Installer and Provision OPNFV Target System${reset}\n\n"
282   echo -e "\nUsage:\n$0 [arguments] \n"
283   echo -e "\n   -c|--config : Full path of settings file to parse. Optional.  Will provide a new base settings file rather than the default.  Example:  --config /opt/myinventory.yml \n"
284   echo -e "\n   -r|--resources : Full path of settings file to parse. Optional.  Will provide a new base settings file rather than the default.  Example:  --config /opt/myinventory.yml \n"
285   echo -e "\n   -v|--virtual : Virtualize compute nodes instead of using baremetal. \n"
286   echo -e "\n   -p|--ping-site : site to use to verify IP connectivity from the VM when -virtual is used.  Format: -ping_site www.blah.com \n"
287   echo -e "\n   -n|--no-ha : disable High Availablility deploymnet scheme, this assumes a single controller and single compute node \n"
288 }
289
290 ##translates the command line paramaters into variables
291 ##params: $@ the entire command line is passed
292 ##usage: parse_cmd_line() "$@"
293 parse_cmdline() {
294   echo -e "\n\n${blue}This script is used to deploy the Apex Installer and Provision OPNFV Target System${reset}\n\n"
295   echo "Use -h to display help"
296   sleep 2
297
298   while [ "${1:0:1}" = "-" ]
299   do
300     echo $1
301     case "$1" in
302         -h|--help)
303                 display_usage
304                 exit 0
305             ;;
306         -c|--config)
307                 CONFIG=$2
308                 shift 2
309             ;;
310         -r|--resources)
311                 RESOURCES=$2
312                 shift 2
313             ;;
314         -v|--virtual)
315                 virtual="TRUE"
316                 shift 1
317             ;;
318         -p|--ping-site)
319                 ping_site=$2
320                 shift 2
321             ;;
322         -n|--no-ha )
323                 vm_index=1
324                 shift 1
325            ;;
326         *)
327                 display_usage
328                 exit 1
329             ;;
330     esac
331   done
332 }
333
334 ##END FUNCTIONS
335
336 main() {
337   parse_cmdline "$@"
338   configure_deps
339   setup_instack_vm
340   if [ $virtual == "TRUE" ]; then
341     setup_virtual_baremetal
342   fi
343   copy_materials
344   undercloud_prep_overcloud_deploy
345 }
346
347 main "$@"