2a434d997bc670d6092d470c74e726ddd6a89948
[joid.git] / docs / userguide / userguide.rst
1
2 Introduction
3 ============
4 This document will explain how to install OPNFV Brahmaputra with JOID including installing JOID, configuring JOID for your environment, and deploying OPNFV with different SDN solutions in HA, or non-HA mode. Prerequisites include
5
6 - An Ubuntu 14.04 LTS Server Jumphost
7 - Minimum 2 Networks per Pharos requirement
8
9         - One for the administrative network with gateway to access the Internet
10         - One for the OpenStack public network to access OpenStack instances via floating IPs
11         - JOID supports multiple isolated networks for data as well as storage based on your network requirement for OpenStack.
12
13 - Minimum 6 Physical servers for bare metal environment
14
15         - Jump Host x 1, minimum H/W configuration:
16
17                 - CPU cores: 16
18                 - Memory: 32GB
19                 - Hard Disk: 1 (250GB)
20                 - NIC: eth0 (Admin, Management), eth1 (external network)
21
22         - Control Node x 3, minimum H/W configuration:
23
24                 - CPU cores: 16
25                 - Memory: 32GB
26                 - Hard Disk: 1 (500GB)
27                 - NIC: eth0 (Admin, Management), eth1 (external network)
28
29         - Compute Node x 2, minimum H/W configuration:
30
31                 - CPU cores: 16
32                 - Memory: 32GB
33                 - Hard Disk: 1 (1TB), this includes the space for Ceph.
34                 - NIC: eth0 (Admin, Management), eth1 (external network)
35
36 **OTE**: Above configuration is minimum. For better performance and usage of the OpenStack, please consider higher specs for all nodes.
37
38 Make sure all servers are connected to top of rack switch and configured accordingly. No DHCP server should be up and configured. Configure gateways only on eth0 and eth1 networks to access the network outside your lab.
39
40 Orientation
41 ===========
42 JOID in brief
43 ^^^^^^^^^^^^^
44 JOID as Juju OPNFV Infrastructure Deployer allows you to deploy different combinations of OpenStack release and SDN solution in HA or non-HA mode. For OpenStack, JOID supports Juno and Liberty. For SDN, it supports Openvswitch, OpenContrail, OpenDayLight, and ONOS. In addition to HA or non-HA mode, it also supports deploying from the latest development tree.
45
46 JOID heavily utilizes the technology developed in Juju and MAAS. Juju is a state-of-the-art, open source, universal model for service oriented architecture and service oriented deployments. Juju allows you to deploy, configure, manage, maintain, and scale cloud services quickly and efficiently on public clouds, as well as on physical servers, OpenStack, and containers. You can use Juju from the command line or through its powerful GUI. MAAS (Metal-As-A-Service) brings the dynamism of cloud computing to the world of physical provisioning and Ubuntu. Connect, commission and deploy physical servers in record time, re-allocate nodes between services dynamically, and keep them up to date; and in due course, retire them from use. In conjunction with the Juju service orchestration software, MAAS will enable you to get the most out of your physical hardware and dynamically deploy complex services with ease and confidence.
47
48 For more info on Juju and MAAS, please visit https://jujucharms.com/ and http://maas.ubuntu.com.
49
50 Typical JOID Setup
51 ^^^^^^^^^^^^^^^^^^
52 The MAAS server is installed and configured in a VM on the Ubuntu 14.04 LTS Jump Host with access to the Internet. Another VM is created to be managed by MAAS as a bootstrap node for Juju. The rest of the resources, bare metal or virtual, will be registered and provisioned in MAAS. And finally the MAAS environment details are passed to Juju for use.
53
54 <A MUST: Add a diagram, like one at https://wiki.opnfv.org/copper/academy>
55
56 Installation
57 ============
58 We will use MAAS-deployer to automate the deployment of MAAS clusters for use as a Juju provider. MAAS-deployer uses a set of configuration files and simple commands to build a MAAS cluster using virtual machines for the region controller and bootstrap hosts and automatically commission nodes as required so that the only remaining step is to deploy services with Juju. For more information about the maas-deployer, please see https://launchpad.net/maas-deployer.
59
60 Configuring the Jump Host
61 ^^^^^^^^^^^^^^^^^^^^^^^^^
62 Let's get started on the Jump Host node.
63
64 The MAAS server is going to be installed and configured in a virtual machine. We need to create bridges on the Jump Host prior to setting up the MAAS-deployer.
65
66 **OTE**: For all the commands in this document, please do not use a ‘root’ user account to run. Please create a non root user account. We recommend using the ‘ubuntu’ user.
67
68 Install the bridge-utils package on the Jump Host and configure a minimum of two bridges, one for the Admin network, the other for the Public network:
69
70 ::
71
72         $ sudo apt-get install bridge-utils
73
74         $ cat /etc/network/interfaces
75         # This file describes the network interfaces available on your system
76         # and how to activate them. For more information, see interfaces(5).
77
78         # The loopback network interface
79         auto lo
80         iface lo inet loopback
81
82         iface p1p1 inet manual
83
84         auto brAdm
85         iface brAdm inet static
86             address 172.16.50.51
87             netmask 255.255.255.0
88             bridge_ports p1p1
89
90         iface p1p2 inet manual
91
92         auto brPublic
93         iface brPublic inet static
94             address 10.10.15.1
95             netmask 255.255.240.0
96             gateway 10.10.10.1
97             dns-nameservers 8.8.8.8
98             bridge_ports p1p2
99
100 **NOTE**: If you choose to use separate networks for management, data, and storage, then you need to create a bridge for each interface. In case of VLAN tags, make the appropriate network on jump-host depend upon VLAN ID on the interface.
101
102 **NOTE**: The Ethernet device names can vary from one installation to another. Please change the Ethernet device names according to your environment.
103
104 MAAS-deployer has been integrated in the JOID project. To get the JOID code, please run
105
106 ::
107
108         $ sudo apt-get install git
109         $ git clone https://gerrit.opnfv.org/gerrit/p/joid.git
110
111 Setting Up Your Environment for JOID
112 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
113 To set up your own environment, create a directory in joid/ci/maas/<company name>/<pod number>/ and copy an existing JOID environment over. For example:
114
115 ::
116
117         $ cd joid/ci
118         $ mkdir -p maas/myown/pod
119         $ cp maas/juniper/pod1/deployment.yaml maas/myown/pod/
120
121 Now let's configure MAAS-deployer by editing the deployment.yaml file. Let's review each section. We will use the Juniper pod deployment.yaml as an example.
122
123 ::
124
125         # This file defines the deployment for the MAAS environment which is to be
126         # deployed and automated.
127         demo-maas:
128             maas:
129                 # Defines the general setup for the MAAS environment, including the
130                 # username and password for the host as well as the MAAS server.
131                 user: ubuntu
132                 password: ubuntu
133
134 'demo-maas' is the environment name we set, it will be used by Juju. The username and password will be the login credentials for the MAAS server VM and also for the MAAS server web UI.
135
136 ::
137
138                 # Contains the virtual machine parameters for creating the MAAS virtual
139                 # server. Here you can configure the name of the virsh domain, the
140                 # parameters for how the network is attached.
141                 name: opnfv-maas-juniper
142                 interfaces: ['bridge=brAdm,model=virtio', 'bridge=brPublic,model=virtio']
143                 memory: 4096
144                 vcpus: 1
145                 arch: amd64
146                 pool: default
147                 disk_size: 160G
148
149 When it's configured, you will see a KVM VM created and named 'opnfv-maas-juniper' on the Jump Host with 2 network interfaces configured and connected to brAdm and brPublic on the host. You may want to increase the vcpu number and disk size for the VM depending on the resources.
150
151 ::
152
153                 # Apt http proxy setting(s)
154                 apt_http_proxy:
155
156                 apt_sources:
157                   - ppa:maas/stable
158                   - ppa:juju/stable
159
160 If in your environment uses an http proxy, please enter its information here. In addition, add the MAAS and Juju PPA locations here.
161
162 ::
163
164                 # Virsh power settings
165                 # Specifies the uri and keys to use for virsh power control of the
166                 # juju virtual machine. If the uri is omitted, the value for the
167                 # --remote is used. If no power settings are desired, then do not
168                 # supply the virsh block.
169                 virsh:
170                     rsa_priv_key: /home/ubuntu/.ssh/id_rsa
171                     rsa_pub_key: /home/ubuntu/.ssh/id_rsa.pub
172                     uri: qemu+ssh://ubuntu@172.16.50.51/system
173
174                 # Defines the IP Address that the configuration script will use
175                 # to access the MAAS controller via SSH.
176                 ip_address: 172.16.50.50
177
178 This section defines MAAS server IP (172.16.50.50) and the virsh power settings. The Juju bootstrap VM is defined later.
179
180 ::
181
182                 # This section allows the user to set a series of options on the
183                 # MAAS server itself. The list of config options can be found in
184                 # the upstream MAAS documentation:
185                 #  - http://maas.ubuntu.com/docs/api.html#maas-server
186                 settings:
187                     main_archive: http://us.archive.ubuntu.com/ubuntu
188                     upstream_dns: 8.8.8.8
189                     maas_name: juniperpod1
190                     # kernel_opts: "console=tty0 console=ttyS1,115200n8"
191                     # ntp_server: ntp.ubuntu.com
192
193 Here we specify some settings for the MAAS server itself. Once MAAS is deployed, you will find these settings on http://172.16.50.50/MAAS/settings/.
194
195 ::
196
197                 # This section is used to define the networking parameters for when
198                 # the node first comes up. It is fed into the meta-data cloud-init
199                 # configuration and is used to configure the networking piece of the
200                 # service. The contents of this section are written directly to the
201                 # /etc/network/interfaces file.
202                 #
203                 # Please note, this is slightly different than the
204                 # node-group-interfaces section below. This will configure the
205                 # machine's networking params, and the node-group-interfaces will
206                 # configure the maas node-group interfaces which is used for
207                 # controlling the dhcp, dns, etc.
208                 network_config: |
209                     auto lo
210                     iface lo inet loopback
211
212                     auto eth0
213                     iface eth0 inet static
214                     address 172.16.50.50
215                     netmask 255.255.255.0
216                     network 172.16.50.0
217                     broadcast 172.16.50.255
218                     dns-nameservers 8.8.8.8 127.0.0.1
219
220                     auto eth1
221                     iface eth1 inet static
222                     address 10.10.15.50
223                     netmask 255.255.240.0
224                     network 10.10.0.0
225                     broadcast 10.10.15.255
226                     gateway 10.10.10.1
227
228 This section defines the MAAS server's network interfaces. Once MAAS is deployed, you will find this setting at /etc/network/interfaces in the MAAS VM.
229
230 ::
231
232                 # The node-group-interfaces section is used to configure the MAAS
233                 # network interfaces. Basic configuration is supported, such as which
234                 # device should be bound, the range of IP addresses, etc.
235                 # Note: this may contain the special identifiers:
236                 #   ${maas_net} - the first 3 octets of the ipv4 address
237                 #   ${maas_ip} - the ip address of the MAAS controller
238                 node_group_ifaces:
239                     - device: eth0
240                       ip: 172.16.50.50
241                       subnet_mask: 255.255.255.0
242                       broadcast_ip: 172.16.50.255
243                       router_ip: 172.16.50.50
244                       static_range:
245                           low: 172.16.50.60
246                           high: 172.16.50.90
247                       dynamic_range:
248                           low: 172.16.50.91
249                           high: 172.16.50.254
250
251 This section configures the MAAS cluster controller. Here it configures the MAAS cluster to provide DHCP and DNS services on the eth0 interface with dynamic and static IP ranges defined. You should allocate enough IP addresses for bare metal hosts in the static IP range, and allocate as many as possible in the dynamic IP range.
252
253 ::
254
255                 # Defines the physical nodes which are added to the MAAS cluste
256                 # controller upon startup of the node.
257                 nodes:
258                     - name: 2-R4N4B2-control
259                       tags: control
260                       architecture: amd64/generic
261                       mac_addresses:
262                           - "0c:c4:7a:16:2a:70"
263                       power:
264                           type: ipmi
265                           address: 10.10.7.92
266                           user: ADMIN
267                           pass: ADMIN
268                           driver: LAN_2_0
269
270                     - name: 3-R4N3B1-compute
271                       tags: compute
272                       architecture: amd64/generic
273                       mac_addresses:
274                           - "0c:c4:7a:53:57:c2"
275                       power:
276                           type: ipmi
277                           address: 10.10.7.84
278                           user: ADMIN
279                           pass: ADMIN
280                           driver: LAN_2_0
281                 <snip>
282
283 This section defines the physical nodes to be added to the MAAS cluster controller. For example, the first node here is named ‘2-R4N4B2-control’, with a tag 'control' and architecture specified as amd64/generic. You will need to know the MAC address of the network interface of the node where it can reach MAAS server; it's the network interface of the node to PXE boot on. You need to tell MAAS how to power control the node by providing the the BMC IP address and BMC admin credentials. MAAS power control not only supports IPMI v2.0, but also supports virsh, Cisco UCS manager, HP moonshot iLO, and Microsoft OCS, among others. Tag is used here with Juju constraints to make sure that a particular service gets deployed only on hardware with the tag you created. Later when we go through the Juju deploy bundle, you will see the constraints setting.
284
285 ::
286
287             # Contains the virtual machine parameters for creating the Juju bootstrap
288             # node virtual machine
289             juju-bootstrap:
290                 name: bootstrap
291                 interfaces: ['bridge=brAdm,model=virtio', 'bridge=brPublic,model=virtio']
292                 memory: 4096
293                 vcpus: 2
294                 arch: amd64
295                 pool: default
296                 disk_size: 120G
297
298 The last section of the example deployment.yaml file defines the Juju bootstrap VM node. When it's configured, you will see a KVM VM created and named 'juju-boostrap' on the Jump Host with 2 network interfaces configured and connected to brAdm and brPublic on the host. You may want to increase the vcpu number and disk size for the VM depending on the resources.
299
300 We are now done providing all the information regarding the MAAS VM and Juju VM, and how nodes and how many of them will be registered in MAAS. This information is very important, if you have questions, please hop on to #opnfv-joid IRC channel on freenode to ask.
301
302 Next we will use the 02-maasdeploy.sh in joid/ci to kick off maas-deployer. Before we do that, we will create an entry to tell maas-deployer what deployment.yaml file to use. Use your favorite editor to add an entry under the section case $1. In our example, this is what we add::
303
304     'juniperpod1' )
305         cp maas/juniper/pod1/deployment.yaml ./deployment.yaml
306         ;;
307
308 **NOTE**: If your username is different from ‘ubuntu’, please change the ssh key section accordingly::
309
310         #just make sure the ssh keys are added into maas for the current user
311         sed --i "s@/home/ubuntu@$HOME@g" ./deployment.yaml
312         sed --i "s@qemu+ssh://ubuntu@qemu+ssh://$USER@g" ./deployment.yaml
313
314 Starting MAAS-deployer
315 ^^^^^^^^^^^^^^^^^^^^^^
316 Now run the 02-maasdeploy.sh script with the environment you just created
317
318 ::
319
320         ~/joid/ci$ ./02-maasdeploy.sh juniperpod1
321
322 This will take approximately 40 minutes to couple of hours depending on your environment. This script will do the following:
323 1. Create 2 VMs (KVM).
324 2. Install MAAS in one of the VMs.
325 3. Configure MAAS to enlist and commission a VM for Juju bootstrap node.
326 4. Configure MAAS to enlist and commission bare metal servers.
327
328 When it's done, you should be able to view the MAAS webpage (in our example http://172.16.50.50/MAAS) and see 1 bootstrap node and bare metal servers in the 'Ready' state on the nodes page.
329
330 Here is an example output of running 02-maasdeploy.sh: http://pastebin.ubuntu.com/15117137/
331
332 Troubleshooting MAAS deployer
333 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
334 During the installation process, please carefully review the error messages.
335
336 Join IRC channel #opnfv-joid on freenode to ask question. After the issues are resolved, re-running 02-maasdeploy.sh will clean up the VMs created previously. There is no need to manually undo what’s been done.
337
338 Deploying OPNFV
339 ^^^^^^^^^^^^^^^
340 JOID allows you to deploy different combinations of OpenStack release and SDN solution in HA or non-HA mode. For OpenStack, it supports Juno and Liberty. For SDN, it supports Open vSwitch, OpenContrail, OpenDaylight and ONOS (Open Network Operating System). In addition to HA or non-HA mode, it also supports deploying the latest from the development tree (tip).
341
342 The deploy.sh script in the joid/ci directoy will do all the work for you. For example, the following deploys OpenStack Liberty with OpenDaylight in a HA mode in the Intelpod7.
343
344 ::
345
346         ~/joid/ci$  ./deploy.sh -o liberty -s odl -t ha -l intelpod7 -f none
347
348 **NOTE: You will need to modify ~/joid/ci/01-deploybundle.sh to deploy to your own environment, explained later.**
349
350 Take a look at the deploy.sh script. You will find we support the following for each option::
351
352         [-s]
353           nosdn: Open vSwitch.
354           odl: OpenDayLight Lithium version.
355           opencontrail: OpenContrail.
356           onos: ONOS framework as SDN.
357         [-t]
358           nonha: NO HA mode of OpenStack.
359           ha: HA mode of OpenStack.
360           tip: The tip of the development.
361         [-o]
362           juno: OpenStack Juno version.
363           liberty: OpenStack Liberty version.
364         [-l]
365           default: For virtual deployment where installation will be done on KVM created using ./02-maasdeploy.sh
366           intelpod5: Install on bare metal OPNFV pod5 of the Intel lab.
367           intelpod6: Install on bare metal OPNFV pod6 of the Intel lab.
368           orangepod2: Install on bare metal OPNFV pod2 of the Orange lab.
369           (other pods)
370           Note: if you make changes as per your pod above then please use your pod.
371         [-f]
372           none: no special feature will be enabled.
373           ipv6: IPv6 will be enabled for tenant in OpenStack.
374
375 The script will call 00-bootstrap.sh to bootstrap the Juju VM node, then it will call 01-deploybundle.sh with the corrosponding parameter values.
376
377 ::
378
379         ./01-deploybundle.sh $opnfvtype $openstack $opnfvlab $opnfvsdn $opnfvfeature
380
381 You will notice in the 01-deploybundle.sh, it copies over the charm bundle file based on the ha/nonha/tip setting::
382
383         case "$1" in
384             'nonha' )
385                 cp $4/juju-deployer/ovs-$4-nonha.yaml ./bundles.yaml
386                 ;;
387             'ha' )
388                 cp $4/juju-deployer/ovs-$4-ha.yaml ./bundles.yaml
389                 ;;
390             'tip' )
391                 cp $4/juju-deployer/ovs-$4-tip.yaml ./bundles.yaml
392                 cp common/source/* ./
393                 sed -i -- "s|branch: master|branch: stable/$2|g" ./*.yaml
394                 ;;
395             * )
396                 cp $4/juju-deployer/ovs-$4-nonha.yaml ./bundles.yaml
397                 ;;
398         esac
399
400 After the respective yaml file is copied over and renamed to bundle.yaml, in the next section, it will update the bundle.yaml based on your network configuration and environment. For example, for the Juniper pod 1, we need to change vip suffix from 10.4.1.1 to 172.16.50.1, which is our admin network, and eth1 is on the public network.
401
402 ::
403
404              'juniperpod1' )
405                  sed -i -- 's/10.4.1.1/172.16.50.1/g' ./bundles.yaml
406                  sed -i -- 's/#ext-port: "eth1"/ext-port: "eth1"/g' ./bundles.yaml
407                  ;;
408
409 **NOTE**: If you are using a separate data network, then add this line below along with other changes, which signify that network 10.4.9.0/24 will be used as the data network for openstack.
410
411 ::
412
413         sed -i -- 's/#os-data-network: 10.4.8.0\/21/os-data-network: 10.4.9.0\/24/g' ./bundles.yaml
414
415 By default debug is enabled in the deploy.sh script and error messages will be printed on the SSH terminal where you are running the scripts. It could take an hour to a couple of hours (maximum) to complete. Here is an example output of the deployment: http://pastebin.ubuntu.com/15006924/
416
417 You can check the status of the deployment by running this command in another terminal::
418
419         $ watch juju status --format tabular
420
421 This will refresh the juju status output in tabular format every 2 seconds. Here is an example output of juju status --format tabular: http://pastebin.ubuntu.com/15134109/
422
423 Next we will show you what Juju is deploying and to where, and how you can modify based on your own needs.
424
425 OPNFV Juju Charm Bundles
426 ^^^^^^^^^^^^^^^^^^^^^^^^
427 The magic behind Juju is a collection of software components called charms. They contain all the instructions necessary for deploying and configuring cloud-based services. The charms publicly available in the online Charm Store represent the distilled DevOps knowledge of experts.
428
429 A bundle is a set of services with a specific configuration and their corresponding relations that can be deployed together in a single step. Instead of deploying a single service, they can be used to deploy an entire workload, with working relations and configuration. The use of bundles allows for easy repeatability and for sharing of complex, multi-service deployments.
430
431 For OPNFV, we have collected the charm bundles for each SDN deployment. They are stored in each SDN directory in ~/joid/ci. In each SDN folder, there are 3 bundle.yaml files, one for HA, one for non-HA, and the other for tip. For example for OpenDaylight::
432
433         ~/joid/ci/odl/juju-deployer$ ls
434         ovs-odl-ha.yaml  ovs-odl-nonha.yaml  ovs-odl-tip.yaml  scripts
435         ~/joid/ci/odl/juju-deployer$
436
437 We use Juju-deployer to deploy a set of charms via a yaml configuration file. You can find the complete format guide for the Juju-deployer configuration file here: http://pythonhosted.org/juju-deployer/config.html
438
439 Let’s take a quick look at the ovs-odl-nonha.yaml to give you an idea about the charm bundle. 
440
441 Assuming we are deploying OpenDayling with OpenStack Liberty in non-HA mode, according to the deploy.sh, we know it will run these two commands::
442
443         juju-deployer -vW -d -t 3600 -c bundles.yaml trusty-liberty-nodes
444         juju-deployer -vW -d -t 7200 -r 5 -c bundles.yaml trusty-liberty
445
446 In the ovs-odl-nonha.yaml file, find the section of ‘trusty-liberty-nodes’ close to the bottom of the file::
447
448         trusty-liberty-nodes:
449           inherits: openstack-phase1
450           overrides:
451             series: trusty
452
453 It inherits ‘openstack-phase1’, which you will find in the beginning of the file::
454
455         openstack-phase1:
456           series: trusty
457           services:
458             nodes-api:
459               charm: "cs:trusty/ubuntu"
460               num_units: 1
461               constraints: tags=control
462             nodes-compute:
463               charm: "cs:trusty/ubuntu"
464               num_units: 1
465               constraints: tags=compute
466             ntp:
467               charm: "cs:trusty/ntp"
468           relations:
469             - - "ntp:juju-info"
470               - "nodes-api:juju-info"
471             - - "ntp:juju-info"
472               - "nodes-compute:juju-info"
473
474 In the ‘services’ subsection, here we deploy the ‘Ubuntu Trusty charm from the charm store,’ name the service ‘nodes-api,’ deploy just one unit, and assign a tag of ‘control’ to this service. You can deploy the same charm and name it differently such as the second service ‘nodes-compute.’ The third service we deploy is named ‘ntp’ and is deployed from the NTP Trusty charm from the Charm Store. The NTP charm is a subordinate charm, which is designed for and deployed to the running space of another service unit.
475
476 The tag here is related to what we define in the deployment.yaml file for the MAAS-deployer. When ‘constraints’ is set, Juju will ask its provider, in this case MAAS, to provide a resource with the tags. In this case, Juju is asking one resource tagged with control and one resource tagged with compute from MAAS. Once the resource information is passed to Juju, Juju will start the installation of the specified version of Ubuntu.
477
478 In the next subsection, we define the relations between the services. The beauty of Juju and charms is you can define the relation of two services and all the service units deployed will set up the relations accordingly. This makes scaling out a very easy task. Here we add the relation between NTP and the two bare metal services.
479
480 Once the relations are established, Juju-deployer considers the deployment complete and moves to the next.
481
482 ::
483
484         juju-deployer -vW -d -t 7200 -r 5 -c bundles.yaml trusty-liberty
485
486 It will start at the ‘trusty-liberty’ section, which inherits the ‘contrail’ section, which inherits the ‘openstack-phase2’ section. it follows the same services and relations format as above. We will take a look at another common service configuration next.
487
488 ::
489
490             nova-cloud-controller:
491               branch: lp:~openstack-charmers/charms/trusty/nova-cloud-controller/next
492               num_units: 1
493               options:
494                 network-manager: Neutron
495               to:
496                 - "lxc:nodes-api=0"
497
498 We define a service name ‘nova-cloud-controller,’ which is deployed from the next branch of the nova-cloud-controller Trusty charm hosted on the Launchpad openstack-charmers team. The number of units to be deployed is 1. We set the network-manager option to ‘Neutron.’ This 1-service unit will be deployed to a LXC container at service ‘nodes-api’ unit 0. 
499
500 To find out what other options there are for this particular charm, you can go to the code location at http://bazaar.launchpad.net/~openstack-charmers/charms/trusty/nova-cloud-controller/next/files and the options are defined in the config.yaml file.
501
502 Once the service unit is deployed, you can see the current configuration by running juju get::
503
504         $ juju get nova-cloud-controller
505
506 You can change the value with juju set, for example::
507
508         $ juju set nova-cloud-controller network-manager=’FlatManager’
509
510 Charms encapsulate the operation best practices. The number of options you need to configure should be at the minimum. The Juju Charm Store is a great resource to explore what a charm can offer you. Following the nova-cloud-controller charm example, here is the main page of the recommended charm on the Charm Store: https://jujucharms.com/nova-cloud-controller/trusty/66
511
512 If you have any questions regarding Juju, please join the IRC channel #opnfv-joid on freenode for JOID related questions or #juju for general questions.
513
514 Testing Your Deployment
515 ^^^^^^^^^^^^^^^^^^^^^^^
516 Once juju-deployer is complete, use juju status --format tabular to verify that all deployed units are in the ready state.
517
518 Find the Openstack-dashboard IP address from the juju status output, and see if you can login via a web browser. The username and password is admin/openstack.
519
520 Optionally, see if you can log in to the Juju GUI. The Juju GUI is on the Juju bootstrap node, which is the second VM you define in the 02-maasdeploy.sh file. The username and password is admin/admin.
521
522 If you deploy OpenDaylight, OpenContrail or ONOS, find the IP address of the web UI and login. Please refer to each SDN bundle.yaml for the login username/password.
523
524 Troubleshooting
525 ^^^^^^^^^^^^^^^
526 Logs are indispensable when it comes time to troubleshoot. If you want to see all the service unit deployment logs, you can run juju debug-log in another terminal. The debug-log command shows the consolidated logs of all Juju agents (machine and unit logs) running in the environment.
527
528 To view a single service unit deployment log, use juju ssh to access to the deployed unit. For example to login into nova-compute unit and look for /var/log/juju/unit-nova-compute-0.log for more info.
529
530 ::
531
532         $ juju ssh nova-compute/0
533
534 Example::
535
536         ubuntu@R4N4B1:~$ juju ssh nova-compute/0
537         Warning: Permanently added '172.16.50.60' (ECDSA) to the list of known hosts.
538         Warning: Permanently added '3-r4n3b1-compute.maas' (ECDSA) to the list of known hosts.
539         Welcome to Ubuntu 14.04.1 LTS (GNU/Linux 3.13.0-77-generic x86_64)
540
541         * Documentation:  https://help.ubuntu.com/
542         <skipped>
543         Last login: Tue Feb  2 21:23:56 2016 from bootstrap.maas
544         ubuntu@3-R4N3B1-compute:~$ sudo -i
545         root@3-R4N3B1-compute:~# cd /var/log/juju/
546         root@3-R4N3B1-compute:/var/log/juju# ls
547         machine-2.log  unit-ceilometer-agent-0.log  unit-ceph-osd-0.log  unit-neutron-contrail-0.log  unit-nodes-compute-0.log  unit-nova-compute-0.log  unit-ntp-0.log
548         root@3-R4N3B1-compute:/var/log/juju#
549
550 **NOTE**: By default Juju will add the Ubuntu user keys for authentication into the deployed server and only ssh access will be available.
551
552 Once you resolve the error, go back to the jump host to rerun the charm hook with::
553
554         $ juju resolved --retry <unit>
555
556 If you would like to start over, run juju destroy-environment <environment name> to release the resources, then you can run deploy.sh again.
557
558 ::
559
560         $ juju destroy-environment demo-maas
561         WARNING! this command will destroy the "demo-maas" environment (type: maas)
562         This includes all machines, services, data and other resources.
563
564         Continue [y/N]? y
565         $
566
567 If there is an error destroying the environment, use --force.
568
569 ::
570
571         $ juju destroy-environment demo-maas --force
572         $
573
574 If the above command hangs, use Ctrl-C to get out of it, and manually remove the environment file in the ~/.juju/environments/ directory.
575
576 ::
577
578         $ ls ~/.juju/environments/
579         demo-maas.jenv
580         $ sudo rm ~/.juju/environments/demo-maas.jenv
581         $
582
583
584 The following are the common issues we have collected from the community:
585
586 - The right variables are not passed as part of the deployment procedure.
587
588 ::
589
590              ./deploy.sh -o liberty -s odl -t ha -l intelpod5 -f none
591
592 - If you have setup maas not with 02-maasdeply.sh then the ./clean.sh command could hang, the juju status command may hang because the correct MAAS API keys are not listed in environments.yaml, or environments.yaml does not exist in the current working directory. Solution: Please make sure you have an environments.yaml file under joid/ci directory and the correct MAAS API key has been listed.
593 - Deployment times out:
594       use the command juju status --format=tabular and make sure all service containers receive an IP address and they are executing code. Ensure there is no service in the error state.
595 - In case the cleanup process hangs,remove the files from the ~/.juju/ directory except environments.yaml and shutdown all nodes manually.
596
597 Post Installation Configuration
598 ===============================
599 Configuring OpenStack
600 ^^^^^^^^^^^^^^^^^^^^^
601 At the end of the deployment, the admin-openrc with OpenStack login credentials will be created for you. You can source the file and start configuring OpenStack via CLI.
602
603 ::
604
605         ~/joid/ci/cloud$ cat admin-openrc
606         export OS_USERNAME=admin
607         export OS_PASSWORD=openstack
608         export OS_TENANT_NAME=admin
609         export OS_AUTH_URL=http://172.16.50.114:5000/v2.0
610         export OS_REGION_NAME=Canonical
611         ~/joid/ci/cloud$
612
613 We have prepared some scripts to help your configure the OpenStack cloud that you just deployed. In each SDN directory, for example joid/ci/opencontrail, there is a ‘scripts’ folder where you can find the scripts. These scripts are created to help you configure a basic OpenStack Cloud to verify the cloud. For more information on OpenStack Cloud configuration, please refer to the OpenStack Cloud Administrator Guide: http://docs.openstack.org/user-guide-admin/. Similarly, for complete SDN configuration, please refer to the respective SDN administrator guide.
614
615 Each SDN solution requires slightly different setup. Please refer to the README in each SDN folder. Most likely you will need to modify the openstack.sh and cloud-setup.sh scripts for the floating IP range, private IP network, and SSH keys. Please go through openstack.sh, glance.sh and cloud-setup.sh and make changes as you see fit.
616
617 Let’s take a look at those for the Open vSwitch and briefly go through each script so you know what you need to change for your own environment.
618
619 ::
620
621         ~/joid/ci/nosdn/juju-deployer/scripts$ ls
622         cloud-setup.sh  glance.sh  openstack.sh
623         ~/joid/ci/nosdn/juju-deployer/scripts$
624
625 openstack.sh
626 ~~~~~~~~~~~~
627 Let’s first look at ‘openstack.sh’. First there are 3 functions defined, configOpenrc(), unitAddress(), and unitMachine(). 
628
629 ::
630
631         configOpenrc()
632         {
633                 cat <<-EOF
634                         export OS_USERNAME=$1
635                         export OS_PASSWORD=$2
636                         export OS_TENANT_NAME=$3
637                         export OS_AUTH_URL=$4
638                         export OS_REGION_NAME=$5
639                         EOF
640         }
641
642         unitAddress()
643         {
644                 juju status | python -c "import yaml; import sys; print yaml.load(sys.stdin)[\"services\"][\"$1\"][\"units\"][\"$1/$2\"][\"public-address\"]" 2> /dev/null
645         }
646
647         unitMachine()
648         {
649                 juju status | python -c "import yaml; import sys; print yaml.load(sys.stdin)[\"services\"][\"$1\"][\"units\"][\"$1/$2\"][\"machine\"]" 2> /dev/null
650         }
651
652 The function configOpenrc() creates the OpenStack login credentials, the function unitAddress() finds the IP address of the unit, and the function unitMachine() finds the machine info of the unit.
653
654 ::
655
656         mkdir -m 0700 -p cloud
657         controller_address=$(unitAddress keystone 0)
658         configOpenrc admin openstack admin http://$controller_address:5000/v2.0 Canonical > cloud/admin-openrc
659         chmod 0600 cloud/admin-openrc
660
661 This creates a folder named ‘cloud’, finds the IP address of the keystone unit 0, feeds in the OpenStack admin credentials to a new file name ‘admin-openrc’ in the ‘cloud’ folder and change the permission of the file. It’s important to change the credentials here if you use a different password in the deployment Juju charm bundle.yaml.
662
663 ::
664
665         machine=$(unitMachine glance 0)
666         juju scp glance.sh cloud/admin-openrc $machine:
667         juju run --machine $machine ./glance.sh
668
669 This section first finds the machine ID of the glance service unit 0, transfers the glance.sh and admin-openrc files over to the glance unit 0, and then run the glance.sh in the glance unit 0. We will take a look at the glance.sh in the next section.
670
671 ::
672
673         machine=$(unitMachine nova-cloud-controller 0)
674         juju scp cloud-setup.sh cloud/admin-openrc ~/.ssh/id_rsa.pub $machine:
675         juju run --machine $machine ./cloud-setup.sh
676
677 This section first finds the the machine ID of the nova-cloud-controller service unit 0, transfers 3 files over to the nova-cloud-controller unit 0, and then runs the cloud-setup.sh in the nova-cloud-controller unit 0. We will take a look at the cloud-setup.sh following glance.sh.
678
679 glance.sh
680 ~~~~~~~~~
681
682 ::
683
684         . ~/admin-openrc
685
686 First, this script sources the admin-openrc file.
687
688 ::
689
690         wget -P /tmp/images http://download.cirros-cloud.net/0.3.3/cirros-0.3.3-x86_64-disk.img
691         wget -P /tmp/images http://cloud-images.ubuntu.com/trusty/current/trusty-server-cloudimg-amd64-disk1.img
692
693 Download two images, Cirros and Ubuntu Trusty cloud image to /tmp/images folder.
694
695 ::
696
697         glance image-create --name "cirros-0.3.3-x86_64" --file /tmp/images/cirros-0.3.3-x86_64-disk.img --disk-format qcow2 --container-format bare --progress
698         glance image-create --name "ubuntu-trusty-daily" --file /tmp/images/trusty-server-cloudimg-amd64-disk1.img --disk-format qcow2 --container-format bare --progress
699         rm -rf /tmp/images
700
701 Use the glance python client to upload those two images, and finally remove those images from the local file system.
702
703 If you wish to use different images, please change the image download links and filenames here accordingly. 
704
705 **NOTE**: The image downloading and uploading might take too long and time out. In this case, use juju ssh glance/0 to log in to the glance unit 0 and run the script again, or manually run the glance commands.
706
707 cloud-setup.sh
708 ~~~~~~~~~~~~~~
709
710 ::
711
712         . ~/admin-openrc
713
714 First, source the the admin-openrc file.
715
716 ::
717
718         # adjust tiny image
719         nova flavor-delete m1.tiny
720         nova flavor-create m1.tiny 1 512 8 1
721
722 Adjust the tiny image profile as the default tiny instance is too small for Ubuntu.
723
724 ::
725
726         # configure security groups
727         neutron security-group-rule-create --direction ingress --ethertype IPv4 --protocol icmp --remote-ip-prefix 0.0.0.0/0 default
728         neutron security-group-rule-create --direction ingress --ethertype IPv4 --protocol tcp --port-range-min 22 --port-range-max 22 --remote-ip-prefix 0.0.0.0/0 default
729
730 Open up the ICMP and SSH access in the default security group.
731
732 ::
733         # import key pair
734         keystone tenant-create --name demo --description "Demo Tenant"
735         keystone user-create --name demo --tenant demo --pass demo --email demo@demo.demo
736
737         nova keypair-add --pub-key id_rsa.pub ubuntu-keypair
738
739 Create a project called ‘demo’ and create a user called ‘demo’ in this project. Import the key pair.
740
741 ::
742         # configure external network
743         neutron net-create ext-net --router:external --provider:physical_network external --provider:network_type flat --shared
744         neutron subnet-create ext-net --name ext-subnet --allocation-pool start=10.5.8.5,end=10.5.8.254 --disable-dhcp --gateway 10.5.8.1 10.5.8.0/24
745
746 This section configures an external network ‘ext-net’ with a subnet called ‘ext-subnet’. In this subnet, the IP pool starts at 10.5.8.5 and ends at 10.5.8.254. DHCP is disabled. The gateway is at 10.5.8.1, and the subnet mask is 10.5.8.0/24. These are the public IPs that will be requested and associated to the instance. Please change the network configuration according to your environment.
747
748 ::
749         # create vm network
750         neutron net-create demo-net
751         neutron subnet-create --name demo-subnet --gateway 10.20.5.1 demo-net 10.20.5.0/24
752
753 This section creates a private network for the instances. Please change accordingly.
754
755 ::
756
757         neutron router-create demo-router
758
759         neutron router-interface-add demo-router demo-subnet
760
761         neutron router-gateway-set demo-router ext-net
762
763 This section creates a router and connects this router to the two networks we just created.
764
765 ::
766
767         # create pool of floating ips
768         i=0
769         while [ $i -ne 10 ]; do
770                 neutron floatingip-create ext-net
771                 i=$((i + 1))
772         done
773
774 Finally, the script will request 10 floating IPs.
775
776 Appendix A: Single Node Deployment
777 ==================================
778 By default, running the script ./02-maasdeploy.sh will automatically create the KVM VMs on a single machine and configure everything for you.
779
780 ::
781
782             * )
783                 virtinstall=1
784                 ./cleanvm.sh
785                 cp maas/default/deployment.yaml ./deployment.yaml
786                 ;;
787
788 Please change ~/joid/ci/maas/default/deployment.yaml accordingly. The MAAS-deployer will do the following:
789 1. Create 2 VMs (KVM).
790 2. Install MAAS in one of the VMs.
791 3. Configure MAAS to enlist and commission a VM for Juju bootstrap node.
792
793 Later, the 02-massdeploy.sh script will create two additional VMs and register them into the MAAS Server:
794
795 ::
796
797         if [ "$virtinstall" -eq 1 ]; then
798             # create two more VMs to do the deployment.
799             sudo virt-install --connect qemu:///system --name node1-control --ram 8192 --vcpus 4 --disk size=120,format=qcow2,bus=virtio,io=native,pool=default --network bridge=virbr0,model=virtio --network bridge=virbr0,model=virtio --boot network,hd,menu=off --noautoconsole --vnc --print-xml | tee node1-control
800
801             sudo virt-install --connect qemu:///system --name node2-compute --ram 8192 --vcpus 4 --disk size=120,format=qcow2,bus=virtio,io=native,pool=default --network bridge=virbr0,model=virtio --network bridge=virbr0,model=virtio --boot network,hd,menu=off --noautoconsole --vnc --print-xml | tee node2-compute
802
803             node1controlmac=`grep  "mac address" node1-control | head -1 | cut -d "'" -f 2`
804             node2computemac=`grep  "mac address" node2-compute | head -1 | cut -d "'" -f 2`
805
806             sudo virsh -c qemu:///system define --file node1-control
807             sudo virsh -c qemu:///system define --file node2-compute
808
809             maas maas tags new name='control'
810             maas maas tags new name='compute'
811
812             controlnodeid=`maas maas nodes new autodetect_nodegroup='yes' name='node1-control' tags='control' hostname='node1-control' power_type='virsh' mac_addresses=$node1controlmac power_parameters_power_address='qemu+ssh://'$USER'@192.168.122.1/system' architecture='amd64/generic' power_parameters_power_id='node1-control' | grep system_id | cut -d '"' -f 4 `
813
814             maas maas tag update-nodes control add=$controlnodeid
815
816             computenodeid=`maas maas nodes new autodetect_nodegroup='yes' name='node2-compute' tags='compute' hostname='node2-compute' power_type='virsh' mac_addresses=$node2computemac power_parameters_power_address='qemu+ssh://'$USER'@192.168.122.1/system' architecture='amd64/generic' power_parameters_power_id='node2-compute' | grep system_id | cut -d '"' -f 4 `
817
818             maas maas tag update-nodes compute add=$computenodeid
819
820         fi
821
822 Appendix B: Automatic Device Discovery
823 ======================================
824 If your bare metal servers support IPMI, they can be discovered and enlisted automatically by the MAAS server. You need to configure bare metal servers to PXE boot on the network interface where they can reach the MAAS server. With nodes set to boot from a PXE image, they will start, look for a DHCP server, receive the PXE boot details, boot the image, contact the MAAS server and shut down.
825
826 During this process, the MAAS server will be passed information about the node, including the architecture, MAC address and other details which will be stored in the database of nodes. You can accept and commission the nodes via the web interface. When the nodes have been accepted the selected series of Ubuntu will be installed.
827
828
829 Appendix C: Machine Constraints
830 ===============================
831 Juju and MAAS together allow you to assign different roles to servers, so that hardware and software can be configured according to their roles. We have briefly mentioned and used this feature in our example. Please visit Juju Machine Constraints https://jujucharms.com/docs/stable/charms-constraints and MAAS tags https://maas.ubuntu.com/docs/tags.html for more information.