Fixing the index.rst file to ensure it generates according to Colorado structure.
[joid.git] / docs / installationprocedure / installationprocedure.rst
1
2 Bare Metal Installations:
3 =========================
4
5 Requirements as per Pharos:
6 ===========================
7
8 Networking:
9 ===========
10
11 **Minimum 2 networks**
12
13 | ``1. First for Admin network with gateway to access external network``
14 | ``2. Second for public network to consume by tenants for floating ips``
15
16 **NOTE: JOID support multiple isolated networks for data as well as storage.
17 Based on your network options for Openstack.**
18
19 **Minimum 6 physical servers**
20
21 1. Jump host server:
22
23 | ``   Minimum H/W Spec needed``
24 | ``  CPU cores: 16``
25 | ``  Memory: 32 GB``
26 | ``  Hard Disk: 1(250 GB)``
27 | ``  NIC: eth0(Admin, Management), eth1 (external network)``
28
29 2. Node servers (minimum 5):
30
31 | ``  Minimum H/W Spec``
32 | ``  CPU cores: 16``
33 | ``  Memory: 32 GB``
34 | ``  Hard Disk: 1(1 TB) this includes the space for ceph as well``
35 | ``  NIC: eth0(Admin, Management), eth1 (external network)``
36
37
38 **NOTE: Above configuration is minimum and for better performance and usage of
39 the Openstack please consider higher spec for each nodes.**
40
41 Make sure all servers are connected to top of rack switch and configured accordingly. No DHCP server should be up and configured. Only gateway at eth0 and eth1 network should be configure to access the network outside your lab.
42
43 ------------------------
44 Jump node configuration:
45 ------------------------
46
47 1. Install Ubuntu 14.04 LTS server version of OS on the nodes.
48 2. Install the git and bridge-utils packages on the server and configure minimum two bridges on jump host:
49
50 brAdm and brPublic cat /etc/network/interfaces
51
52 | ``   # The loopback network interface``
53 | ``   auto lo``
54 | ``   iface lo inet loopback``
55 | ``   iface eth0 inet manual``
56 | ``   auto brAdm ``
57 | ``   iface brAdm inet static``
58 | ``       address 10.4.1.1``
59 | ``       netmask 255.255.248.0``
60 | ``       network 10.4.0.0``
61 | ``       broadcast 10.4.7.255``
62 | ``       gateway 10.4.0.1``
63 | ``       # dns-* options are implemented by the resolvconf package, if installed``
64 | ``       dns-nameservers 10.4.0.2``
65 | ``       bridge_ports eth0``
66 | ``   auto brPublic``
67 | ``   iface brPublic inet static``
68 | ``       address 10.2.66.2``
69 | ``       netmask 255.255.255.0``
70 | ``       bridge_ports eth2``
71
72 **NOTE: If you choose to use the separate network for management, data and
73 storage then you need to create bridge for each interface. In case of VLAN tags
74 use the appropriate network on jump-host depend upon VLAN ID on the interface.**
75
76
77 Configure JOID for your lab
78 ===========================
79
80 **Get the joid code from gerritt**
81
82 *git clone https://gerrit.opnfv.org/gerrit/p/joid.git*
83
84 **Enable MAAS (labconfig.yaml is must and base for MAAS installation and scenario deployment)**
85
86 If you have already enabled maas for your environment and installed it then there is no need to enabled it again or install it. If you have patches from previous MAAS enablement then you can apply it here.
87
88 NOTE: If MAAS is pre installed without 00-maasdeploy.sh then please do the following and skip rest of the step to enable MAAS.
89
90 1. Copy MAAS API key and paste in ~/.juju/environments.yaml at appropriate place.
91 2. Run command cp ~/.juju/environments.yaml ./joid/ci/
92 3. cp joid/labconfig/<company name>/<pod number>/labconfig.yaml joid/ci/
93 4. cd joid/ci
94 5. python deploy.py
95
96 If enabling first time then follow it further.
97 - Create a directory in joid/labconfig/<company name>/<pod number>/ for example
98
99 *mkdir joid/labconfig/intel/pod7/*
100
101 - copy labconfig.yaml from pod6 to pod7
102 *cp joid/labconfig/intel/pod5/\* joid/labconfig/intel/pod7/*
103
104 4 files will get copied: 
105 labconfig.yaml
106
107 labconfig.yaml file
108 ===================
109
110 -------------
111 Prerequisite:
112 -------------
113
114 1. Make sure Jump host node has been configured with bridges on each interface,
115 so that appropriate MAAS and JUJU bootstrap VM can be created. For example if
116 you have three network admin, data and public then I would suggest to give names
117 like brAdm, brData and brPublic.
118 2. You have information about the node MAC address and power management details (IPMI IP, username, password) of the nodes used for control and compute node.
119
120 ---------------------
121 modify labconfig.yaml
122 ---------------------
123
124 This file has been used to configure your maas and bootstrap node in a
125 VM. Comments in the file are self explanatory and we expect fill up the
126 information according to match lab infrastructure information. Sample
127 labconfig.yaml can be found at
128 https://gerrit.opnfv.org/gerrit/gitweb?p=joid.git;a=blob;f=labconfigintel/pod6/labconfig.yaml
129
130 *lab:
131   location: intel
132   racks:
133   - rack: pod5
134     nodes:
135     - name: rack-5-m1
136       architecture: x86_64
137       roles: [network,control]
138       nics:
139       - ifname: eth1
140         spaces: [public]
141         mac: ["xx:xx:xx:xx:xx:xx"]
142       power:
143         type: ipmi
144         address: xx.xx.xx.xx
145         user: xxxx
146         pass: xxxx
147     - name: rack-5-m1
148       architecture: x86_64
149       roles: [network,control]
150       nics:
151       - ifname: eth1
152         spaces: [public]
153         mac: ["xx:xx:xx:xx:xx:xx"]
154       power:
155         type: ipmi
156         address: xx.xx.xx.xx
157         user: xxxx
158         pass: xxxx
159     - name: rack-5-m1
160       architecture: x86_64
161       roles: [network,control]
162       nics:
163       - ifname: eth1
164         spaces: [public]
165         mac: ["xx:xx:xx:xx:xx:xx"]
166       power:
167         type: ipmi
168         address: xx.xx.xx.xx
169         user: xxxx
170         pass: xxxx
171     - name: rack-5-m1
172       architecture: x86_64
173       roles: [network,control]
174       nics:
175       - ifname: eth1
176         spaces: [public]
177         mac: ["xx:xx:xx:xx:xx:xx"]
178       power:
179         type: ipmi
180         address: xx.xx.xx.xx
181         user: xxxx
182         pass: xxxx
183     - name: rack-5-m1
184       architecture: x86_64
185       roles: [network,control]
186       nics:
187       - ifname: eth1
188         spaces: [public]
189         mac: ["xx:xx:xx:xx:xx:xx"]
190       power:
191         type: ipmi
192         address: xx.xx.xx.xx
193         user: xxxx
194         pass: xxxx
195     floating-ip-range: 10.5.15.6,10.5.15.250,10.5.15.254,10.5.15.0/24
196     ext-port: "eth1"
197     dns: 8.8.8.8
198 opnfv:
199     release: c
200     distro: trusty
201     type: nonha
202     openstack: liberty
203     sdncontroller:
204     - type: nosdn
205     storage:
206     - type: ceph
207       disk: /srv
208     feature: odl_l2
209     spaces:
210     - type: public
211       bridge: brPublic
212       cidr: 10.5.15.0/24
213       gateway: 10.5.15.254
214       vlan:
215     - type: external
216       bridge: brExt
217       cidr:
218       gateway:
219       ipaddress: 10.2.117.92
220       vlan:*
221
222 NOTE: If you are using VLAN tagged network then make sure you modify the case $1 section under Enable vlan interface with maas appropriately. 
223  
224 *'intelpod7' )
225     maas refresh
226     enableautomodebyname eth2 AUTO "10.4.9.0/24" compute || true
227     enableautomodebyname eth2 AUTO "10.4.9.0/24" control || true
228     ;;*
229
230 Deployment of OPNFV using JOID:
231 ===============================
232
233 Once you have done the change in above section then run the following commands to do the automatic deployments.
234
235 ------------
236 MAAS Install
237 ------------
238
239 After integrating the changes as mentioned above run the MAAS install.
240 Suppose you name the integration lab as intelpod7 then run the below
241 commands to start the MAAS deployment.
242
243 ``   ./00-maasdeploy.sh custom ../labconfig/intel/pod7/labconfig.yaml``
244
245 -------------
246 OPNFV Install
247 -------------
248
249 | ``   ./deploy.sh -o mitaka -s odl -t ha -l custom -f none -d xenial``
250 | ``   ``
251
252 NOTE: Possible options are as follows:
253
254 *choose which sdn controller to use.
255   [-s <nosdn|odl|opencontrail|onos>]
256   nosdn: openvswitch only and no other SDN.
257   odl: OpenDayLight Lithium version.
258   opencontrail: OpenContrail SDN can be installed with Juno Openstack today.
259   onos: ONOS framework as SDN.
260    
261   [-t <nonha|ha|tip>]
262   nonha: NO HA mode of Openstack
263   ha: HA mode of openstack.
264   [-o <juno|liberty>]
265   juno: Juno Openstack
266   liberty: Liberty version of openstack.
267   [-l <default|intelpod5>] etc...
268   default: For virtual deployment where installation will be done on KVM created using ./02-maasdeploy.sh
269   intelpod5: Install on bare metal OPNFV pod5 of Intel lab.
270   intelpod6
271   orangepod2
272   ..
273   ..
274   <your pod>: if you make changes as per your pod above then please use that.
275   [-f <ipv6|none>]
276   none: no special feature will be enabled.
277   ipv6: ipv6 will be enabled for tenant in openstack.*
278
279
280 ------------
281 Troubleshoot
282 ------------
283
284 By default debug is enabled in script and error messages will be printed on ssh terminal where you are running the scripts.
285
286 To Access of any control or compute nodes.
287 juju ssh <service name>
288 for example to login into openstack-dashboard container.
289
290 *juju ssh openstack-dashboard/0
291 juju ssh nova-compute/0
292 juju ssh neutron-gateway/0*
293
294 By default juju will add the Ubuntu user keys for authentication into the deployed server and only ssh access will be available.
295