Fix formmatting of links and auto replacement strings
[pharos.git] / docs / pharos-spec.rst
1 Pharos Specification
2 =====================
3
4
5 .. contents:: Table of Contents
6    :backlinks: none
7
8
9 Objectives / Scope
10 -------------------
11
12 The Pharos specification defines the OPNFV hardware environment upon which the OPNFV Arno platform release can be deployed on and tested. This specification defines:
13
14 - A secure, scalable, standard and HA environment
15 - Supports the full Arno deployment lifecycle (this requires a bare metal environment)
16 - Supports functional and performance testing of the Arno release
17 - Provides mechanisms and procedures for secure remote access to the test environment
18
19 Deploying Arno in a Virtualized environment is possible and will be useful, however it does not provide a fully featured deployment and test environment for the Arno release of OPNFV.
20
21 The high level architecture is outlined in the following diagram:
22
23 .. image:: images/pharos-archi1.jpg
24
25 A Pharos compliant OPNFV test-bed environment provides
26 ------------------------------------------------------
27
28 - One CentOS 7 jump server on which the virtualized Openstack/OPNFV installer runs
29 - In the Arno release you may select a deployment toolchain to deploy from the jump server from the Foreman and Fuel ISO images.
30 - 5 compute / controller nodes (`BGS <https://wiki.opnfv.org/get_started/get_started_work_environment>`_ requires 5 nodes)
31 - A configured network topology allowing for LOM, Admin, Public, Private, and Storage Networks
32 - Remote access as defined by the Jenkins slave configuration guide http://artifacts.opnfv.org/arno.2015.1.0/docs/opnfv-jenkins-slave-connection.arno.2015.1.0.pdf
33
34 Hardware requirements
35 ---------------------
36
37 **Servers**
38
39 CPU:
40
41 * Intel Xeon E5-2600v2 Series (Ivy Bridge and newer, or similar)
42
43 Local Storage Configuration:
44
45 Below describes the minimum for the Pharos spec, which is designed to provide enough capacity for a reasonably functional environment. Additional and/or faster disks are nice to have and may produce a better result.
46
47 * Disks: 2 x 1TB + 1 x 100GB SSD
48 * The first 1TB HDD should be used for OS & additional software/tool installation
49 * The second 1TB HDD configured for CEPH object storage
50 * Finally, the 100GB SSD should be used as the CEPH journal
51 * Performance testing requires a mix of compute nodes that have CEPH(swift+Cinder) and without CEPH storage
52 * Virtual ISO boot capabilities or a separate PXE boot server (DHCP/tftp or Cobbler)
53
54 Memory:
55
56 * 32G RAM Minimum
57
58 Power Supply Single
59
60 * Single power supply acceptable (redundant power not required/nice to have)
61
62 Provisioning the jump server
63 ----------------------------
64
65 1. Obtain CentOS 7 Minimal ISO and install
66
67   ``wget http://mirrors.kernel.org/centos/7/isos/x86_64/CentOS-7-x86_64-Minimal-1503-01.iso``
68
69 2. Set parameters appropriate for your environment during installation
70
71 3. Disable NetworkManager
72
73   ``systemctl disable NetworkManager``
74
75 4. Configure your /etc/sysconfig/network-scripts/ifcfg-* files for your network
76
77 5. Restart networking
78
79   ``service network restart``
80
81 6. Edit /etc/resolv.conf and add a nameserver
82
83   ``vi /etc/resolv.conf``
84
85 7. Install libvirt & kvm
86
87   ``yum -y update``
88   ``yum -y install kvm qemu-kvm libvirt``
89   ``systemctl enable libvirtd``
90
91 8. Reboot:
92
93   ``shutdown -r now``
94
95 9. If you wish to avoid annoying delay when use ssh to log in, disable DNS lookups:
96
97   ``vi /etc/ssh/sshd_config``
98   Uncomment "UseDNS yes", change 'yes' to 'no'.
99   Save
100
101 10. Restart sshd
102
103   ``systemctl restart sshd``
104
105 11. Install virt-install
106
107   ``yum -y install virt-install``
108
109 12. Begin the installation of the Arno release
110
111   Download your preferred ISO from the `OPNFV dowloads page <http://www.opnfv.org/software/download>`_ and follow the associated installation instructions.
112
113 Remote management
114 ------------------
115
116 **Remote access**
117
118 - Remote access is required for …
119
120   1. Developers to access deploy/test environments (credentials to be issued per POD / user)
121   2. Connection of each environment to Jenkins master hosted by Linux Foundation for automated deployment and test
122
123 - OpenVPN is generally used for remote however community hosted labs may vary due to company security rules
124 - POD access rules / restrictions …
125
126   - Refer to individual test-bed as each company may have different access rules and acceptable usage policies
127
128 - Basic requirement is for SSH sessions to be established (initially on jump server)
129 - Majority of packages installed on a system (tools or applications) will be pulled from an external repo so this scenario must be accomodated.
130
131 Firewall rules should include 
132  
133 - SSH sessions
134 - Jenkins sessions
135
136 Lights-out Management:
137
138 - Out-of-band management for power on/off/reset and bare-metal provisioning
139 - Access to server is through lights-out-management tool and/or a serial console
140 - Intel lights-out ⇒ RMM http://www.intel.com/content/www/us/en/server-management/intel-remote-management-module.html
141 - HP lights-out ⇒ ILO http://www8.hp.com/us/en/products/servers/ilo/index.html
142 - CISCO lights-out ⇒ UCS https://developer.cisco.com/site/ucs-dev-center/index.gsp
143
144 Linux Foundation - VPN service for accessing Lights-Out Management (LOM) infrastructure for the UCS-M hardware
145
146 - People with admin access to LF infrastructure:
147
148 1. amaged@cisco.com
149 2. cogibbs@cisco.com
150 3. daniel.smith@ericsson.com
151 4. dradez@redhat.com
152 5. fatih.degirmenci@ericsson.com
153 6. fbrockne@cisco.com
154 7. jonas.bjurel@ericsson.com
155 8. jose.lausuch@ericsson.com
156 9. joseph.gasparakis@intel.com
157 10. morgan.richomme@orange.com
158 11. pbandzi@cisco.com
159 12. phladky@cisco.com
160 13. stefan.k.berg@ericsson.com
161 14. szilard.cserey@ericsson.com
162 15. trozet@redhat.com
163
164 - The people who require VPN access must have a valid PGP key bearing a valid signature from one of these three people. When issuing OpenVPN credentials, LF will be sending TLS certificates and 2-factor authentication tokens, encrypted to each recipient's PGP key.
165
166 Networking
167 -----------
168
169 Test-bed network
170
171 * 24 or 48 Port TOR Switch
172 * NICS - 1GE, 10GE - per server can be on-board or PCI-e
173 * Connectivity for each data/control network is through a separate NIC. This simplifies Switch Management however requires more NICs on the server and also more switch ports
174 * Lights-out network can share with Admin/Management
175
176 Network Interfaces
177
178 * Option I: 4x1G Control, 2x40G Data, 48 Port Switch
179
180   * 1 x 1G for ILMI (Lights out Management )
181   * 1 x 1G for Admin/PXE boot
182   * 1 x 1G for control Plane connectivity
183   * 1 x 1G for storage
184   * 2 x 40G (or 10G) for data network (redundancy, NIC bonding, High bandwidth testing)
185
186 * Option II: 1x1G Control, 2x 40G (or 10G) Data, 24 Port Switch
187
188   * Connectivity to networks is through VLANs on the Control NIC. Data NIC used for VNF traffic and storage traffic segmented through VLANs
189
190 * Option III: 2x1G Control, 2x10G Data, 2x40G Storage, 24 Port Switch
191
192   * Data NIC used for VNF traffic, storage NIC used for control plane and Storage segmented through VLANs (separate host traffic from VNF)
193   * 1 x 1G for IPMI
194   * 1 x 1G for Admin/PXE boot
195   * 2 x 10G for control plane connectivity/Storage
196   * 2 x 40G (or 10G) for data network
197
198 Documented configuration to include:
199 - Subnet, VLANs (may be constrained by existing lab setups or rules)
200 - IPs
201 - Types of NW - lights-out, public, private, admin, storage
202 - May be special NW requirements for performance related projects
203 - Default gateways
204
205
206 Controller node bridge topology overview
207
208 .. image:: images/bridge1.png
209
210
211 compute node bridge topology overview
212
213 .. image:: images/bridge2.png
214
215
216
217
218 Architecture
219 -------------
220
221 ** Network Diagram **
222
223 The Pharos architecture may be described as follow: Figure 1: Standard Deployment Environment
224
225 .. image:: images/opnfv-pharos-diagram-v01.jpg
226
227 Figure 1: Standard Deployment Environment
228
229
230 Sample Network Drawings
231 -----------------------
232
233 Files for documenting lab network layout. These were contributed as Visio VSDX format compressed as a ZIP file. Here is a sample of what the visio looks like.
234
235 Download the visio zip file here: `opnfv-example-lab-diagram.vsdx.zip <https://wiki.opnfv.org/_media/opnfv-example-lab-diagram.vsdx.zip>`_
236
237 .. image:: images/opnfv-example-lab-diagram.png
238
239
240 :Authors: Trevor Cooper (Intel)
241 :Version: 1.0
242
243 **Documentation tracking**
244
245 Revision: _sha1_
246
247 Build date:  _date_
248