Merge "overcloud_compute.pp: remove nova_config params"
[apex-tripleo-heat-templates.git] / environments / storage-environment.yaml
1 ## A Heat environment file which can be used to set up storage
2 ## backends. Defaults to Ceph used as a backend for Cinder, Glance and
3 ## Nova ephemeral storage.
4 resource_registry:
5   OS::TripleO::Services::CephMon: ../puppet/services/ceph-mon.yaml
6   OS::TripleO::Services::CephOSD: ../puppet/services/ceph-osd.yaml
7   OS::TripleO::Services::CephClient: ../puppet/services/ceph-client.yaml
8
9 parameter_defaults:
10
11   #### BACKEND SELECTION ####
12
13   ## Whether to enable iscsi backend for Cinder.
14   CinderEnableIscsiBackend: false
15   ## Whether to enable rbd (Ceph) backend for Cinder.
16   CinderEnableRbdBackend: true
17   ## Whether to enable NFS backend for Cinder.
18   # CinderEnableNfsBackend: false
19   ## Whether to enable rbd (Ceph) backend for Nova ephemeral storage.
20   NovaEnableRbdBackend: true
21   ## Glance backend can be either 'rbd' (Ceph), 'swift' or 'file'.
22   GlanceBackend: rbd
23   ## Gnocchi backend can be either 'rbd' (Ceph), 'swift' or 'file'.
24   GnocchiBackend: rbd
25
26
27   #### CINDER NFS SETTINGS ####
28
29   ## NFS mount options
30   # CinderNfsMountOptions: ''
31   ## NFS mount point, e.g. '192.168.122.1:/export/cinder'
32   # CinderNfsServers: ''
33
34
35   #### GLANCE FILE BACKEND PACEMAKER SETTINGS (used for mounting NFS) ####
36
37   ## Whether to make Glance 'file' backend a mount managed by Pacemaker
38   # GlanceFilePcmkManage: false
39   ## File system type of the mount
40   # GlanceFilePcmkFstype: nfs
41   ## Pacemaker mount point, e.g. '192.168.122.1:/export/glance' for NFS
42   ##  (If using IPv6, use both double- and single-quotes,
43   ##  e.g. "'[fdd0::1]:/export/glance'")
44   # GlanceFilePcmkDevice: ''
45   ## Options for the mount managed by Pacemaker
46   # GlanceFilePcmkOptions: ''
47
48
49   #### CEPH SETTINGS ####
50
51   ## When deploying Ceph Nodes through the oscplugin CLI, the following
52   ## parameters are set automatically by the CLI. When deploying via
53   ## heat stack-create or ceph on the controller nodes only,
54   ## they need to be provided manually.
55
56   ## Number of Ceph storage nodes to deploy
57   # CephStorageCount: 0
58   ## Ceph FSID, e.g. '4b5c8c0a-ff60-454b-a1b4-9747aa737d19'
59   # CephClusterFSID: ''
60   ## Ceph monitor key, e.g. 'AQC+Ox1VmEr3BxAALZejqeHj50Nj6wJDvs96OQ=='
61   # CephMonKey: ''
62   ## Ceph admin key, e.g. 'AQDLOh1VgEp6FRAAFzT7Zw+Y9V6JJExQAsRnRQ=='
63   # CephAdminKey: ''
64   ## Ceph client key, e.g 'AQC+vYNXgDAgAhAAc8UoYt+OTz5uhV7ItLdwUw=='
65   # CephClientKey: ''