Merge "Fix distinguishing between stack-create and stack-update"
[apex-tripleo-heat-templates.git] / environments / storage-environment.yaml
1 ## A Heat environment file which can be used to set up storage
2 ## backends. Defaults to Ceph used as a backend for Cinder, Glance and
3 ## Nova ephemeral storage.
4 parameter_defaults:
5
6   #### BACKEND SELECTION ####
7
8   ## Whether to enable iscsi backend for Cinder.
9   CinderEnableIscsiBackend: false
10   ## Whether to enable rbd (Ceph) backend for Cinder.
11   CinderEnableRbdBackend: true
12   ## Whether to enable NFS backend for Cinder.
13   # CinderEnableNfsBackend: false
14   ## Whether to enable rbd (Ceph) backend for Nova ephemeral storage.
15   NovaEnableRbdBackend: true
16   ## Glance backend can be either 'rbd' (Ceph), 'swift' or 'file'.
17   GlanceBackend: rbd
18   ## Gnocchi backend can be either 'rbd' (Ceph), 'swift' or 'file'.
19   GnocchiBackend: rbd
20
21
22   #### CINDER NFS SETTINGS ####
23
24   ## NFS mount options
25   # CinderNfsMountOptions: ''
26   ## NFS mount point, e.g. '192.168.122.1:/export/cinder'
27   # CinderNfsServers: ''
28
29
30   #### GLANCE FILE BACKEND PACEMAKER SETTINGS (used for mounting NFS) ####
31
32   ## Whether to make Glance 'file' backend a mount managed by Pacemaker
33   # GlanceFilePcmkManage: false
34   ## File system type of the mount
35   # GlanceFilePcmkFstype: nfs
36   ## Pacemaker mount point, e.g. '192.168.122.1:/export/glance' for NFS
37   # GlanceFilePcmkDevice: ''
38   ## Options for the mount managed by Pacemaker
39   # GlanceFilePcmkOptions: ''
40
41
42   #### CEPH SETTINGS ####
43
44   ## Whether to deploy Ceph OSDs on the controller nodes. By default
45   ## OSDs are deployed on dedicated ceph-storage nodes only.
46   # ControllerEnableCephStorage: false
47
48   ## When deploying Ceph Nodes through the oscplugin CLI, the following
49   ## parameters are set automatically by the CLI. When deploying via
50   ## heat stack-create or ceph on the controller nodes only,
51   ## they need to be provided manually.
52
53   ## Number of Ceph storage nodes to deploy
54   # CephStorageCount: 0
55   ## Ceph FSID, e.g. '4b5c8c0a-ff60-454b-a1b4-9747aa737d19'
56   # CephClusterFSID: ''
57   ## Ceph monitor key, e.g. 'AQC+Ox1VmEr3BxAALZejqeHj50Nj6wJDvs96OQ=='
58   # CephMonKey: ''
59   ## Ceph admin key, e.g. 'AQDLOh1VgEp6FRAAFzT7Zw+Y9V6JJExQAsRnRQ=='
60   # CephAdminKey: ''