Merge "Add database directory mount for openvswitchdb"
[apex-tripleo-heat-templates.git] / environments / storage-environment.yaml
1 ## A Heat environment file which can be used to set up storage
2 ## backends. Defaults to Ceph used as a backend for Cinder, Glance and
3 ## Nova ephemeral storage.
4 parameter_defaults:
5
6   #### BACKEND SELECTION ####
7
8   ## Whether to enable iscsi backend for Cinder.
9   CinderEnableIscsiBackend: false
10   ## Whether to enable rbd (Ceph) backend for Cinder.
11   CinderEnableRbdBackend: true
12   ## Whether to enable NFS backend for Cinder.
13   # CinderEnableNfsBackend: false
14   ## Whether to enable rbd (Ceph) backend for Nova ephemeral storage.
15   NovaEnableRbdBackend: true
16   ## Glance backend can be either 'rbd' (Ceph), 'swift' or 'file'.
17   GlanceBackend: rbd
18   ## Gnocchi backend can be either 'rbd' (Ceph), 'swift' or 'file'.
19   GnocchiBackend: rbd
20
21
22   #### CINDER NFS SETTINGS ####
23
24   ## NFS mount options
25   # CinderNfsMountOptions: ''
26   ## NFS mount point, e.g. '192.168.122.1:/export/cinder'
27   # CinderNfsServers: ''
28
29
30   #### GLANCE FILE BACKEND PACEMAKER SETTINGS (used for mounting NFS) ####
31
32   ## Whether to make Glance 'file' backend a mount managed by Pacemaker
33   # GlanceFilePcmkManage: false
34   ## File system type of the mount
35   # GlanceFilePcmkFstype: nfs
36   ## Pacemaker mount point, e.g. '192.168.122.1:/export/glance' for NFS
37   ##  (If using IPv6, use both double- and single-quotes,
38   ##  e.g. "'[fdd0::1]:/export/glance'")
39   # GlanceFilePcmkDevice: ''
40   ## Options for the mount managed by Pacemaker
41   # GlanceFilePcmkOptions: ''
42
43
44   #### CEPH SETTINGS ####
45
46   ## Whether to deploy Ceph OSDs on the controller nodes. By default
47   ## OSDs are deployed on dedicated ceph-storage nodes only.
48   # ControllerEnableCephStorage: false
49
50   ## When deploying Ceph Nodes through the oscplugin CLI, the following
51   ## parameters are set automatically by the CLI. When deploying via
52   ## heat stack-create or ceph on the controller nodes only,
53   ## they need to be provided manually.
54
55   ## Number of Ceph storage nodes to deploy
56   # CephStorageCount: 0
57   ## Ceph FSID, e.g. '4b5c8c0a-ff60-454b-a1b4-9747aa737d19'
58   # CephClusterFSID: ''
59   ## Ceph monitor key, e.g. 'AQC+Ox1VmEr3BxAALZejqeHj50Nj6wJDvs96OQ=='
60   # CephMonKey: ''
61   ## Ceph admin key, e.g. 'AQDLOh1VgEp6FRAAFzT7Zw+Y9V6JJExQAsRnRQ=='
62   # CephAdminKey: ''