Fix some bugs when testing opensds ansible
[stor4nfv.git] / src / ceph / doc / rados / index.rst
1 ======================
2  Ceph Storage Cluster
3 ======================
4
5 The :term:`Ceph Storage Cluster` is the foundation for all Ceph deployments.
6 Based upon :abbr:`RADOS (Reliable Autonomic Distributed Object Store)`, Ceph
7 Storage Clusters consist of two types of daemons: a :term:`Ceph OSD Daemon`
8 (OSD) stores data as objects on a storage node; and a :term:`Ceph Monitor` (MON)
9 maintains a master copy of the cluster map. A Ceph Storage Cluster may contain
10 thousands of storage nodes. A minimal system will have at least one 
11 Ceph Monitor and two Ceph OSD Daemons for data replication. 
12
13 The Ceph Filesystem, Ceph Object Storage and Ceph Block Devices read data from
14 and write data to the Ceph Storage Cluster.
15
16 .. raw:: html
17
18         <style type="text/css">div.body h3{margin:5px 0px 0px 0px;}</style>
19         <table cellpadding="10"><colgroup><col width="33%"><col width="33%"><col width="33%"></colgroup><tbody valign="top"><tr><td><h3>Config and Deploy</h3>
20
21 Ceph Storage Clusters have a few required settings, but most configuration
22 settings have default values. A typical deployment uses a deployment tool 
23 to define a cluster and bootstrap a monitor. See `Deployment`_ for details 
24 on ``ceph-deploy.``
25
26 .. toctree::
27         :maxdepth: 2
28
29         Configuration <configuration/index>
30         Deployment <deployment/index>
31
32 .. raw:: html 
33
34         </td><td><h3>Operations</h3>
35
36 Once you have a deployed a Ceph Storage Cluster, you may begin operating 
37 your cluster.
38
39 .. toctree::
40         :maxdepth: 2
41         
42         
43         Operations <operations/index>
44
45 .. toctree::
46         :maxdepth: 1
47
48         Man Pages <man/index>
49
50
51 .. toctree:: 
52         :hidden:
53         
54         troubleshooting/index
55
56 .. raw:: html 
57
58         </td><td><h3>APIs</h3>
59
60 Most Ceph deployments use `Ceph Block Devices`_, `Ceph Object Storage`_ and/or the
61 `Ceph Filesystem`_. You  may also develop applications that talk directly to
62 the Ceph Storage Cluster.
63
64 .. toctree::
65         :maxdepth: 2
66
67         APIs <api/index>
68         
69 .. raw:: html
70
71         </td></tr></tbody></table>
72
73 .. _Ceph Block Devices: ../rbd/
74 .. _Ceph Filesystem: ../cephfs/
75 .. _Ceph Object Storage: ../radosgw/
76 .. _Deployment: ../rados/deployment/