Fix some bugs when testing opensds ansible
[stor4nfv.git] / src / ceph / doc / cephfs / index.rst
1 =================
2  Ceph Filesystem
3 =================
4
5 The :term:`Ceph Filesystem` (Ceph FS) is a POSIX-compliant filesystem that uses
6 a Ceph Storage Cluster to store its data. The Ceph filesystem uses the same Ceph
7 Storage Cluster system as Ceph Block Devices, Ceph Object Storage with its S3
8 and Swift APIs, or native bindings (librados).
9
10 .. note:: If you are evaluating CephFS for the first time, please review
11           the best practices for deployment: :doc:`/cephfs/best-practices`
12
13 .. ditaa::
14             +-----------------------+  +------------------------+
15             |                       |  |      CephFS FUSE       |
16             |                       |  +------------------------+
17             |                       |
18             |                       |  +------------------------+
19             |  CephFS Kernel Object |  |     CephFS Library     |
20             |                       |  +------------------------+
21             |                       |
22             |                       |  +------------------------+
23             |                       |  |        librados        |
24             +-----------------------+  +------------------------+
25
26             +---------------+ +---------------+ +---------------+
27             |      OSDs     | |      MDSs     | |    Monitors   |
28             +---------------+ +---------------+ +---------------+
29
30
31 Using CephFS
32 ============
33
34 Using the Ceph Filesystem requires at least one :term:`Ceph Metadata Server` in
35 your Ceph Storage Cluster.
36
37
38
39 .. raw:: html
40
41         <style type="text/css">div.body h3{margin:5px 0px 0px 0px;}</style>
42         <table cellpadding="10"><colgroup><col width="33%"><col width="33%"><col width="33%"></colgroup><tbody valign="top"><tr><td><h3>Step 1: Metadata Server</h3>
43
44 To run the Ceph Filesystem, you must have a running Ceph Storage Cluster with at
45 least one :term:`Ceph Metadata Server` running.
46
47
48 .. toctree:: 
49         :maxdepth: 1
50
51         Add/Remove MDS(s) <../../rados/deployment/ceph-deploy-mds>
52         MDS failover and standby configuration <standby>
53         MDS Configuration Settings <mds-config-ref>
54         Client Configuration Settings <client-config-ref>
55         Journaler Configuration <journaler>
56         Manpage ceph-mds <../../man/8/ceph-mds>
57
58 .. raw:: html 
59
60         </td><td><h3>Step 2: Mount CephFS</h3>
61
62 Once you have a healthy Ceph Storage Cluster with at least
63 one Ceph Metadata Server, you may create and mount your Ceph Filesystem.
64 Ensure that you client has network connectivity and the proper
65 authentication keyring.
66
67 .. toctree:: 
68         :maxdepth: 1
69
70         Create CephFS <createfs>
71         Mount CephFS <kernel>
72         Mount CephFS as FUSE <fuse>
73         Mount CephFS in fstab <fstab>
74         Manpage ceph-fuse <../../man/8/ceph-fuse>
75         Manpage mount.ceph <../../man/8/mount.ceph>
76
77
78 .. raw:: html 
79
80         </td><td><h3>Additional Details</h3>
81
82 .. toctree:: 
83     :maxdepth: 1
84
85     Deployment best practices <best-practices>
86     Administrative commands <administration>
87     POSIX compatibility <posix>
88     Experimental Features <experimental-features>
89     CephFS Quotas <quota>
90     Using Ceph with Hadoop <hadoop>
91     cephfs-journal-tool <cephfs-journal-tool>
92     File layouts <file-layouts>
93     Client eviction <eviction>
94     Handling full filesystems <full>
95     Health messages <health-messages>
96     Troubleshooting <troubleshooting>
97     Disaster recovery <disaster-recovery>
98     Client authentication <client-auth>
99     Upgrading old filesystems <upgrading>
100     Configuring directory fragmentation <dirfrags>
101     Configuring multiple active MDS daemons <multimds>
102
103 .. raw:: html
104
105         </td></tr></tbody></table>
106
107 For developers
108 ==============
109
110 .. toctree:: 
111     :maxdepth: 1
112
113     Client's Capabilities <capabilities>
114     libcephfs <../../api/libcephfs-java/>
115     Mantle <mantle>
116