Fix some bugs when testing opensds ansible
[stor4nfv.git] / src / ceph / doc / dev / freebsd.rst
1 ==============================
2 FreeBSD Implementation details
3 ==============================
4
5
6 Disk layout 
7 -----------
8
9 Current implementation works on ZFS pools
10
11 * created in /var/lib/ceph
12 * One ZFS pool per OSD, like::
13
14     gpart create -s GPT ada1
15     gpart add -t freebsd-zfs -l osd1 ada1
16     zpool create -o mountpoint=/var/lib/ceph/osd/osd.1 osd
17
18 * Maybe add some cache and log (ZIL)? Assuming that ada2 is an SSD::
19  
20     gpart create -s GPT ada2
21     gpart add -t freebsd-zfs -l osd1-log -s 1G ada2
22     zpool add osd1 log gpt/osd1-log
23     gpart add -t freebsd-zfs -l osd1-cache -s 10G ada2
24     zpool add osd1 log gpt/osd1-cache
25
26 * Note: *UFS2 does not allow large xattribs*
27
28
29 Configuration
30 -------------
31
32 As per FreeBSD default parts of extra software go into ``/usr/local/``. Which
33 means that for ``/etc/ceph.conf`` the default location is 
34 ``/usr/local/etc/ceph/ceph.conf``. Smartest thing to do is to create a softlink
35 from ``/etc/ceph`` to ``/usr/local/etc/ceph``::
36
37   ln -s /usr/local/etc/ceph /etc/ceph
38   
39 A sample file is provided in ``/usr/local/share/doc/ceph/sample.ceph.conf``
40
41
42 MON creation
43 ------------
44
45 Monitors are created by following the manual creation steps on::
46
47   http://docs.ceph.com/docs/master/install/manual-deployment/
48
49
50 OSD creation
51 ------------
52
53 OSDs can be create with ``ceph-disk``::
54
55   ceph-disk prepare /var/lib/ceph/osd/osd1
56   ceph-disk activate /var/lib/ceph/osd/osd1
57   
58 And things should automagically work out.