Fix some bugs when testing opensds ansible
[stor4nfv.git] / src / ceph / qa / suites / rados / singleton / all / thrash_cache_writeback_proxy_none.yaml
1 roles:
2 - - mon.a
3   - mgr.x
4   - osd.0
5   - osd.1
6   - osd.2
7 - - osd.3
8   - osd.4
9   - osd.5
10   - client.0
11 openstack:
12   - volumes: # attached to each instance
13       count: 3
14       size: 30 # GB
15 tasks:
16 - install:
17 - ceph:
18     log-whitelist:
19       - but it is still running
20       - slow request
21       - overall HEALTH_
22       - (CACHE_POOL_
23 - exec:
24     client.0:
25       - sudo ceph osd pool create base 4
26       - sudo ceph osd pool application enable base rados
27       - sudo ceph osd pool create cache 4
28       - sudo ceph osd tier add base cache
29       - sudo ceph osd tier cache-mode cache writeback
30       - sudo ceph osd tier set-overlay base cache
31       - sudo ceph osd pool set cache hit_set_type bloom
32       - sudo ceph osd pool set cache hit_set_count 8
33       - sudo ceph osd pool set cache hit_set_period 60
34       - sudo ceph osd pool set cache target_max_objects 500
35 - background_exec:
36     mon.a:
37       - while true
38       - do sleep 30
39       - echo proxy
40       - sudo ceph osd tier cache-mode cache proxy
41       - sleep 10
42       - sudo ceph osd pool set cache cache_target_full_ratio .001
43       - echo cache-try-flush-evict-all
44       - rados -p cache cache-try-flush-evict-all
45       - sleep 5
46       - echo cache-flush-evict-all
47       - rados -p cache cache-flush-evict-all
48       - sleep 5
49       - echo remove overlay
50       - sudo ceph osd tier remove-overlay base
51       - sleep 20
52       - echo add writeback overlay
53       - sudo ceph osd tier cache-mode cache writeback
54       - sudo ceph osd pool set cache cache_target_full_ratio .8
55       - sudo ceph osd tier set-overlay base cache
56       - sleep 30
57       - sudo ceph osd tier cache-mode cache readproxy
58       - done
59 - rados:
60     clients: [client.0]
61     pools: [base]
62     max_seconds: 600
63     ops: 400000
64     objects: 10000
65     size: 1024
66     op_weights:
67       read: 100
68       write: 100
69       delete: 50
70       copy_from: 50