Fix some bugs when testing opensds ansible
[stor4nfv.git] / src / ceph / qa / suites / rados / thrash / d-require-luminous / at-end.yaml
1 # do not require luminous osds at mkfs time; only set flag at
2 # the end of the test run, then do a final scrub (to convert any
3 # legacy snapsets), and verify we are healthy.
4 tasks:
5 - full_sequential_finally:
6   - exec:
7       mon.a:
8         - ceph osd require-osd-release luminous
9         - ceph osd pool application enable base rados || true
10 # make sure osds have latest map
11         - rados -p rbd bench 5 write -b 4096
12   - ceph.healthy:
13   - ceph.osd_scrub_pgs:
14       cluster: ceph
15   - exec:
16       mon.a:
17         - sleep 15
18         - ceph osd dump | grep purged_snapdirs
19         - ceph pg dump -f json-pretty
20         - "ceph pg dump sum -f json-pretty | grep num_legacy_snapsets | head -1 | grep ': 0'"
21 overrides:
22   ceph:
23     conf:
24       global:
25         mon debug no require luminous: true
26
27 # setting luminous triggers peering, which *might* trigger health alerts
28     log-whitelist:
29       - overall HEALTH_
30       - \(PG_AVAILABILITY\)
31       - \(PG_DEGRADED\)
32   thrashosds:
33     chance_thrash_cluster_full: 0