а, ну, Вы сами лучше замеры произведите под небольшой нагрузочкой. значение утилизации блочного уцстройства и iowait будут показательными заодно и нам расскажете
мне испльзование RAID-контроллеров не очень нравится тем, что потенциально возможны глюки такие как: * вытащили один диск, половина дисков на бэкплейне протормозила, контроллер перевёл их в Uncongigured/Bad * из-за UNC ошибок на одном диске, может крэшнуться ПО контроллера или также отвалиться часть дисков это то, с чем я сталкивался с LSI
недавно одну машину встретил, где каждые 22 минуты замирало IO на секунд 10 - утилизация всех дисков по iostat была 100%, tps падали в ноль, при "отвисании" await были около 10 секунд. контроллер LSI, подключено 5 SSD и 2 SAS
В доке есть оговорка. Что если к RAID-контроллеру подключены диски SSD или много дисков (например60), то включение Write back будет совсем не благом. Там же написано, юзайте режим JBOD. В нем отключается Write Back и будет вам счастье.
А кто-то строил графики лейтенси rbd по метрикам из Прометея irate (ceph_rbd_latency_sum)/irate(ceph_rbd_latency_count) ? У меня весьма печальный график получился