Подскажите самый производительный способ прокинуть zfs dataset (не block/zvol/drive-file=) в локальную kvm виртуалку? Пока юзаю host kernel nfs, но это заметно медленнее чем zvol. Отказоустойчивость не беспокоит. Паттерн такой что одна виртуалка пишет, другие read-only
Подскажите самый производительный способ прокинуть zfs dataset (не block/zvol/drive-file=) в локальную kvm виртуалку? Пока юзаю host kernel nfs, но это заметно медленнее чем zvol. Отказоустойчивость не беспокоит. Паттерн такой что одна виртуалка пишет, другие read-only
высшая степень доверия бенчмаркам от компании Х, которые говорят, что система от Х самая быстрая... спасибо хоть fio команды выложили. но больше всего интересно хоть от одного из остальной тройки узнать _почему_ там местами разница в разы и какой трейдофф, с чем смириться. и еще бы внести колонку где сеть между нодами мигает
Да, nfs-server-provisioner юзаем в проде для нескольких сервисов. Достаточно критичных, но я бы не назвал это идеальным решением, а скорее самым простым.
BTW, в последних версиях линстора добавили специальный контроллер который умеет stateful-поды эвиктить с упавших нод, то есть даже фенсинг получается теперь не нужен.
1) Часто диски не переаттачивало, при миграции ворклода с одной ноды на другую, приходилось ручками это делать. 2) При пересоздании(k delete/k apply) pvc с одним именем, периодически, на выходе получалось 0 вольюмов. Видимо race-condition там где-то