Size: a a a

OpenNebula - русскоговорящее сообщество

2019 March 26

k

kvaps in OpenNebula - русскоговорящее сообщество
я бы посмотрел в логи мониторов и osd еще
источник
2019 March 27

RB

Roman Bogachev in OpenNebula - русскоговорящее сообщество
Там все тоже нормально.  В дебаге, все авторизуется, мониторится и oneadmin получает все данные.
источник

RB

Roman Bogachev in OpenNebula - русскоговорящее сообщество
Завтра буду пробовать с утра.
Оно до системного датастора не доходит. Расковыряю завтра еще раз все параметры.
источник

RB

Roman Bogachev in OpenNebula - русскоговорящее сообщество
Мне не нравятся вот эти:
CLONE_TARGET_SSH  SYSTEM
TM_MAD_SYSTEM  ssh,shared
источник

RB

Roman Bogachev in OpenNebula - русскоговорящее сообщество
Но он их автоматом создает
источник

AZ

Anton Zubkov in OpenNebula - русскоговорящее сообщество
А зачем там ssh если ceph shared
источник

RB

Roman Bogachev in OpenNebula - русскоговорящее сообщество
Вот делал прям по доке. При создании датастора он их добавляет автоматом и не даёт удалить.
источник

RB

Roman Bogachev in OpenNebula - русскоговорящее сообщество
На систем датастор нормально все, как и указано в настройках. На имейдж он фигачит кучу ненужного.
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
Приветы
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
Ковыряю небулу
пока нравится :)
сделал простейший стенд - две ноды, shared storage по iscsi, на нем сделан lvm
Делаю system datastore на лвм, все норм. Машинки там создаются.
Но теперь хочется live migration и ha :)
Как это делается без шареной между нодами папки datastore?
источник

RB

Roman Bogachev in OpenNebula - русскоговорящее сообщество
Live Migration работает между shared сторейдж.
Вариантов много, чаще Ceph мелькает.

В новой версии HA на Raft. Честно скажу, что доверия  к нему нет. На 5.6 все разваливалось саом по себе.
Сейчас тестирую на 5.8. Вообщем на свой страх и риск.

Можно старым методом пойти galera cluster + corosync + pacemaker. Разрабы не рекомендуют, но все же если хочется, то можно.
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
Ну вопрос немного в другом... в случае lvm хранилища в папке datastore есть служебные файлы для данной машины. Ну в процессе миграции я так понял их можно просто перекинуть с ноды на ноду. А в случае смерти ноды что делать? Имадж у нас все еще доступен на лвм, а вот служебных файлов уже нет...
источник

AZ

Anton Zubkov in OpenNebula - русскоговорящее сообщество
nfs )
источник

RB

Roman Bogachev in OpenNebula - русскоговорящее сообщество
Для этого нужен внешний NAS/SAN.
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
Да. для fs_lvm shared фс обязательна
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
Nick Potemkin
Ну вопрос немного в другом... в случае lvm хранилища в папке datastore есть служебные файлы для данной машины. Ну в процессе миграции я так понял их можно просто перекинуть с ноды на ноду. А в случае смерти ноды что делать? Имадж у нас все еще доступен на лвм, а вот служебных файлов уже нет...
самый простой вариант раскатать глюстер, но я бы советовал nfs
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
а луны откуда отдаются?
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
kvaps
самый простой вариант раскатать глюстер, но я бы советовал nfs
Да, я к нему и склоняюсь пока )
Нфс надо будет тоже делать отказоустойчивым - лишний гимор
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
kvaps
а луны откуда отдаются?
Стенд же :) с соседней машины
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
nfs не сложно отказоустойчивым сделать, делается по тому же принципу что и отказоустойчивый таргет
источник