Size: a a a

OpenNebula - русскоговорящее сообщество

2019 July 31

k

kvaps in OpenNebula - русскоговорящее сообщество
Timur
какие минусы ? Про бестпрактисы докера я канеш в курсе. Но по существу ?
Контейнеры сами по себе не очень изолированны, по этому убивая основной процесс (init) в контейнере, не факт что все остальные процессы померут - это проблема всех контейнеров, включая как LXC так docker.
Именно по этому в kubernetes как и в docker активно применяется принцип по процессу на контейнер.

Таким образом из минусов:
- Чуть менее стабильная система, т.к. каждый контейнер будет иметь не один процесс, а дерево процессов. То есть инит + всё остальное. LXC здесь выезжает на том что контейнеры как правило статичны и редко перезапускаются.
- Некоторые фишки куба работать не будут, например когда у тебя дофига мелких контейнеров и все они пишут логи в stdout, можно настроить что бы куб собирал их и складывал куда-нибудь в кибану, здесь придётся использовать syslog-server или придумывать что-то своё

Из плюсов:
- Всё задекларированно, каждый image должен иметь версию и при обновлении необходимо также обновлять тэг
- Простота управления, кубом можно рулить как снаружи, так и изнутри контейнеров, включая автосеклинг и т.п.
- Хороший API. API лучше чем у куба я ещё не встречал
- Возможность переделать всё нормально
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
Nick
Таки а можно как-то Lxc в докер перепаковать оперативно?
Собираешь контейнер со всем необходимым, docker'ом запускаешь init, будь-то systemd или openrc, должно работать без проблем
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
для systemd немножко повозиться придётся, но тоже не проблема
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
Timur
ровно такая же задача. Боее 1к lxc-контейнеров под libvirt-lxc. Склоняюсь к мысли запихнуть в докер и дальше под куб. Но это уже будет не один процесс в докере, а дофига. Буду грабли скорее всего
в кубе есть абстракция, ты можешь запускать один под с несколькими контейнерами, это решает поставленную задачу полностью
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
один под - это пачка контейнеров, запущенных в одном network namespace (то есть с одним айпишником)
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
то есть процессы внутри пода могут общаться друг с другом через 127.0.0.1 либо через unix-сокеты
источник

T

Timur in OpenNebula - русскоговорящее сообщество
kvaps
Контейнеры сами по себе не очень изолированны, по этому убивая основной процесс (init) в контейнере, не факт что все остальные процессы померут - это проблема всех контейнеров, включая как LXC так docker.
Именно по этому в kubernetes как и в docker активно применяется принцип по процессу на контейнер.

Таким образом из минусов:
- Чуть менее стабильная система, т.к. каждый контейнер будет иметь не один процесс, а дерево процессов. То есть инит + всё остальное. LXC здесь выезжает на том что контейнеры как правило статичны и редко перезапускаются.
- Некоторые фишки куба работать не будут, например когда у тебя дофига мелких контейнеров и все они пишут логи в stdout, можно настроить что бы куб собирал их и складывал куда-нибудь в кибану, здесь придётся использовать syslog-server или придумывать что-то своё

Из плюсов:
- Всё задекларированно, каждый image должен иметь версию и при обновлении необходимо также обновлять тэг
- Простота управления, кубом можно рулить как снаружи, так и изнутри контейнеров, включая автосеклинг и т.п.
- Хороший API. API лучше чем у куба я ещё не встречал
- Возможность переделать всё нормально
да. Все так. Именно поэтому и склоняюсь к куберу.
источник

T

Timur in OpenNebula - русскоговорящее сообщество
у меня еще более сложная задача. Запихнуть легаси. Поэтому надо будет прикручивать еще ceph rbd, ну или линсторы всякие как ты советуешь
источник

T

Timur in OpenNebula - русскоговорящее сообщество
сейчас openstack+lxc но похоже это тупиковая ветвь :(
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
Timur
нужен proxmox под centos )
не нужен, centos контейнеры и так неплохо себя в proxmox чувствуют, какая вам разница на хостовую систему?
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
Timur
у меня еще более сложная задача. Запихнуть легаси. Поэтому надо будет прикручивать еще ceph rbd, ну или линсторы всякие как ты советуешь
если не нужна миграция контейнеров с ноды на ноду, то можно и локально хранить
источник

T

Timur in OpenNebula - русскоговорящее сообщество
kvaps
не нужен, centos контейнеры и так неплохо себя в proxmox чувствуют, какая вам разница на хостовую систему?
хм.. хорошо если так. Просто одним глазком глянул и сложилось впечатление, что для убунты
источник

T

Timur in OpenNebula - русскоговорящее сообщество
kvaps
если не нужна миграция контейнеров с ноды на ноду, то можно и локально хранить
ну как раз хочется миграцию. Одна из основных хотелок
источник

T

Timur in OpenNebula - русскоговорящее сообщество
когда падает нода с легаси - все страдают
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
Timur
хм.. хорошо если так. Просто одним глазком глянул и сложилось впечатление, что для убунты
нет, у нас у самих хостовая система - bionic с pve-ядром, а в контейнерах мы centos запускаем
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
Timur
ну как раз хочется миграцию. Одна из основных хотелок
тогда без сетевой хранилки не обойтись
источник

T

Timur in OpenNebula - русскоговорящее сообщество
kvaps
тогда без сетевой хранилки не обойтись
угу.. ну да ладно.. Основной вызов как будут себя чувствовать "systemd-контейнеры" в кубере
источник

k

kvaps in OpenNebula - русскоговорящее сообщество
тут либо внешний сторадж с nfs/iscsi (простой вариант)
либо ceph/linstor что-то ещё, зависит от нагрузки
источник
2019 August 01

AS

Alexey Shabalin in OpenNebula - русскоговорящее сообщество
Сделал PR для отключения support-tab в sunstone. В 5.8 поломали, можно сколько угодно отключать support-tab в конфигах yml, но это никак не влияет
источник
2019 August 02

R

Ru! in OpenNebula - русскоговорящее сообщество
А небула умеет в режиме работы с openvswitch работать и хостом и виртуалками по одному интерфейсу? Что-то у меня осноной интерфейс все получается в одном бридже, а виртуалки во втором и, соотвественно, пакетики не ходят
источник