Size: a a a

Ceph — русскоговорящее сообщество

2020 December 07

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Виталий На Заборе
ну собсно второй lvm уже ведь не ты делаешь, а цеф сам
хз, какая-то кривая схема получится lvm поверх lvm с прослойкой bcache..
источник

k

k0ste in Ceph — русскоговорящее сообщество
Владимир Марченко
Всем привет.
Кто-нибудь сталкивался с проблемами форматирования RBD расположенного на EC пуле?
Образ создается, мапится через RBD к целевой системе, отформатировать не могу, IO error
Сам диск создан на Replicated Pool, данные на EC перезапись разрешена.
rbd info
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Павел Савин
хз, какая-то кривая схема получится lvm поверх lvm с прослойкой bcache..
ясно в общем, надо переделать.
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
спасибо
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Павел Савин
хз, какая-то кривая схема получится lvm поверх lvm с прослойкой bcache..
ну убери нах нижний lvm
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
зачем он тебе
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
хотел не создавать партиции, а стразу pvcreate на /dev/sdx  Чтобы потом, при замене диска не париться с этим.
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Павел Савин
хотел не создавать партиции, а стразу pvcreate на /dev/sdx  Чтобы потом, при замене диска не париться с этим.
нипонил
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
ну в  общем сам не понял, разницы нет особой, что разделы создавать что lvm заново. ;)
источник

ВМ

Владимир Марченко... in Ceph — русскоговорящее сообщество
k0ste
rbd info
Выглядит здоровым
rbd image 'vladimir-ec':
       size 100 GiB in 25600 objects
       order 22 (4 MiB objects)
       snapshot_count: 0
       id: 5332bf99e1f65e
       data_pool: ec-rbd
       block_name_prefix: rbd_data.11.5332bf99e1f65e
       format: 2
       features: layering, data-pool
       op_features:
       flags:
       create_timestamp: Mon Dec  7 18:05:11 2020
       access_timestamp: Mon Dec  7 18:05:11 2020
       modify_timestamp: Mon Dec  7 18:05:11 2020
источник

ВМ

Владимир Марченко... in Ceph — русскоговорящее сообщество
DMESG чистый.
Ошибка при форматировании
mkfs.xfs /dev/rbd1
mkfs.xfs: Use the -f option to force overwrite.

mkfs.xfs /dev/rbd1 -f
meta-data=/dev/rbd1              isize=512    agcount=16, agsize=1638400 blks
        =                       sectsz=512   attr=2, projid32bit=1
        =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=26214400, imaxpct=25
        =                       sunit=1024   swidth=1024 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=12800, version=2
        =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
existing superblock read failed: Input/output error
mkfs.xfs: pwrite64 failed: Input/output error
источник

k

k0ste in Ceph — русскоговорящее сообщество
Владимир Марченко
Выглядит здоровым
rbd image 'vladimir-ec':
       size 100 GiB in 25600 objects
       order 22 (4 MiB objects)
       snapshot_count: 0
       id: 5332bf99e1f65e
       data_pool: ec-rbd
       block_name_prefix: rbd_data.11.5332bf99e1f65e
       format: 2
       features: layering, data-pool
       op_features:
       flags:
       create_timestamp: Mon Dec  7 18:05:11 2020
       access_timestamp: Mon Dec  7 18:05:11 2020
       modify_timestamp: Mon Dec  7 18:05:11 2020
ceph osd pool ls detail
источник

k

k0ste in Ceph — русскоговорящее сообщество
Владимир Марченко
DMESG чистый.
Ошибка при форматировании
mkfs.xfs /dev/rbd1
mkfs.xfs: Use the -f option to force overwrite.

mkfs.xfs /dev/rbd1 -f
meta-data=/dev/rbd1              isize=512    agcount=16, agsize=1638400 blks
        =                       sectsz=512   attr=2, projid32bit=1
        =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=26214400, imaxpct=25
        =                       sunit=1024   swidth=1024 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=12800, version=2
        =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
existing superblock read failed: Input/output error
mkfs.xfs: pwrite64 failed: Input/output error
rbd device list
источник

ВМ

Владимир Марченко... in Ceph — русскоговорящее сообщество
k0ste
ceph osd pool ls detail
pool 23 'ec-rbd' erasure size 4 min_size 3 crush_rule 1 object_hash rjenkins pg_num 1024 pgp_num 1024 autoscale_mode warn last_change 13941 flags hashpspool,ec_overwrites,selfmanaged_snaps stripe_width 8192 application rbd
       removed_snaps [1~3]
в rbd list есть два диска, одни на EC второй на Replicated пулах
источник

ВМ

Владимир Марченко... in Ceph — русскоговорящее сообщество
id pool     namespace image       snap device    
0  rbd-pool           test          -    /dev/rbd0
1  rbd-pool           vladimir-ec -    /dev/rbd1
источник

k

k0ste in Ceph — русскоговорящее сообщество
Владимир Марченко
pool 23 'ec-rbd' erasure size 4 min_size 3 crush_rule 1 object_hash rjenkins pg_num 1024 pgp_num 1024 autoscale_mode warn last_change 13941 flags hashpspool,ec_overwrites,selfmanaged_snaps stripe_width 8192 application rbd
       removed_snaps [1~3]
в rbd list есть два диска, одни на EC второй на Replicated пулах
Вывод всего сделай, я же не просил грепать
источник

k

k0ste in Ceph — русскоговорящее сообщество
Владимир Марченко
id pool     namespace image       snap device    
0  rbd-pool           test          -    /dev/rbd0
1  rbd-pool           vladimir-ec -    /dev/rbd1
uname -a
источник

ВМ

Владимир Марченко... in Ceph — русскоговорящее сообщество
k0ste
Вывод всего сделай, я же не просил грепать
А мы что выяснить пытаемся?

Linux test 3.10.0-1160.2.2.el7.x86_64
OS RHEL
VERSION="7.9 (Maipo)"
источник

k

k0ste in Ceph — русскоговорящее сообщество
Владимир Марченко
А мы что выяснить пытаемся?

Linux test 3.10.0-1160.2.2.el7.x86_64
OS RHEL
VERSION="7.9 (Maipo)"
Уже выяснили:
data_pool поддерживается с 4.11
источник

ВМ

Владимир Марченко... in Ceph — русскоговорящее сообщество
Мдаа
источник