Size: a a a

Ceph — русскоговорящее сообщество

2021 August 27

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Ceph daemon osd.62 config diff покажи
источник

K

Koba in Ceph — русскоговорящее сообщество
ceph daemon osd.62 config diff
{
   "diff": {
       "cluster_network": {
           "default": "",
           "file": "192.168.0.0/24",
           "final": "192.168.0.0/24"
       },
       "daemonize": {
           "default": true,
           "override": false,
           "final": false
       },
       "fsid": {
           "default": "00000000-0000-0000-0000-000000000000",
           "file": "489f18fc-968d-4d5b-834c-1ed556493aae",
           "override": "489f18fc-968d-4d5b-834c-1ed556493aae",
           "final": "489f18fc-968d-4d5b-834c-1ed556493aae"
       },
       "keyring": {
           "default": "$osd_data/keyring",
           "final": "/var/lib/ceph/osd/ceph-62/keyring"
       },
       "leveldb_log": {
           "default": "",
           "final": ""
       },
       "mon_host": {
           "default": "",
           "file": "[v2:10.16.0.121:3300,v1:10.16.0.121:6789],[v2:10.16.0.122:3300,v1:10.16.0.122:6789]",
           "final": "[v2:10.16.0.121:3300,v1:10.16.0.121:6789],[v2:10.16.0.122:3300,v1:10.16.0.122:6789]"
       },
       "mon_initial_members": {
           "default": "",
           "file": "st00,st01,st02",
           "final": "st00,st01,st02"
       },
       "no_config_file": {
           "default": false,
           "override": false,
           "final": false
       },
       "osd_max_backfills": {
           "default": 1,
           "mon": 60,
           "final": 60
       },
       "osd_memory_target": {
           "default": "4294967296",
           "file": "377750342860",
           "final": "377750342860"
       },
       "osd_pool_default_crush_rule": {
           "default": -1,
           "file": -1,
           "final": -1
       },
       "osd_recovery_max_active": {
           "default": 0,
           "mon": 60,
           "final": 60
       },
       "osd_recovery_max_single_start": {
           "default": 1,
           "mon": 60,
           "final": 60
       },
       "osd_recovery_sleep": {
           "default": 0,
           "mon": 0,
           "final": 0
       },
       "osd_scrub_during_recovery": {
           "default": false,
           "mon": false,
           "final": false
       },
       "public_network": {
           "default": "",
           "file": "10.16.0.0/24",
           "final": "10.16.0.0/24"
       },
       "rbd_default_features": {
           "default": "61",
           "final": "61"
       },
       "setgroup": {
           "default": "",
           "cmdline": "ceph",
           "final": "ceph"
       },
       "setuser": {
           "default": "",
           "cmdline": "ceph",
           "final": "ceph"
       }
   }
}
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Ни чего страноготне видишь?
источник

K

Koba in Ceph — русскоговорящее сообщество
"osd_memory_target": {
           "default": "4294967296",
           "file": "377750342860",
           "final": "377750342860"
источник

K

Koba in Ceph — русскоговорящее сообщество
Это?
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Именно
источник

K

Koba in Ceph — русскоговорящее сообщество
Как это поправить на лету?
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Ceph daemon osd.62 config set blabla
источник

k

k0ste in Ceph — русскоговорящее сообщество
351.8GiB kek
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Хорошо что на 25 остановились 🤣
источник

k

k0ste in Ceph — русскоговорящее сообщество
Ага, всё жалуются что плохо работает 😂
источник

K

Koba in Ceph — русскоговорящее сообщество
Не жалуются, это тестовая машина :)
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
@k0ste в целом имел ввиду как мне кажется )
источник

K

Koba in Ceph — русскоговорящее сообщество
Это было на первой машине в ceph.conf прописано 🙈
источник

K

Koba in Ceph — русскоговорящее сообщество
Спасибо большое, я рукожоп 😱
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Пожалуйста :) все мы иногда рукожопим 😅
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
Зато плюсик в копилочку знаний )
источник

K

Koba in Ceph — русскоговорящее сообщество
А знания на воротнике не виснут 👍
источник
2021 August 29

E

Eugene in Ceph — русскоговорящее сообщество
интересная фигня, 15.2.14 болт ложил похоже на лимиты памяти:
# ceph --admin-daemon /var/run/ceph/ceph-osd.1.asok config show | grep osd_memory
   "osd_memory_base": "805306368",
   "osd_memory_cache_min": "134217728",
   "osd_memory_cache_resize_interval": "1.000000",
   "osd_memory_expected_fragmentation": "0.150000",
   "osd_memory_target": "1073741824",
   "osd_memory_target_cgroup_limit_ratio": "0.800000",
# ceph tell osd.1 heap stats
osd.1 tcmalloc heap stats:------------------------------------------------
MALLOC:     4132094672 ( 3940.7 MiB) Bytes in use by application
MALLOC: +            0 (    0.0 MiB) Bytes in page heap freelist
MALLOC: +     46692664 (   44.5 MiB) Bytes in central cache freelist
MALLOC: +     11719680 (   11.2 MiB) Bytes in transfer cache freelist
MALLOC: +     53055480 (   50.6 MiB) Bytes in thread cache freelists
MALLOC: +     36700160 (   35.0 MiB) Bytes in malloc metadata
MALLOC:   ------------
MALLOC: =   4280262656 ( 4082.0 MiB) Actual memory used (physical + swap)
MALLOC: +    729333760 (  695.5 MiB) Bytes released to OS (aka unmapped)
MALLOC:   ------------
MALLOC: =   5009596416 ( 4777.5 MiB) Virtual address space used
MALLOC:
MALLOC:         457765              Spans in use
MALLOC:             38              Thread heaps in use
MALLOC:           8192              Tcmalloc page size
------------------------------------------------
Call ReleaseFreeMemory() to release freelist memory to the OS (via madvise()).
Bytes released to the OS take up virtual address space but no physical memory.
источник

PA

Petr Antonov in Ceph — русскоговорящее сообщество
Может быть это поможет: https://access.redhat.com/solutions/6129621
источник