Size: a a a

SDS и Кластерные FS

2021 January 31

NP

Nick Potemkin in SDS и Кластерные FS
ну да )
источник

NP

Nick Potemkin in SDS и Кластерные FS
с тех пор ни-ни... )
источник

NP

Nick Potemkin in SDS и Кластерные FS
в завязке
источник

s

sexst in SDS и Кластерные FS
Марк ☢️ Коренберг
Отсутствие падений в других фс не означает что данные нн поврежденв
Отсутствие падений не означает. Но оно хотя бы чинится и запускается.
источник

МК

Марк ☢️ Коренберг... in SDS и Кластерные FS
sexst
Отсутствие падений не означает. Но оно хотя бы чинится и запускается.
Тоесть, другие фс тоже падали, верно ?
источник

МК

Марк ☢️ Коренберг... in SDS и Кластерные FS
Но чинились
источник

s

sexst in SDS и Кластерные FS
Марк ☢️ Коренберг
Тоесть, другие фс тоже падали, верно ?
Нет, я просто не отрицаю вероятность скрытно побитых данных как таковых в принципе при внешне живой ФС. Конкретно у меня на этих всё хорошо.
Но если другие фс падают, то редко так наглухо
источник

МК

Марк ☢️ Коренберг... in SDS и Кластерные FS
sexst
Нет, я просто не отрицаю вероятность скрытно побитых данных как таковых в принципе при внешне живой ФС. Конкретно у меня на этих всё хорошо.
Но если другие фс падают, то редко так наглухо
Не знаю, что там у вас. Но за всю жизнь ни разу не встречал самовольно упавшие фс кроме фат
источник

МК

Марк ☢️ Коренберг... in SDS и Кластерные FS
Вот честно
источник

МК

Марк ☢️ Коренберг... in SDS и Кластерные FS
Во всех случаях либо сторадж говно, либо юзер уебок (нарример запускал фио на рандом врайт на девайс где лежит фс)
источник

МК

Марк ☢️ Коренберг... in SDS и Кластерные FS
А, да. Битая память была еще
источник

s

sexst in SDS и Кластерные FS
Повезло. У меня был ряд неприятных штук с btrfs, да и общемировая статистика отношения за годы не поменялась в лучшую сторону. А миллионы мух...
источник

МК

Марк ☢️ Коренберг... in SDS и Кластерные FS
sexst
Повезло. У меня был ряд неприятных штук с btrfs, да и общемировая статистика отношения за годы не поменялась в лучшую сторону. А миллионы мух...
Миллионы мух зппускают фсцк, лечат битую фс и считают что с железом все ок
источник

s

sexst in SDS и Кластерные FS
Память у меня на десктопе eccшная и целая.
источник

s

sexst in SDS и Кластерные FS
Марк ☢️ Коренберг
Миллионы мух зппускают фсцк, лечат битую фс и считают что с железом все ок
Бл. У меня эта хрень просто однажды после выключения сдохла. Если другие не дохнут, то у меня, как пользователя, очевидно достаточно рабочее железо для работы других фс без разноса их в crap shreds, так? Если эта фс такое же приключение незаметно для меня не в состоянии прожевать, то она хуже остальных уже в тупой десктопной ситуации с одним диском.
источник

S

Slach in SDS и Кластерные FS
Народ, подскажите
https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html

хочу для gp3 дисков fio запустить

последовательное чтение
каким должен быть bs
чтобы приблизиться к обозначенному гигабайту в секунду?
16k ?

сейчас вот так

и при заданных 4000
в документации AWS EBS CSI драйвера
нашел вот такое
   // Maximum throughput for gp3 is 1000. However, maximum throughput/iops for gp3 is 0.25
   // Since the default iops is 3000, set to 750.

соответсвенно storage class задал как iops=4000, throughput=1000

но что-то больше 330-350 мегабайт в секунду тесты непоказывают...

   echo Testing Read Bandwidth...
   READ_BW=$(fio --randrepeat=0 --verify=0 --ioengine=libaio --direct=$FIO_DIRECT --gtod_reduce=1 --name=read_bw --filename=$DBENCH_MOUNTPOINT/fiotest --bs=16K --iodepth=64 --size=$FIO_SIZE --readwrite=randread --time_based --ramp_time=2s --runtime=15s)

       echo Testing Read Sequential Speed...
       READ_SEQ=$(fio --randrepeat=0 --verify=0 --ioengine=libaio --direct=$FIO_DIRECT --gtod_reduce=1 --name=read_seq --filename=$DBENCH_MOUNTPOINT/fiotest --bs=1M --iodepth=16 --size=$FIO_SIZE --readwrite=read --time_based --ramp_time=2s --runtime=15s --thread --numjobs=4 --offset_increment=$FIO_OFFSET_INCREMENT)
источник

ВН

Виталий На Заборе... in SDS и Кластерные FS
Slach
Народ, подскажите
https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html

хочу для gp3 дисков fio запустить

последовательное чтение
каким должен быть bs
чтобы приблизиться к обозначенному гигабайту в секунду?
16k ?

сейчас вот так

и при заданных 4000
в документации AWS EBS CSI драйвера
нашел вот такое
   // Maximum throughput for gp3 is 1000. However, maximum throughput/iops for gp3 is 0.25
   // Since the default iops is 3000, set to 750.

соответсвенно storage class задал как iops=4000, throughput=1000

но что-то больше 330-350 мегабайт в секунду тесты непоказывают...

   echo Testing Read Bandwidth...
   READ_BW=$(fio --randrepeat=0 --verify=0 --ioengine=libaio --direct=$FIO_DIRECT --gtod_reduce=1 --name=read_bw --filename=$DBENCH_MOUNTPOINT/fiotest --bs=16K --iodepth=64 --size=$FIO_SIZE --readwrite=randread --time_based --ramp_time=2s --runtime=15s)

       echo Testing Read Sequential Speed...
       READ_SEQ=$(fio --randrepeat=0 --verify=0 --ioengine=libaio --direct=$FIO_DIRECT --gtod_reduce=1 --name=read_seq --filename=$DBENCH_MOUNTPOINT/fiotest --bs=1M --iodepth=16 --size=$FIO_SIZE --readwrite=read --time_based --ramp_time=2s --runtime=15s --thread --numjobs=4 --offset_increment=$FIO_OFFSET_INCREMENT)
омозон тормозон
источник

ВН

Виталий На Заборе... in SDS и Кластерные FS
меня тоже порадовал их "nvme" который выдал 262 МБ/с
источник

ВН

Виталий На Заборе... in SDS и Кластерные FS
тест линейной записи/чтения - это типа bs=4M iodepth=16 условно
источник

ВН

Виталий На Заборе... in SDS и Кластерные FS
этого должно быть достаточно
источник