Size: a a a

SDS и Кластерные FS

2020 September 08

i

ivdok in SDS и Кластерные FS
Виталий На Заборе
А, это-то да, но к чему тут яндекс маркет?
У них есть свой магаз, "беру", и они активно его пушат в выдаче. Он тоже входит в АКИТ
источник

ВН

Виталий На Заборе... in SDS и Кластерные FS
ivdok
У них есть свой магаз, "беру", и они активно его пушат в выдаче. Он тоже входит в АКИТ
А... понятно
источник

i

ivdok in SDS и Кластерные FS
Виталий На Заборе
Это типа тоже M.2, но обожравшийся
Наелся и спит
источник

ВН

Виталий На Заборе... in SDS и Кластерные FS
ivdok
Наелся и спит
Там на самом деле ещё больший прикол. Этот форм фактор называется NGSFF. Они его хотели вообще назвать M.3, но решили, что PCI-SIG таки обидится.
В общем он вроде пока вполне совместимый, но типа находится в 1 пине от КЗ
https://www.anandtech.com/show/13609/pcisig-warns-of-incompatibilities-between-m2-and-samsungs-ngsff
источник

ВН

Виталий На Заборе... in SDS и Кластерные FS
То есть если PCI-SIG расширит M.2, то есть шанс получить несовместимость разъёмов
источник

ВН

Виталий На Заборе... in SDS и Кластерные FS
Но PM983 вполне нормальная NVMe-шка. Хотя линейно проигрывает Micron-ам 9300
источник

i

ivdok in SDS и Кластерные FS
Всем U.2 посоны
источник

n

nanomechanic in SDS и Кластерные FS
ivdok
Всем U.2 посоны
в дешевом старом сэнди бридж конвергентном железе сложно вхуярить без доработки болгаркой.
источник

i

ivdok in SDS и Кластерные FS
nanomechanic
в дешевом старом сэнди бридж конвергентном железе сложно вхуярить без доработки болгаркой.
В этом месте я хотел бы сказать, что кого парит хлам 10-летней давности...
источник

i

ivdok in SDS и Кластерные FS
...А потом я смотрю на свой кластер проксмокса и плачу
источник
2020 September 09

i

ivdok in SDS и Кластерные FS
Переслано от George
Если кому интересны подкасты - поговорили о zfs, её внутренностях, проекте openZFS https://sdcast.ksdaemon.ru/2020/09/sdcast-122/
SDCast
SDCast #122: в гостях Георгий Меликов, контрибьютор проектов OpenZFS и ZFS on Linux
После несколько затянувшегося перерыва, встречайте 122-й выпуск подкаста, посвящённый файловой системе ZFS. У меня в гостях Георгий Меликов, контрибьютор проектов OpenZFS и ZFS on Linux.  

В этом выпуске мы говорим о том, как устроена файловая система ZFS, в чём её особенности и отличия от других файловых систем, из каких компонентов она состоит и как работает.  

Георгий рассказал про архитектуру системы, рассказал про модули и их назначение, мы обсудили в целом подход Copy on write, иммьютабельность данных, снепшоты, различные кэши и методы оптимизаций, применяемые в ZFS.

Поговорили про фрагментацию данных, шифрование и сжатие. Георгий рассказал про интересные новые фичи, которые появились в последних релизах или находятся в альфе и скоро попадут в релиз, например нативное шифрование или dRAID.

Так же Георгий рассказал про историю проекта, а точнее целое семейство проектов, и то, как все они потихонечку собираются воедино. Не могли мы не поговорить про сравнение ZFS и железных контроллеров и поддержку…
источник

N

Nikita in SDS и Кластерные FS
https://www.phoronix.com/scan.php?page=article&item=linux-50-59&num=6

"First up was wondering why the IO_uring performance was so poor on the Linux 5.9 kernel compared to prior releases when using the same FIO build and the same FIO configuration throughout.

Thanks to the Phoronix Test Suite for making it easy to reproduce and layering on top of Git bisect for speeding up the kernel bisection and the kernel build speeds of the EPYC 7702, the commit was soon uncovered.

The commit leading to the lower random read performance with IO_uring was tracked down to this two-line patch over mm: allow read-ahead with IOCB_NOWAIT set.

When asking Jens Axboe about this patch that he authored and maintainer of the Linux block subsystem and IO_uring lead developer, he provided some interesting insight over the performance drop. And it's actually expected.

Jens explained that Linux 5.9 is indeed handling buffered I/O differently now with IO_uring. Prior to Linux 5.9, buffered reads would spawn extra threads while that is no longer the case with 5.9+. With the new behavior in Linux 5.9, the latency should improve while the throughput can be impacted if it previously benefited from spreading the load over the multiple threads. Basically there is now more efficient async buffered I/O but can cause a regression particularly on larger systems where previously were using more threads."
источник

ВН

Виталий На Заборе... in SDS и Кластерные FS
Nikita
https://www.phoronix.com/scan.php?page=article&item=linux-50-59&num=6

"First up was wondering why the IO_uring performance was so poor on the Linux 5.9 kernel compared to prior releases when using the same FIO build and the same FIO configuration throughout.

Thanks to the Phoronix Test Suite for making it easy to reproduce and layering on top of Git bisect for speeding up the kernel bisection and the kernel build speeds of the EPYC 7702, the commit was soon uncovered.

The commit leading to the lower random read performance with IO_uring was tracked down to this two-line patch over mm: allow read-ahead with IOCB_NOWAIT set.

When asking Jens Axboe about this patch that he authored and maintainer of the Linux block subsystem and IO_uring lead developer, he provided some interesting insight over the performance drop. And it's actually expected.

Jens explained that Linux 5.9 is indeed handling buffered I/O differently now with IO_uring. Prior to Linux 5.9, buffered reads would spawn extra threads while that is no longer the case with 5.9+. With the new behavior in Linux 5.9, the latency should improve while the throughput can be impacted if it previously benefited from spreading the load over the multiple threads. Basically there is now more efficient async buffered I/O but can cause a regression particularly on larger systems where previously were using more threads."
Ну это если к буфферед относится, то не особо важно
источник
2020 September 11

i

ivdok in SDS и Кластерные FS
@kvaps А как вы защищаете NFSv3? Только приватные сети, или вдобавок kerberos?
источник

k

kvaps in SDS и Кластерные FS
ivdok
@kvaps А как вы защищаете NFSv3? Только приватные сети, или вдобавок kerberos?
kerberos не юзаем, только фаервол, только хардкор
источник

k

kvaps in SDS и Кластерные FS
сейчас хочу бэкап сервера тоже в куб ввести, через cilium политик навешать, будет секьюрно
источник

🇷

🇷🇺Dmitry🇮🇪🇩🇪... in SDS и Кластерные FS
а сам цилиум не слишком сильно complexity увеличивает?
источник

k

kvaps in SDS и Кластерные FS
🇷🇺Dmitry🇮🇪🇩🇪
а сам цилиум не слишком сильно complexity увеличивает?
На первый взгляд нет, а где-то даже упрощает, но в прод пока не вывели, так что сказать не могу
источник

p

pragus in SDS и Кластерные FS
Виталий На Заборе
Ну это если к буфферед относится, то не особо важно
Почему не особенно важно?
источник

ВН

Виталий На Заборе... in SDS и Кластерные FS
pragus
Почему не особенно важно?
Потому что раньше вообще асинхронный буферизованный ввод/вывод в линуксе не работал, и ничо
источник