Size: a a a

SDS и Кластерные FS

2020 November 11

Am

Alexander mamahtehok in SDS и Кластерные FS
kvaps
iSCSI с multipath, завтра побенчу и запрошу больше инфы
Ммм искзи :)))
источник

Am

Alexander mamahtehok in SDS и Кластерные FS
tsla
Уау, там же 16г 4 порта сходу
У парней походу нету фц от слова совсем :) что в приницпе нормально для хочтера впсок :)
источник
2020 November 12

TF

Terry Filch in SDS и Кластерные FS
спамер
источник

S

Slach in SDS и Кластерные FS
Народ, а кто нибудь черещ fio тут бенчмаркал AWS EBS  из под EKS с разными StorageClass ?
источник

I

Ivan in SDS и Кластерные FS
Slach
Народ, а кто нибудь черещ fio тут бенчмаркал AWS EBS  из под EKS с разными StorageClass ?
а зачем тратить деньги ?
источник

I

Ivan in SDS и Кластерные FS
в доке разве не указаны иопсы ?
источник

G

Glor in SDS и Кластерные FS
не всегда можно верить доке
источник

A

Alex in SDS и Кластерные FS
Slach
Народ, а кто нибудь черещ fio тут бенчмаркал AWS EBS  из под EKS с разными StorageClass ?
Я ща до компуктера доберусь и сделаю тоже
источник

S

Slach in SDS и Кластерные FS
Alex
Я ща до компуктера доберусь и сделаю тоже
ок. напиши пожалуйста
источник

A

Alex in SDS и Кластерные FS
Канеш, бенчмарки мое любимое занятие))))
источник

A

Alexander in SDS и Кластерные FS
Glor
не всегда можно верить доке
вернее никогда
источник

G

Glor in SDS и Кластерные FS
ну не, в части настройки ей верить можно, если не ей, то кому?)
источник

A

Alex in SDS и Кластерные FS
Ivan
а зачем тратить деньги ?
Ведь у хуяндекса все бесплатно?
источник

🇷

🇷🇺Dmitry🇮🇪🇩🇪... in SDS и Кластерные FS
Nik Sh
Товарищи, что посоветуете для решения такой задачи? Есть сервера виртуализации, подключенные по 10г, с nvme  слотами пустующими, есть бюджета на 3 nvme по 2 тб. Задача - сделать из этого шареную фс с 600 гб  джипегов, которую надо подмонтировать к 8ми серверам, каждый из которых должен записывать файлы(вероятность записи в один и тот же файл практически исключена). Перед серверами стоит cdn, так что производительность не в приоритете, но все-таки хочется сохранить ее на приемлемом уровне. В голову лезет только cephfs, но на трех узлах вроде не советуют делать. HA-NFS поверх drbd? GFS2 ?
nutanix ce?
источник

A

Alex in SDS и Кластерные FS
У меня бизнис суппорт, если иопсы не совпадают то напишу им что за херня
источник

S

Slach in SDS и Кластерные FS
Ivan
в доке разве не указаны иопсы ?
в доке много чего указано
вот у меня для io1 storage class
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
 name: io1
provisioner: kubernetes.io/aws-ebs
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer
parameters:
 fsType: ext4
 type: io1
 iopsPerGB: "20"


для 1000G volume fio выдало 15.7k IOPS на t3.large инстансе а по документации должно выдавать 20 000 потому что 32 тыщи максимум
источник

🇷

🇷🇺Dmitry🇮🇪🇩🇪... in SDS и Кластерные FS
Nik Sh
Товарищи, что посоветуете для решения такой задачи? Есть сервера виртуализации, подключенные по 10г, с nvme  слотами пустующими, есть бюджета на 3 nvme по 2 тб. Задача - сделать из этого шареную фс с 600 гб  джипегов, которую надо подмонтировать к 8ми серверам, каждый из которых должен записывать файлы(вероятность записи в один и тот же файл практически исключена). Перед серверами стоит cdn, так что производительность не в приоритете, но все-таки хочется сохранить ее на приемлемом уровне. В голову лезет только cephfs, но на трех узлах вроде не советуют делать. HA-NFS поверх drbd? GFS2 ?
S3?
источник

S

Slach in SDS и Кластерные FS
Alex
У меня бизнис суппорт, если иопсы не совпадают то напишу им что за херня
вот за это буду отдельно благодеран
источник

A

Alex in SDS и Кластерные FS
Slach
вот за это буду отдельно благодеран
Регион какой?
источник

I

Ivan in SDS и Кластерные FS
Slach
в доке много чего указано
вот у меня для io1 storage class
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
 name: io1
provisioner: kubernetes.io/aws-ebs
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer
parameters:
 fsType: ext4
 type: io1
 iopsPerGB: "20"


для 1000G volume fio выдало 15.7k IOPS на t3.large инстансе а по документации должно выдавать 20 000 потому что 32 тыщи максимум
как тестировалось ?
источник