Size: a a a

2020 April 30

VO

Vitaliy Okulov in K8Spb
привет всем, кто-нибудь сталкивался с такой проблемой:
dockerd[84976]: time="2020-04-23T20:11:34.568427065Z" level=error msg="fatal task error" error="starting container failed: failed to get network during CreateEndpoint: network s5dwoe645wldlqxte0j6pvpab not found" module=node/agent/taskmanager node.id=n43p0kpffyzuf5hhzz6nj8ekl service.id=599t8ad4hq4ghzfpsl5l0xsqj task.id=jcw8c74j3g35qrjd20p08nfl2
источник

N

Nikita in K8Spb
Андрей Мавлянов
хочется совета.


есть java приложение в контейнере. сейчас это swarm, но планируется k8s.

есть желалание прямо из приложения писать логи в json для logstash и вычитывать их filebeat.

видимо будем делать volume для логов доступный для контейнера filebeat, пусть читает.


но учитывая перспективу k8s - может быть есть какое-то другое решение, более корректное?
В сворме попробуй это. Просто настраиваешь таргетом порт логстеша, указываешь тип json. Дальше разбираешь фильтрами преднавешенные флаги. Забирает со всех сервисов  из сокета по апи
https://github.com/gliderlabs/logspout
источник
2020 May 01

A

Andrey in K8Spb
надо описать network policies для большинства сервисов в кластере ingress/outgress, а это дохера повторяющегося текста
есть у кого рецепты как это сделать? может хелм-чарты какие с темплейтами чтоб свой не говнять
источник

*

* * in K8Spb
Andrey
надо описать network policies для большинства сервисов в кластере ingress/outgress, а это дохера повторяющегося текста
есть у кого рецепты как это сделать? может хелм-чарты какие с темплейтами чтоб свой не говнять
подпишусь на тред
источник

PK

Pavel Khritonenko in K8Spb
Да. Лично я пишу их на тайпскрипте, предлагаю всем попробовать хотя бы.
источник

PK

Pavel Khritonenko in K8Spb
Но если джинжи с хелмом удобней - штош.
источник

VR

Vadim Rutkovsky in K8Spb
Andrey
надо описать network policies для большинства сервисов в кластере ingress/outgress, а это дохера повторяющегося текста
есть у кого рецепты как это сделать? может хелм-чарты какие с темплейтами чтоб свой не говнять
Наберите побольше воздуха, сейчас будет "мой темплейтер ямла даст мзды твоему темплейтеру" тред
источник

*

* * in K8Spb
j2 Ninja в бой!
источник

A

Andrey in K8Spb
Паша, я тебя тоже понимаю, у меня тоже бомбит что helm такой тугой что работает с текстом а не со стримом key/value, правда мои диваны развернуты в сторону jsonnet больше :)
в тему треда, пока так:
https://orca.tufin.io/netpol/ -> проверять правила
https://github.com/helm/charts/tree/master/incubator/raw -> инжектить манифесты
источник

VR

Vadim Rutkovsky in K8Spb
m4, выбираю тебя! Правда единственственная мощь это повторять "зато я часть POSIX стандарта"
источник

W

Womchik in K8Spb
вот зачем его вспоминать?
источник

PR

Paul Rudnitskiy in K8Spb
M4 как шаблонизатор кубера - это свежо!
источник

W

Womchik in K8Spb
excel уже есть для управления. и фигня какая-то к емаксу
источник

G

GithubReleases in K8Spb
kubernetes-incubator/cri-o tagged: v1.15.4
Link: https://github.com/cri-o/cri-o/releases/tag/v1.15.4
Release notes:
CRI-O 1.15.4

Welcome to the v1.15.4 release of CRI-O!

Note: this is the final tagged release of 1.15

Please try out the release binaries and report any issues at  

[https://github.com/cri-o/cri-o/issues](https://github.com/cri-o/cri-o/issues).

#...
More
источник
2020 May 02

G

GithubReleases in K8Spb
derailed/k9s tagged: v0.19.4
Link: https://github.com/derailed/k9s/releases/tag/v0.19.4
Release notes:
Fix issues [#692](https://github.com/derailed/k9s/issues/692) [#689](https://github.com/derailed/k9s/issues/689) [#685](https://github.com/derailed/k9s/issues/685) [#684](https://github.com/derailed/k9s/issues/684)
источник

G

GithubReleases in K8Spb
derailed/k9s description changed: v0.19.4
Link: https://github.com/derailed/k9s/releases/tag/v0.19.4
Release notes:
[![image](https://raw.githubusercontent.com/derailed/k9s/master/assets/k9s_small.png)](https://raw.githubusercontent.com/derailed/k9s/master/assets/k9s_small.png)

# Release v0.19.4

## Notes

Thank you to all that contributed with flushing out issue...
More
источник

G

GithubReleases in K8Spb
derailed/k9s description changed: v0.19.4
Link: https://github.com/derailed/k9s/releases/tag/v0.19.4
Release notes:
[![image](https://raw.githubusercontent.com/derailed/k9s/master/assets/k9s_small.png)](https://raw.githubusercontent.com/derailed/k9s/master/assets/k9s_small.png)

# Release v0.19.4

## Notes

Thank you to all that contributed with flushing out issue...
More
источник
2020 May 04

A

Andrey in K8Spb
заметил такую штуку:

# k get deployment nginx-ingress-controller -o template={{.spec.selector}}
map[matchLabels:map[app:nginx-ingress release:nginx-ingress]]

# k get deployment nginx-ingress-default-backend -o template={{.spec.selector}}
map[matchLabels:map[app:nginx-ingress release:nginx-ingress]]

# k get pod -l app=nginx-ingress,release=nginx-ingress
NAME                                             READY   STATUS    RESTARTS   AGE
nginx-ingress-controller-9b8c4689-sftfp          1/1     Running   0          3d3h
nginx-ingress-default-backend-6cc766974d-jkjsv   1/1     Running   0          3d3h


я всегда думал что deployment.spec.selector опередяет какие поды попадают под фильтр, а тут два разных деплоймента с одинаковым набором селекторов -> то есть ожидаемое поведение что каждый деплоймент увидит два пода и будет скалировать их до одного
походу я прогулял урок когда рассказывали, он еще что-то в селекторе учитывает?
источник

VR

Vadim Rutkovsky in K8Spb
Andrey
заметил такую штуку:

# k get deployment nginx-ingress-controller -o template={{.spec.selector}}
map[matchLabels:map[app:nginx-ingress release:nginx-ingress]]

# k get deployment nginx-ingress-default-backend -o template={{.spec.selector}}
map[matchLabels:map[app:nginx-ingress release:nginx-ingress]]

# k get pod -l app=nginx-ingress,release=nginx-ingress
NAME                                             READY   STATUS    RESTARTS   AGE
nginx-ingress-controller-9b8c4689-sftfp          1/1     Running   0          3d3h
nginx-ingress-default-backend-6cc766974d-jkjsv   1/1     Running   0          3d3h


я всегда думал что deployment.spec.selector опередяет какие поды попадают под фильтр, а тут два разных деплоймента с одинаковым набором селекторов -> то есть ожидаемое поведение что каждый деплоймент увидит два пода и будет скалировать их до одного
походу я прогулял урок когда рассказывали, он еще что-то в селекторе учитывает?
а ownerReference стоит в метадате подов?
источник

A

Andrey in K8Spb
ага, понял, контроллер же, спс :)
источник