Size: a a a

GraphQL — русскоговорящее сообщество

2021 June 16

pl

peach lasagna in GraphQL — русскоговорящее сообщество
Понял, спасибо
источник
2021 June 17

NK

Nikita Krulikovskiy in GraphQL — русскоговорящее сообщество
Всем Привет! Есть вопрос, у меня есть страница, где за 1 раз запрашиваются около 15 query. Из-за того что они выполняются не 1 запрос, а сразу 15, то видна просадка в загрузки страницы. Подскажите, как лучше организовать такое количество запросов. Ленивая загрузка, или как то запрашивать все query за 1 запрос, или на стороне сервера присылать их просто в 1 запросе. Или есть еще более хорошее решение? У меня был маленький опыт работы с apollo и кейсов не особо видел.
источник

λ

λoλdog in GraphQL — русскоговорящее сообщество
Так батч это скорее оптимизация и должно лучше работать
источник

λ

λoλdog in GraphQL — русскоговорящее сообщество
Если есть вещи необязательные к рендерингу прям сейчас , то можно их просить позже
источник

NK

Nikita Krulikovskiy in GraphQL — русскоговорящее сообщество
О, не знал о такой фишке, сейчас попробую. Спасибо
источник

ОЛ

Олег Линьков... in GraphQL — русскоговорящее сообщество
Только бек тоже должен поддерживать batch query
источник

ОЛ

Олег Линьков... in GraphQL — русскоговорящее сообщество
Но если аполло тоже, из коробки работает
источник

NK

Nikita Krulikovskiy in GraphQL — русскоговорящее сообщество
Да, как раз сейчас разбираюсь. По идее Graphene Django должен поддерживать
источник

NK

Nikita Krulikovskiy in GraphQL — русскоговорящее сообщество
Всё супер ! Спасибо огромное. работает
источник

λ

λoλdog in GraphQL — русскоговорящее сообщество
Ничего не понял, у тебя было 15 запросов наоборот ?
источник

λ

λoλdog in GraphQL — русскоговорящее сообщество
Вместо одного?
источник

NK

Nikita Krulikovskiy in GraphQL — русскоговорящее сообщество
У меня было 15 query на одной странице и это было 15 запросов к беку, т.к. там много разных информативных блоков - новости и тд. Я настроил batching на сервере и на фронте, и теперь у меня 4 запроса к беку с этими 15 query
источник

λ

λoλdog in GraphQL — русскоговорящее сообщество
Понятно
источник

λ

λoλdog in GraphQL — русскоговорящее сообщество
Можно сделать и одним запросом если хочется
источник

NK

Nikita Krulikovskiy in GraphQL — русскоговорящее сообщество
Да, я знаю. Но Batching очень топовая вещь =)
источник
2021 June 21

R

Roman in GraphQL — русскоговорящее сообщество
ребят, где можно посмотреть простенькие примеры подключения gql к клиенту на реакте. Доку не понимаю.
источник

АА

Андрей Антипов... in GraphQL — русскоговорящее сообщество
доку аполло?
источник

𝘂

𝘂𝘅𝗻𝗮𝗺𝗲... in GraphQL — русскоговорящее сообщество
источник

P@

Pavel @nodkz in GraphQL — русскоговорящее сообщество
К сожалению, не за горами разочарование от батчинга. Они работают по скорости самого медленного запроса. И лучше прогрессивно показывать куски приложения, по ходу получения данных.

Вот @defer и @stream будет топчик https://graphql.org/blog/2020-12-08-improving-latency-with-defer-and-stream-directives
источник

NK

Nikita Krulikovskiy in GraphQL — русскоговорящее сообщество
Спасибо, изучу это. Но пока в документации Graphene Python поддержку их не увидел, возможно и так заработает всё. Ну хоть в apollo они есть, уже хорошо.
источник