Size: a a a

2020 June 30

AK

Alex Ker in sql_ninja
Артем
Я плохо понял с чем это связано, так что точно не могу сказать.  Даже ошибки не помню. Но явно не с добавлением столбцов в @таблицу
Но если встретится че нибудь придумаю
источник

А

Артем in sql_ninja
но мсскл запутывался на ровном месте в какое поле чего сувать)
источник

А

Артем in sql_ninja
Alex Ker
Но если встретится че нибудь придумаю
> добавить столбцы в инто. Неожидано)
источник

A

Andrey in sql_ninja
Привет!
А можете помочь новичку составить план обучения, чтобы "для себя" научиться строить простейшие системы вычислений на SQL-бд ?

Нужны такие вещи:
- таблица исходных данных (уже сделал)
- расчеты по этой таблице, которые будут пересчитываться при ее изменении
- выгрузка результатов в  виде других таблиц, например в Tableau

Хочется сымитировать работу больших реальных систем, поэтому видимо придется не класть все вычисления в один запрос, а создать какие то промежуточные таблицы с результатами расчетов.

Подскажите, какие механизмы для этого нужно изучить?

Предполагаю, что:
- использовать постгри (тк бесплатно)
- создание/изменение таблиц
- вычислительные функции (какие механизмы нужно использовать? все вычисления на pg без временных таблиц? вложенные запросы? view? и тд)
- скрипты на питоне для того, чтобы триггерить пересчеты (какие скрипты, как их гуглить?)
источник

А

Артем in sql_ninja
Andrey
Привет!
А можете помочь новичку составить план обучения, чтобы "для себя" научиться строить простейшие системы вычислений на SQL-бд ?

Нужны такие вещи:
- таблица исходных данных (уже сделал)
- расчеты по этой таблице, которые будут пересчитываться при ее изменении
- выгрузка результатов в  виде других таблиц, например в Tableau

Хочется сымитировать работу больших реальных систем, поэтому видимо придется не класть все вычисления в один запрос, а создать какие то промежуточные таблицы с результатами расчетов.

Подскажите, какие механизмы для этого нужно изучить?

Предполагаю, что:
- использовать постгри (тк бесплатно)
- создание/изменение таблиц
- вычислительные функции (какие механизмы нужно использовать? все вычисления на pg без временных таблиц? вложенные запросы? view? и тд)
- скрипты на питоне для того, чтобы триггерить пересчеты (какие скрипты, как их гуглить?)
Для начала напиши Коннект к базе данных на питоне.
источник

N

Nik in sql_ninja
Alexey Shumkin
а свой (on-premise) прод не падает? )))))
Тут хотя бы повлиять можешь, а в случае с облаками ничего сделать нельзя будет
источник

NB

Nikita Baburov in sql_ninja
Andrey
Привет!
А можете помочь новичку составить план обучения, чтобы "для себя" научиться строить простейшие системы вычислений на SQL-бд ?

Нужны такие вещи:
- таблица исходных данных (уже сделал)
- расчеты по этой таблице, которые будут пересчитываться при ее изменении
- выгрузка результатов в  виде других таблиц, например в Tableau

Хочется сымитировать работу больших реальных систем, поэтому видимо придется не класть все вычисления в один запрос, а создать какие то промежуточные таблицы с результатами расчетов.

Подскажите, какие механизмы для этого нужно изучить?

Предполагаю, что:
- использовать постгри (тк бесплатно)
- создание/изменение таблиц
- вычислительные функции (какие механизмы нужно использовать? все вычисления на pg без временных таблиц? вложенные запросы? view? и тд)
- скрипты на питоне для того, чтобы триггерить пересчеты (какие скрипты, как их гуглить?)
вот сюда попробуй.  datalearn.ru
источник

A

Andrey in sql_ninja
Артем
Для начала напиши Коннект к базе данных на питоне.
это ведь нужно уже для выгрузки конечных результатов?

или калькуляционные сервисы тоже должны подключаться к исходным данным через питон?
источник

А

Артем in sql_ninja
Andrey
это ведь нужно уже для выгрузки конечных результатов?

или калькуляционные сервисы тоже должны подключаться к исходным данным через питон?
Это нужно чтобы работать с бд.
источник

MC

Max Chistyakov in sql_ninja
SQL Server Reporting Services

Нужно в отчёте смержить два датасета из разных источников, которые находятся на разных машинах и вообще разные СУБД. Пусть будут  dataset_1 и dataset_2.

Основные данные лежат dataset_1. Из dataset_2 выбирается значение с помощью SSRS функции Lookup по первичному ключу, который есть в обоих наборах. Тут сталкиваюсь с проблемой — я могу контролировать, сколько строк вернёт Dataset_1, подставляя параметр в limit, но из  dataset_2 тянутся все записи из таблицы, и только потом на уровне SSRS фильтруются по условию в  функции Lookup. В таблице миллионы записей, и когда я в  dataset_1 задаю получить только 100 первых записей, то dataset_2 всё равно возвращает миллионы строк, они тянутся по сети, и они все обрабатывается в оперативной памяти.

Вопрос: можно ли как-то сохранять в две новые переменные максимальное и минимальное значения первичного ключа из набора?  Чтобы эти значения подставить в where набора  dataset_2 — сделать запрос более селективным, не сканировать тяжёлую таблицу и  не тянуть это всё по сети?
источник

MC

Max Chistyakov in sql_ninja
пока писал вопрос, понял, что можно вместо параметра int для limit указывать явно два параметра минимального и максимального значения PK, и тогда проблема решится

но раз уж написал, интересно, можно ли сделать так как я сформулировал выше
источник

К

Какой-то Хмырь... in sql_ninja
Когда всё четко с самого начала)
источник

AK

Alex Ker in sql_ninja
Max Chistyakov
SQL Server Reporting Services

Нужно в отчёте смержить два датасета из разных источников, которые находятся на разных машинах и вообще разные СУБД. Пусть будут  dataset_1 и dataset_2.

Основные данные лежат dataset_1. Из dataset_2 выбирается значение с помощью SSRS функции Lookup по первичному ключу, который есть в обоих наборах. Тут сталкиваюсь с проблемой — я могу контролировать, сколько строк вернёт Dataset_1, подставляя параметр в limit, но из  dataset_2 тянутся все записи из таблицы, и только потом на уровне SSRS фильтруются по условию в  функции Lookup. В таблице миллионы записей, и когда я в  dataset_1 задаю получить только 100 первых записей, то dataset_2 всё равно возвращает миллионы строк, они тянутся по сети, и они все обрабатывается в оперативной памяти.

Вопрос: можно ли как-то сохранять в две новые переменные максимальное и минимальное значения первичного ключа из набора?  Чтобы эти значения подставить в where набора  dataset_2 — сделать запрос более селективным, не сканировать тяжёлую таблицу и  не тянуть это всё по сети?
Жестко
источник

И

Игорь in sql_ninja
Какой-то Хмырь
Когда всё четко с самого начала)
а что за книга?)
источник

К

Какой-то Хмырь... in sql_ninja
Grant Fitchey SQL server execution plans
источник

К

Какой-то Хмырь... in sql_ninja
кинуть сюда? она вроде бесплатная
источник

AK

Alex Ker in sql_ninja
Max Chistyakov
SQL Server Reporting Services

Нужно в отчёте смержить два датасета из разных источников, которые находятся на разных машинах и вообще разные СУБД. Пусть будут  dataset_1 и dataset_2.

Основные данные лежат dataset_1. Из dataset_2 выбирается значение с помощью SSRS функции Lookup по первичному ключу, который есть в обоих наборах. Тут сталкиваюсь с проблемой — я могу контролировать, сколько строк вернёт Dataset_1, подставляя параметр в limit, но из  dataset_2 тянутся все записи из таблицы, и только потом на уровне SSRS фильтруются по условию в  функции Lookup. В таблице миллионы записей, и когда я в  dataset_1 задаю получить только 100 первых записей, то dataset_2 всё равно возвращает миллионы строк, они тянутся по сети, и они все обрабатывается в оперативной памяти.

Вопрос: можно ли как-то сохранять в две новые переменные максимальное и минимальное значения первичного ключа из набора?  Чтобы эти значения подставить в where набора  dataset_2 — сделать запрос более селективным, не сканировать тяжёлую таблицу и  не тянуть это всё по сети?
На c# такое делал bulkInsert
источник

И

Игорь in sql_ninja
Какой-то Хмырь
кинуть сюда? она вроде бесплатная
да, кинь плиз
источник

К

Какой-то Хмырь... in sql_ninja
Игорь
да, кинь плиз
источник

И

Игорь in sql_ninja
источник