Всё очень зависит от вводных и от текущего состояния вашей аналитической архитектуры. Если с нуля, в смысле не на текущей работе собираетесь что-то делать, то почитайте книжку "Потоковая обработка данных". Даст общее представление какой путь проделывают данные. Также почитайте про лямбда-архитектуру и вот это всё. Ну и хотя бы про нормализацию данных, релиционки.
Дата инженер больше программист, нежели аналитик, на мой дилетантский взгляд. Считается, что важный язык для ди - Scala (потому что Spark и Databricks). В принципе не важно, кмк, на чём писать (scala/python/r). Можно на любом. Но вот штуки для оркестрации и шедулирвоания (Airflow, Prefect, Dagster) написаны на питоне и таски для них надо писать на питоне.
Важен SQL. Это язык трансформации данных. Без этого никуда.
К вашей теме возвращаясь. Если данные уже лежат в БД и над ними просто надо поколдовать (ELT, а не ETL проесс), присмотритесь к инструменту DBT. Я его начал у нас использовать, уже 4 больших отчёта в PBI завязаны на витрины, которые созданы этим инструментом, все очень довольны. Если просто - это создание пайплайнов трансформации данных. Причём всё сохранёнными sql скриптами. В комплекте логирование, документирование и куча всяких очень полезных вещей. Очень рекомендую))