Size: a a a

2021 February 16

ВК

Вячеслав Колосков... in Moscow Spark
Добрый день.
подскажите как бороться с ошибкой:
Container ... is running beyond physical memory limits. Current usage: 2.0 GB of 2 GB physical memory used; 6.4 GB of 4.2 GB virtual memory used. Killing container.
источник

ВК

Вячеслав Колосков... in Moscow Spark
приложение на pyspark, работает в режиме кластера
источник

t

tenKe in Moscow Spark
Вячеслав Колосков
Добрый день.
подскажите как бороться с ошибкой:
Container ... is running beyond physical memory limits. Current usage: 2.0 GB of 2 GB physical memory used; 6.4 GB of 4.2 GB virtual memory used. Killing container.
увеличить память на воркерах
источник

ВК

Вячеслав Колосков... in Moscow Spark
tenKe
увеличить память на воркерах
я пробовал, но почему то ошибка всегда возвращается одна и та же. я могу задать память 5Gb. а в ошибке все равно будет: Current usage: 2.0 GB of 2 GB physical memory used; 6.4 GB of 4.2 GB
источник

t

tenKe in Moscow Spark
покажи как задаешь память у воркеров
источник

t

tenKe in Moscow Spark
если ошибка одна и та же и цифры такие же - то вероятно настройка не срабатывает
источник

ВК

Вячеслав Колосков... in Moscow Spark
.config("spark.executor.memory", "2G")
источник

ВК

Вячеслав Колосков... in Moscow Spark
из интересного:
Failing this attempt.Diagnostics: Container [pid=9577,containerID=container_e102_1612930128549_5112_01_000001] is running beyond physical memory limits. Current usage: 2.0 GB of 2 GB physical memory used; 6.4 GB of 4.2 GB virtual memory used. Killing container.

container_e102_1612930128549_5112_01_000001 это AM Container
источник

t

tenKe in Moscow Spark
> .config("spark.executor.memory", "2G")
покажи всю строчку, где это делаешь?
источник

ВК

Вячеслав Колосков... in Moscow Spark
щас она так выглядит
источник

ВК

Вячеслав Колосков... in Moscow Spark
spark = (
   pyspark
   .sql
   .SparkSession
   .builder
   .master("yarn")
   .appName(f"test")
   .config("spark.driver.cores", "10")
   .config("spark.driver.memory", "100G")
   .config("spark.executor.instances","400")
   .config("spark.executor.cores", "1")
   .config("spark.executor.memory", "2G")
   .config("spark.python.worker.reuse", "false")
   .config("yarn.nodemanager.vmem-check-enabled", "false")
   .enableHiveSupport()
   .getOrCreate()
)
источник

t

tenKe in Moscow Spark
точно такая же ошибка возникает, когда делаешь 5g ?
источник

t

tenKe in Moscow Spark
цифры те же?
источник

ВК

Вячеслав Колосков... in Moscow Spark
да
источник

t

tenKe in Moscow Spark
посмотри в Spark UI вкладку Executors, сколько там памяти у воркеров?
источник

ВК

Вячеслав Колосков... in Moscow Spark
источник

ВК

Вячеслав Колосков... in Moscow Spark
источник

ВК

Вячеслав Колосков... in Moscow Spark
при этом на вкладке энверонмент
источник

t

tenKe in Moscow Spark
тут все ок
источник

ПФ

Паша Финкельштейн... in Moscow Spark
Стоп-стоп, а физически на воркерах сколько памяти? И на чём крутятся воркеры? Это не докер случайно?
источник