У меня есть приложение Spark на блоках данных, работающее на кластере из 32 узлов, по 16 ядер в каждом и 30 ГБ памяти. Я хотел изменить некоторые конфигурации сеанса, но независимо от того, что я изменю, я не могу создать больше исполнителей, чем 32 (как видно на странице исполнителей spark ui)? Эти конфиги я изменил:
spark.executor.instances
spark.executor.memory
spark.executor.cores
Как я прочитал, максимальное количество одновременных задач должно быть 5, поэтому я хотел сделать 4 исполнителя на узел, каждый из которых использует 4 ядра... общее количество исполнителей - 128. Как я могу это сделать?
С уважением, Стефан