Я совершенно новичок в вещах типа Spark и Hadoop в целом, так что простите меня, если это болезненно простой вопрос. Я пытаюсь разработать систему, которая будет использовать кластер из некоторого количества машин для выполнения первых задач в серии задач. Последующие задачи, которые выполняются на RDD, которые генерируются первыми задачами, должны выполняться на одном компьютере. Это может быть любая машина из кластера, при условии, что это всегда эта машина на время выполнения программы.
Как мне в этом убедиться? Могу ли я зарезервировать одну машину в кластере и всегда выполнять на ней последующие задачи? Если да, то как это выглядит на Java? Если нет, есть ли другой способ добиться этого?