У нас есть кластер Spark, работающий под Memsql, у нас работают разные конвейеры, настройка ETL приведена ниже.
- Извлечение: - Spark читает сообщения из кластера Kafka (с использованием Memsql Kafka-Zookeeper)
- Преобразование: - Для этого шага у нас развернут пользовательский jar.
- Загрузить: - данные из этапа преобразования загружаются в Columnstore
У меня есть сомнения ниже:
Что происходит с сообщением, полученным от Kafka, если задание не выполняется на этапе преобразования - позаботится ли Memsql о повторной загрузке этого сообщения - или данные потеряны
Если данные теряются, как я могу решить эту проблему, есть ли какие-либо изменения конфигурации, которые необходимо сделать для этого?