Я сделал poc, в котором я прочитал данные из Kafka с помощью потоковой передачи искр. Но наша организация использует либо Apache Flink, либо клиент Kafka для чтения данных из Apache kafka в качестве стандартного процесса. Поэтому мне нужно заменить потоковую передачу Kafka на потребителя Kafka или Apache Flink. В моем случае использования приложения мне нужно читать данные из kafka, фильтровать данные json и помещать поля в cassandra, поэтому рекомендуется использовать потребителя Kafka, а не flink / другие потоки, поскольку мне действительно не нужно выполнять какую-либо обработку с Kafka данные json. Поэтому мне нужна ваша помощь, чтобы разобраться в приведенных ниже вопросах:
Могу ли я с помощью потребителя Kafka добиться такого же непрерывного чтения данных, как и мы, в случае потоковой передачи искр или мерцания?
Достаточно ли для меня потребителя kafka, учитывая, что мне нужно читать данные из kafka, десериализовать с использованием avro scehma, фильтровать поля и помещать в кассандру?
Потребительское приложение Kafka можно создать с использованием потребительского API Kafka, верно?
Есть ли какие-нибудь недостатки в моем случае, если я просто использую Kafka Consumer вместо Apache flink?