Я хочу поместить потоковый SQL в Kafka для использования Flink для CEP. Это хороший способ?
Я знаю, что определение динамического шаблона не разрешено во Flink, и мне нужно применить правила, которые они могут изменить в неограниченном потоке событий.
Чтобы привести пример;
Существует пользовательский интерфейс, с помощью которого пользователи могут определять правила для своих устройств. Представьте, что существует служба теневого копирования (например, AWS IoT hub), сохраняющая состояние физического устройства, а также я подумал, что было бы неплохо поместить определенные правила каждого устройства в теневые правила и когда данные датчиков получены теневым актером , он может передавать данные со своими правилами, добавленными для использования Flink в качестве механизма правил (через kafka). Поэтому я хочу, чтобы Flink выполнял данные моего входящего датчика (со своими правилами), которые могут быть разными для каждого устройства.