У меня есть следующий сценарий, который я собираюсь реализовать с помощью Azure Stream Analytics.
Мой вклад состоит из:
- Потоковая передача событий из Azure Event Hub.
- Справочные данные, относящиеся к событиям. Некоторые из этих данных «медленно меняются» изо дня в день.
Мне нужно объединить события и справочные данные, обработать их и вывести таблицы, которые составят «хранилище данных» (с Power BI как потребитель).
Результат будет состоять из:
- Таблица фактов, в которой хранятся самые важные события.
- Несколько таблиц измерений, содержащих значения, из которых состоят факты.
Подходит ли Azure Stream Analytics для такой работы? Мне кажется, что ASA хорошо подходит для сохранения событий из потока концентратора событий в таблице фактов. Однако дополнительная работа по поддержанию актуальности таблиц измерений, то есть периодическое добавление новых значений, не подходит.
Прав ли я в этом анализе? Следует ли мне перейти на фабрику данных Azure для моего проекта?