У меня есть данные от веб-пользователей в Firestore.
Я вставил некоторые из этих данных в Google BigQuery, чтобы запустить модель машинного обучения.
У меня есть опыт обучения моделей машинного обучения, но у меня нет опыта в получении прогнозов для новых данных после обучения этой модели.
Я прочитал, что могу загрузить эту обученную модель в облачное хранилище Google, а затем поместить ее в платформу AI, но я не знаю, какой процесс мне нужно выполнить, потому что новые данные будут вставлены в BigQuery с помощью этого нового data Я хочу сделать прогнозы, а затем выбрать эти прогнозы и снова поместить их в Firstore.
Я думаю, что это можно сделать с помощью Dataflow (Apache Beam) или Data composer (Airflow), где я могу автоматизировать этот процесс и запланировать его для запуска всего процесса каждую неделю, но у меня нет опыта использования этих технологий, может кто-нибудь порекомендуйте мне, какая технология будет лучше для этого конкретного случая, чтобы найти информацию о том, как ее использовать?
Одна из возможностей - сохранить модель на платформе AI или в облачном хранилище Google, а с помощью облачных функций вызвать эту сохраненную модель и сделать прогнозы, чтобы сохранить их в firestore?