- Верно ли, что Azure Stream Analytics может принимать только файлы JSON?
- Можно ли принимать / отправлять файлы с разделителями каналов или файлы других форматов в концентратор событий и использовать их из Stream Analytics?
Концентратор событий Azure: какие типы данных он может принимать
comment
Что ты пытаешься сделать? Вы могли поддерживать любой формат с помощью настраиваемого gaateway (так была добавлена поддержка MQTT). ASA получит проанализированные данные, поэтому форматы не нужны.
- person Panagiotis Kanavos   schedule 13.04.2016
comment
Нам нужно загружать 1 файл за 15 секунд. Формат файла настраивается, это не JSON, CSV или Avro. Потребуется собственный синтаксический анализ. Из-за масштабируемости Event Hub мы подумали, что Event Hub будет полезен для этой задачи. Чтобы вы посоветовали?
- person greypanda   schedule 13.04.2016
comment
Масштабируемость означает использование минимального анализа. В противном случае EventHub завершит синтаксический анализ вместо приема. Один из вариантов - просто изменить формат на стороне клиента (насколько велики файлы и как они создаются?). Другой вариант - создать сайт, который будет выступать в качестве шлюза, получить файл, преобразовать его и передать его в концентратор событий. Это имеет то преимущество, что вы можете группировать несколько таких файлов до предела 256 КБ.
- person Panagiotis Kanavos   schedule 13.04.2016
comment
Изменение формата файла на стороне клиента для нас не вариант.
- person greypanda   schedule 13.04.2016
comment
Почему нет? Насколько велик файл? Если он достаточно мал для отправки, он достаточно мал, чтобы изменить прямо перед публикацией. Помните, вы публикуете события, а не отправляете файлы
- person Panagiotis Kanavos   schedule 13.04.2016
comment
Мы не владеем клиентской стороной, они внешние. В настоящее время файлы помещаются в наш SFTP, и у нас есть сценарии, которые анализируют и загружают эти файлы в базу данных. Размер каждого файла составляет от 1 МБ до 4 МБ. Мы рассматриваем возможность использования Azure, но по умолчанию кажется, что он поддерживает форматы JSON, CSV и Avro.
- person greypanda   schedule 13.04.2016
comment
Концентратор событий предназначен для событий, а не для ETL. Например, вы можете просто опубликовать файл непосредственно в хранилище BLOB-объектов, не проходя через концентратор событий. Вы смотрите не на тот сервис. Вы даже не можете опубликовать такой большой файл в Event Hub. Вам следует обратиться к DataFactory для ETL. Другие варианты - Функции Azure и Веб-задания.
- person Panagiotis Kanavos   schedule 13.04.2016
comment
Функции Azure могут запускаться событиями BLOB-объектов, поэтому они могут запускаться автоматически при отправке файла. Вы можете проанализировать файл там и, если вам действительно нужна обработка событий, публиковать отдельные события в Event Hub и ASA. (Вероятно, нужно преобразовать все это в сообщение в блоге, вздох)
- person Panagiotis Kanavos   schedule 13.04.2016
comment
Представьте, что файлы загружаются в Blob вместо текущего SFTP-сервера. Формат файла будет индивидуальным. Какой процесс в Azure будет анализировать эти файлы?
- person greypanda   schedule 13.04.2016
comment
Уже выложил это. Подойдет все, что может выполнять собственный код. DataFactory - это специализированный сервис ETL. Функции и веб-задания Azure могут запускать настраиваемый код, если вам не нужна полная среда ETL.
- person Panagiotis Kanavos   schedule 13.04.2016
comment
Тот, кто вчера изменил заголовок и одобрил изменение: вы изменили вопрос полностью. Кроме того, ASA не использует концентратор событий ниже.
- person Panagiotis Kanavos   schedule 15.04.2016
Ответы (2)
Stream Analytics имеет раскрывающееся меню с надписью сериализация (в диспетчере или на старом портале manage.windowsazure.com), которое также позволяет вам выбрать CSV или Avro.
person
Amanda Lange
schedule
13.04.2016
Этот раскрывающийся список представляет собой Stream Analytics, а не концентратор событий.
- person Panagiotis Kanavos; 15.04.2016
Какое содержимое файла? Может, есть смысл поместить файл в хранилище Azure и отправить ссылку на него в Event Hub / Service Bus Queue? Или просто поместите файлы в хранилище и используйте их с помощью Stream Analytics.
person
Alex Belotserkovskiy
schedule
13.04.2016