Вопросы по теме 'flink-streaming'

FlinkKafkaConsumer082 настройка auto.offset.reset не работает?
У меня есть потоковая программа Flink, которая считывает данные из топика Kafka. В программе auto.offset.reset установлен на «наименьший». При тестировании в IDE / Intellij-IDEA программа всегда могла читать данные с начала темы. Затем я настроил...
1114 просмотров

Flink + Kafka сбросить контрольную точку и смещение
Короче говоря, я хотел бы повторно запустить конвейер Flink для данных в Kafka с самого начала . Флинк 0.10.2, Кафка 0.8.2. У меня есть тема твитов в Kafka с удержанием 2 часа и конвейер в Flink, который считает твиты со скользящим окном 5...
3354 просмотров

Неблокирующая операция в потоке Flink или Sparks vs Akka
Я изучаю и оцениваю Sparks и Flink, прежде чем выбрать одну из них для проекта, который у меня есть. В своей оценке я придумал следующие простые задачи, которые я могу понять, как реализовать это в обоих фреймворках. Скажем так 1- / У меня...
1337 просмотров

Как указать файл журнала, отличный от файла журнала демона, при отправке задания flink в автономном кластере flink
Когда я запускаю автономный кластер flink, он регистрирует журналы демона в файле, упомянутом в файле conf / log4j.properties, и когда я отправляю задание flink в этом кластере, он использует тот же файл свойств для регистрации журналов приложения и...
670 просмотров
schedule 08.03.2022

Одновременное выполнение потоковой и пакетной среды с помощью Flink
Имеет ли смысл параллельно запускать потоковую и пакетную обработку во Flink? //calculate median using DataSet (Batch Environment) BatchFunctions batch = new BatchFunctions(); DataSet<Tuple2<Double, Integer>> dataSet1 =...
116 просмотров
schedule 14.07.2022

Flink streaming - декартово произведение и оконное отображение потоков
Предположим, у меня есть поток с ключами и отметками времени. Я хочу создать декартово произведение этих ключей в каждом окне (скользящее окно). Если у меня есть ключи 1,2,3,4 и я установил параллелизм на два, я хочу «сгруппировать» их следующим...
596 просмотров
schedule 16.09.2023

Проблемы Flink HA Cluster JobManager
У меня есть установка с кластером flink 1.2, состоящим из 3 менеджеров заданий и 2 диспетчеров задач. Я запускаю кворум Zookeeper из JobManager1, получаю подтверждение, что Zookeeper запускается на двух других менеджерах заданий, затем я запускаю...
1476 просмотров
schedule 24.03.2022

Apache Flink - реализация потокового процессора с потенциально очень большим состоянием
Я хочу спроецировать потенциально очень большое состояние из потока событий. Вот как я могу реализовать это в обязательном порядке: class ImperativeFooProcessor { val state: mutable.Map[UUID, BarState] = mutable.HashMap.empty[UUID, BarState]...
134 просмотров
schedule 23.12.2022

Прогнозирование потоковой передачи в реальном времени во Flink с использованием scala
Версия Flink: 1.2.0 Версия Scala: 2.11.8 Я хочу использовать DataStream для прогнозирования использования модели во флинке с использованием scala. У меня есть DataStream [String] в flink с использованием scala, который содержит данные в формате...
998 просмотров

Flink - как одновременно вычислить сумму и среднее значение?
Есть ли способ во Flink (пакетная / потоковая передача) одновременно вычислять среднее значение и сумму поля? Используя метод агрегирования, я могу вычислить сумму поля для результата groupBy, но как одновременно вычислить среднее значение? Пример...
1469 просмотров
schedule 20.10.2023

Сессия Windows во Flink дает неожиданные результаты
У меня есть поток записей, которые «привязаны» к двум полям, а затем назначается окно сеанса с перерывом в 30 секунд. Я использую «отметку времени», прикрепленную к записям, как время события. Я использую водяной знак assignAscendingTimestamps....
449 просмотров
schedule 30.01.2023

Соединение Flink Scala между двумя потоками, похоже, не работает
Я хочу присоединиться к двум потокам (json), исходящим от производителя Kafka. Код работает, если я фильтрую данные. Но кажется, что это не работает, когда я присоединяюсь к ним. Я хочу вывести на консоль объединенный поток, но ничего не...
424 просмотров

Конфигурация AWS для Apache flink с использованием EMR
У меня есть приложение производителя, которое записывает в поток Kinesis со скоростью 600 записей в секунду. Я написал приложение Apache flink для чтения / обработки и агрегирования этих потоковых данных и записи агрегированного вывода в AWS...
610 просмотров

отправка DataStream из сокета виртуальной машины в Kafka и получение в программе Flink хост-ОС: проблема десериализации
Я отправляю поток данных с виртуальной машины в тестовую тему Kafka (работает на хост-ОС с IP-адресом 192.168.0.12), используя приведенный ниже код. public class WriteToKafka { public static void main(String[] args) throws Exception {...
76 просмотров

Пример Flink Streaming: Kafka010Example.scala не работает
Я пытаюсь запустить официальный «Kafka010Example.scala», но, к сожалению, он не читает из входной темы и не записывает в вывод, как ожидалось. Что я упускаю или делаю неправильно? Любая помощь или подсказки высоко ценятся. Вот что я сделал:...
314 просмотров

Scala - API мониторинга Flink (загрузка заданий)
Добрый день, у меня проблема с загрузкой вакансий в Flink API с помощью Scala Все запросы Get работают import scalaj.http._ val url: String = "http://127.0.0.1:8081" val response: HttpResponse[String] = Http(url+"/config").asString...
258 просмотров

Источник флинка для периодического обновления
Я пытаюсь реализовать внешнюю конфигурацию для длительной работы flink. Моя идея - создать собственный источник, который периодически (каждые 5 минут) опрашивает конфигурацию в кодировке JSON из внешней службы по http. Как создать источник,...
594 просмотров
schedule 02.03.2024

Как получить количество элементов, присутствующих в функции суммы во Flink?
Я хочу получить количество элементов, присутствующих в функции суммы. Пример: val counts = text.flatMap { _.toLowerCase.split("\\W+") } .map { (_, 1) } .keyBy(0) .timeWindow(Time.minutes(10)) .sum(1) выход: hello...
134 просмотров
schedule 30.11.2023

Как сохранить запрашиваемое состояние во Flink?
Я использую FLink v.1.4.0 . Я использую QueryableStateStream , который я каким-то образом набираю, а затем sink для создания Queryable State , например: stream.keyBy(0).asQueryableState("query-name"); Это все хорошо, пока работает моя...
380 просмотров

Принудительное исключение скользящих окон событий для обработки (исторические потоки) на Flink
В настоящее время я использую Flink для исследования движков потоковой обработки. В процессе обучения я работаю с историческими потоками, которые состоят из кортежей следующего вида: event_time, attribute_1, ..., attribute_X где event_time...
322 просмотров
schedule 17.06.2022