Spark readStream
для Kafka выдает следующие ошибки:
org.apache.kafka.common.errors.RecordTooLargeException (сообщение составляет 1166569 байт при сериализации, что превышает максимальный размер запроса, который вы настроили с конфигурацией max.request.size.)
Как нам поднять max.request.size
?
Код:
val ctxdb = spark
.readStream
.format("kafka")
.option("kafka.bootstrap.servers", "ip:port")
.option("subscribe","topic")
.option("startingOffsets", "earliest")
.option(" failOnDataLoss", "false")
.option("max.request.size", "15728640")
Мы безуспешно пытались обновить option("max.partition.fetch.bytes", "15728640")
.