Я хочу добиться чего-то вроде этого:
df.writeStream
.saveAsTable("dbname.tablename")
.format("parquet")
.option("path", "/user/hive/warehouse/abc/")
.option("checkpointLocation", "/checkpoint_path")
.outputMode("append")
.start()
Я открыт для предложений. Я знаю, что Kafka Connect может быть одним из вариантов, но как этого добиться с помощью Spark. Возможный обходной путь может быть тем, что я ищу. Заранее спасибо !!