开发者社区> 问答> 正文

Spark Structured Streaming获取最后一个Kafka分区的消息

我正在使用Spark Structured Streaming来读取Kafka主题。

没有任何分区,Spark Structired Streaming消费者可以读取数据。

但是当我向主题添加分区时,客户端仅显示来自最后一个分区的消息。即如果主题中有4个分区,并且I.am推送主题中的1,2,3,4之类的数字,则客户端仅打印4而不是其他值。

我正在使用来自Spark Structured Streaming网站的最新样本和二进制文件。

DataFrame<Row> df = spark

.readStream()
.format("kafka")
.option("kafka.bootstrap.servers", "host1:port1,host2:port2")
.option("subscribe", "topic1")
.load()

展开
收起
社区小助手 2018-12-10 16:20:26 2641 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    通过将kafka-clients-0.10.1.1.jar更改为kafka-clients-0.10.0.1.jar来解决问题。

    2019-07-17 23:19:22
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
消息队列kafka介绍 立即下载