阿里云正式推出消息队列Kafka:兼容开源,数据可靠性99.999999%

简介: 7月25日,阿里云宣布正式推出消息队列Kafka,全面融合开源生态。在兼容Apache生态的基础上,阿里云消息队列Kafka彻底解决了开源产品稳定性不足的痛点,可用性达99.9%,数据可靠性99.999999%,并且支持消息无缝迁移到云上。

7月25日,阿里云宣布正式推出消息队列Kafka,全面融合开源生态。在兼容Apache生态的基础上,阿里云消息队列Kafka彻底解决了开源产品稳定性不足的痛点,可用性达99.9%,数据可靠性99.999999%,并且支持消息无缝迁移到云上。

据介绍,阿里云消息队列Kafka在海量消息堆积的情况下,始终保持Kafka集群的消息收、发的高吞吐能力;同时,消息会持久化落盘到消息队列,在磁盘容量足够的情况下,未到期数据保障存储,数据可靠性达到99.999999%,服务可用性达99.9%。

此外,阿里云消息队列Kafka还支持数万级topic高并发读写,始终保持Kafka集群的高吞吐能力,适用于构建日志分析平台、网站活动追踪、流计算处理、数据中转枢纽等多类场景。

image

阿里云消息队列Kafka高级产品经理娜米表示,“用户使用消息队列Kafka,无需担心和开源生态的兼容性问题,进一步提升了 Kafka 对大数据生态的价值,提高了开发者在大数据生态下的开发效率。”

据了解,阿里云消息队列Kafka全面兼容Apache生态,用户可将 Kafka 中的消息导入到 ODPS、HBase、HBASE 等离线数据仓库;此外,从自建 Kafka到上云,阿里云支持开源产品的无缝迁移,提供无门槛接入方式,如:

  1. 阿里云消息队列Kafka 100%兼容开源社区Apache Kafka(0.10.0.0及以上版本),直接使用Kafka开源客户端便可与阿里云上消息队列Kafka进行通讯;
  2. 对于原本使用开源Apache Kafka的用户无需任何改造,即可迁移上云,享受到阿里云提供的消息队列Kafka服务;
  3. 同时消息队列Kafka支持开源社区、阿里云平台产品的打通,与Kafka全生态能快速对接。

近几年随着大数据产业的发展,Kafka也吸引了众多的用户和开发者。据统计,目前已有三分之一的财富500强企业正在使用Kafka,包括阿里、Linkedin、美团、Twitter、Spotify、高盛、Netflix、新浪、携程、Uber等,用于构建系统和应用之间的实时流数据通道,并提供基于实时流数据的应用程序服务,是大数据生态不可或缺产品之一。阿里云消息队列Kafka的推出将为更多长期使用Apache Kafka的开发者带来便利。

消息队列Kafka商业化首发,发布会传送门

更多问题欢迎参与聚能聊话题

相关文章
|
1月前
|
消息中间件 存储 大数据
Apache Kafka: 强大消息队列系统的介绍与使用
Apache Kafka: 强大消息队列系统的介绍与使用
|
1月前
|
消息中间件 存储 缓存
Kafka【基础知识 01】消息队列介绍+Kafka架构及核心概念(图片来源于网络)
【2月更文挑战第20天】Kafka【基础知识 01】消息队列介绍+Kafka架构及核心概念(图片来源于网络)
93 2
|
14天前
|
消息中间件 存储 算法
深入了解Kafka的数据持久化机制
深入了解Kafka的数据持久化机制
32 0
|
2月前
|
消息中间件 Kafka Apache
Flink 提供了与 Kafka 集成的官方 Connector,使得 Flink 能够消费 Kafka 数据
【2月更文挑战第6天】Flink 提供了与 Kafka 集成的官方 Connector,使得 Flink 能够消费 Kafka 数据
72 2
|
9天前
|
消息中间件 存储 Java
深度探索:使用Apache Kafka构建高效Java消息队列处理系统
【4月更文挑战第17天】本文介绍了在Java环境下使用Apache Kafka进行消息队列处理的方法。Kafka是一个分布式流处理平台,采用发布/订阅模型,支持高效的消息生产和消费。文章详细讲解了Kafka的核心概念,包括主题、生产者和消费者,以及消息的存储和消费流程。此外,还展示了Java代码示例,说明如何创建生产者和消费者。最后,讨论了在高并发场景下的优化策略,如分区、消息压缩和批处理。通过理解和应用这些策略,可以构建高性能的消息系统。
|
16天前
|
消息中间件 人工智能 监控
|
22天前
|
消息中间件 存储 负载均衡
消息队列学习之kafka
【4月更文挑战第2天】消息队列学习之kafka,一个分布式的,支持多分区、多副本,基于 Zookeeper 的分布式消息流平台。
17 2
|
1月前
|
消息中间件 Kafka
面试官:你说说Kafka是怎么保证消息可靠性的
面试官:那要是Kafka消费堆积了怎么办。每个topic是分为多个分区给不同Broker处理,要合理分配分区数量来提高Broker的消息处理能力。比如3个Broker2个分区,可以改为3个Broker3个分区
45 1
面试官:你说说Kafka是怎么保证消息可靠性的
|
1月前
|
消息中间件 存储 缓存
Kafka【基础知识 02】集群+副本机制+数据请求+物理存储+数据存储设计(图片来源于网络)
【2月更文挑战第20天】Kafka【基础知识 02】集群+副本机制+数据请求+物理存储+数据存储设计(图片来源于网络)
41 1
|
2月前
|
分布式计算 资源调度 Hadoop
Flink报错问题之Sql往kafka表写聚合数据报错如何解决
Apache Flink是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。本合集提供有关Apache Flink相关技术、使用技巧和最佳实践的资源。

相关产品

  • 云消息队列 Kafka 版