streaming

_相关内容

Spark Streaming

本文介绍DLA Serverless Spark如何提交Spark Streaming作业以及Spark Streaming作业重试的最佳实践。前提条件在DLA Serverless Spark中运行Spark Streaming作业前,您需要完成...

Spark Streaming消费

日志服务采集到日志数据后,您可以通过运行Spark Streaming任务消费日志数据。日志服务提供的Spark SDK实现了Receiver模式和Direct模式两种消费模式。Maven依赖如下:...

Hadoop Streaming

本文为您介绍如何使用Python提交Hadoop Streaming作业。前提条件已在E-MapReduce控制台上创建Hadoop集群。创建集群详情,请参见创建集群。操作步骤通过SSH方式连接集群,...

Spark Streaming作业配置

本文介绍如何配置Spark Streaming类型的作业。前提条件已创建好项目,详情请参见项目管理。已准备好作业所需的资源,以及作业要处理的数据。操作步骤进入数据开发的项目...

Streaming SQL作业配置

本文介绍Streaming SQL作业配置的操作步骤。背景信息在Streaming SQL作业配置过程中,您需要设置依赖库。以下列出了Spark Streaming SQL提供的数据源依赖包的版本信息和...

alicloud_gpdb_streaming_data_service

Provides a GPDB Streaming Data Service resource.For information about GPDB Streaming Data Service and how to use it,see What is Streaming Data Service.-NOTE:Available since v 1.227.0.Example...

alicloud_gpdb_streaming_data_source

Provides a GPDB Streaming Data Source resource.Real-time data source.For information about GPDB Streaming Data Source and how to use it,see What is Streaming Data Source.-NOTE:Available...

创建EMR Spark Streaming节点

EMR Spark Streaming节点用于处理高吞吐量的实时流数据,并具备容错机制,可以帮助您快速恢复出错的数据流。本文为您介绍如何创建EMR Spark Streaming节点并进行数据开发。...

Streaming Tunnel SDK示例(Python)

Streaming Tunnel是MaxCompute的流式数据通道,您可以通过Streaming Tunnel向MaxCompute中上传数据,本文为您介绍使用Python版Streaming Tunnel SDK上传数据的简单示例。...

通过Spark Streaming作业处理Kafka数据

本文介绍在阿里云E-MapReduce创建的包含kafka服务的DataFlow集群中,如何使用Spark Streaming作业从Kafka中实时消费数据。前提条件已注册阿里云账号。已开通E-MapReduce...

无影云应用(App Streaming) | 无影云应用

无影云应用是一种基于公共云托管的应用程序虚拟化流式传输服务,实现了多生态应用免部署与快速构建,应用即点即用,能够为您提供安全、易用、高效且低成本的云上应用...

使用Spark Structured Streaming实时处理Kafka数据

本文介绍如何使用阿里云Databricks数据洞察创建的集群去访问外部数据源E-MapReduce,并运行Spark Structured Streaming作业以消费Kafka数据。前提条件已注册阿里云账号,详情...

Dataphin集成任务报错“Application was streaming results when the...

问题描述本文主要描述了Dataphin集成任务报错“Application was streaming results when the connection failed.Consider raising value of'net_write_timeout' on the server.”...

实时Spark Streaming消费示例

Spark Structured Streaming Scala访问LogHub代码示例#StructuredLoghubSample.Scala object StructuredLoghubSample{def main(args:Array[String]){if(args.length 7){System.err.println("Usage...

基于Paimon的Streaming Lakehouse方案

Apache Paimon是一种流批统一的数据湖存储格式,结合Flink及Spark构建流批处理的实时湖仓一体架构。Paimon创新地将湖格式与LSM技术结合起来,给数据湖带来了实时...

如何使用DLA Spark Streaming访问LogHub_云原生数据湖分析(文档... | LogHub

本文介绍了如何使用DLA Spark Streaming访问LogHub。前提条件已经创建了Spark虚拟集群。具体操作请参见创建虚拟集群。已经开通对象存储OSS(Object Storage Service)服务。具体...
< 1 2 3 4 ... 13 >
共有13页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用