大数据总线 DataHub

_相关内容

创建同步TableStore

数据类型映射关系 OTS DataHub INTEGER TINYINT INTEGER SMALLINT INTEGER INTEGER INTEGER BIGINT INTEGER TIMESTAMP DOUBLE FLOAT DOUBLE DOUBLE BOOLEAN BOOLEEAN STRING STRING STRING DECIMAL BINARY 不支持 注意事项 TableStore表的...

Fluentd插件

sudo gem install-local fluent-plugin-datahub-0.12.25.gem 使用案例 案例一:CSV文件上传 下面以增量的CSV文件为例,说明下如何使用Fluentd将增量的CSV文件准实时上传到DataHub数据。CSV文件的格式如下所示:0,qe614c760fuk8judu01tn5x...

OGG for MySQL

数据变更序号同步到datahub对应的字段,按数据变更先后递增,不保证连续,可以被columnMapping中的cidColumn覆盖-cidColumn record_id/cidColumn/defalutDatahubConfigure!默认最严格,不落文件 直接退出 无限重试-!运行每批上次的最多纪录数,...

Connector操作

Connector 说明 DataHub Connector是把DataHub服务中的流式数据同步到其他云产品中的功能,目前支持将Topic中的数据实时/准实时同步到MaxCompute(原ODPS)、OSS(Object Storage Service,阿里云对象存储服务)、ES(Elasticsearch)、ADS...

常见问题

如何删除Topic中的数据 datahub目前不支持删除Topic中的数据,建议采用重置点位来让数据失效。在配置所定义的OSS路径下以随机文件名创建文件,每个Shard对应一个文件,当文件大小达到5GB时,将创建新文件,可以修改吗?不能修改 ADS无法...

OGG for Big Data

一、环境要求 Oracle数据库,19c及以下数据库,版本不可高于源端OGG 源端,Oracle GoldenGate 19.1.0.0 目标端,Oracle GoldenGate for Big Data 19.1.0.0 OGG官方下载地址 备注:本文示例均已OGG19.1为例,其他支持版本可参看文末版本说明 ...

同步任务修改

DataHub 页面现在已经支持同步字段修改,用户可以在页面上进行同步字段的修改,无需重启。同步任务字段修改 DataHub 页面现在已经支持同步字段修改,用户可以在页面上进行同步字段的修改,无需重启。具体步骤如下:在数据同步页签,点击...

OGG Adapters

一、环境要求 源端已安装好Oracle11g(当前插件版本仅支持ORA11g数据库)源端已安装好OGG(建议版本Oracle GoldenGate V12.2.0.2,V12.2.X均可以使用)目标端已安装好OGG Adapters(建议版本Oracle GoldenGate Application Adapters V12.2....

Project操作

创建Project 控制台地址 DataHub WebConsole 创建Project 在WebConsole中直接点击创建Project后填写相关信息,注意同一个Region内...需要注意的是,一旦删除Project,该Project下所有Topic,数据,及资源均被删除,无法恢复,请谨慎操作。

创建订阅

订阅功能使用介绍 目前用户在DataHub上消费Topic数据,为了做到“断点续消费”的功能,即消费者failover重启后可以继续从failover时间点继续获取数据,需要用户自己保存当前消费的点位信息,同时用户还需要关心自己的点位存储服务的高可用...

指标查看

DataHub的管理控制台为您提供了多种指标,您可以通过Topic详情页面查看 读写请求、实时流量、历史流量 等信息,本文为您介绍相关指标的含义。Metric指标 QPS:读写Request/Second。RPS:读写Record/Second。Throughput:读写Throughput/...

发布/订阅操作

func cursor(dh datahub.DataHub,projectName,topicName string){ shardId:="0"gr,err:=dh.GetCursor(projectName,topicName,shardId,datahub.OLDEST)if err!nil { fmt.Println("get cursor failed")fmt.Println(err)}else{ fmt.Println(gr...

OGG插件介绍

随着数据规模的不断扩大,传统的RDBMS难以满足OLAP的需求,本文将介绍如何将Oracle的数据实时同步到阿里云的大数据处理平台当中,并利用大数据工具对数据进行分析。OGG采集工具 一、背景介绍 说明 随着数据规模的不断扩大,传统的RDBMS难以...

Canal插件

canal[kə’næl],译意为水道/管道/沟渠,主要用途是基于 MySQL 数据库增量日志解析,提供增量数据订阅和消费。早期阿里巴巴因为杭州和美国双机房部署,存在跨机房同步的业务需求,实现方式主要是基于业务 trigger 获取增量变更。从 2010 ...

DataHub成本节省攻略

例如:一次发送100条数据,将100条数据序列化后得到一个buffer,给这个buffer选择一个压缩算法得到压缩后的buffer,这个时候给这个压缩后的buffer添加一个header记录这个buffer大小、数据条数、压缩算法、crc等信息,从而获得一条完整batch...

GO SDK使用说明

nil { fmt.Println("Get records failed",err)break } if gr.RecordCount=0 { fmt.Println("No data,sleep 5 seconds.")time.Sleep(time.Second*5)continue } for_,record:=range gr.Records {/处理数据,这里只打印 data,_:=record.(*...

Topic操作

创建Topic 创建Tuple Topic Tuple类型的Topic写入数据是具有格式的,需指定Record Schema,以下为支持的数据类型:类型 含义 值域 BIGINT 8字节有符号整型-9223372036854775807~9223372036854775807 DOUBLE 8字节双精度浮点数-1.0_10^308~1...

OGG for Bigdata(Kafka)

OGG for Bigdata是Oracle官方的将数据数据实时流式传输到大数据系统的工具,对于Oracle19c及以下的版本均可以支持,目前OGG for Bigdata可以将数据写入Kafka,而DataHub已经兼容Kafka Producer/Consumer协议,所以用户除了使用DataHub...

SDK 概述

High-Level SDK 一般称为 client-library,分为两个模块 Producer 和 Consumer,是对 Low-Level SDK 读写相关 API 的上层封装,更合适做数据的读写。Low-Level SDK 介绍 DataHub 是 RESTful 风格 的 API,Low-Level SDK 的每个接口都会...

Group操作

group是一组topic的集合,以group为单位进行数据订阅,就可以订阅group内的所有topic,目前主要用于kafka协议兼容。为了更好兼容Kafka订阅方式,支持同时订阅多个Topic,DataHub提供了group的功能,用户可以在project下创建group并绑定想要...

Shard操作

本文为您展示DataHub的 C++ SDK的Shard操作。Shard说明 Shard表示对一个Topic进行数据传输的并发通道,每个Shard会有对应的ID。每个Shard会有多种状态:Opening:为启动中状态。Active:为启动完成可服务状态。每个Shard启用以后会占用一定...

Shard操作

例如在双11大促期间,部分Topic数据流量会激增,平时的Shard数量可能完全无法满足这样的流量增长,此时可以对其中一些Shard进行Split操作,一变二,二变四,最大可扩容至256个Shard,按目前的流控限制足以达到1280MB/s的流量。...

通过STS方式访问DataHub

阿里云临时安全令牌(Security Token Service,STS)是阿里云提供的一种临时访问权限管理服务。...dependency groupId .../groupId artifactId aliyun-sdk-datahub/artifactId version 2.19.0-public /version /dependency参考示例...

LogStash插件

上传至DataHub请使用:DataHub Logstash Output插件 logstash-output-datahub-1.0.10.gem 适配Logstash 6、7 logstash-output-datahub-1.0.12.gem 适配Logstash 8 下载DataHub数据请使用:DataHub Logstash Input插件 logstash-input-...

Project操作

本文为您展示DataHub的 Java SDK的Project操作。创建Project 创建Project需要提供Project的名字和描述,Project的名字长度限制为[3,32],必须以英文字母开头,仅允许英文字母、数字及“_”,小写不敏感。参数说明 参数名 参数类型 参数...

快速入门(读写示例)

} }/保证退出前,数据全部被发送完 producer.flush(true);producer.close();} DataHub支持多种写入方式,更多方式请参考 SDK介绍 查看数据写入情况 写入完成后,可点击Topic页面 shard数据标签查看数据写入shard情况 指标查看 点击Topic...

Java SDK

安装SDK 在Maven项目中添加依赖:dependency groupId com.aliyun.datahub/groupId artifactId aliyun-sdk-datahub/artifactId version 2.29.1 /version /dependency JDK:使用1.8及以上版本。如果API开启了密钥认证,您还需要在工程中配置相应的...

开通DataHub服务

您需要开通DataHub服务,才可以在DataHub中执行读写等操作。本文为您介绍如何开通DataHub。操作步骤 进入 DataHub产品详情页 选择地域,阅读并勾选协议,点击立即开通,完成购买 DataHub服务将在数分钟内开通完成

用户支持

欢迎扫码加入钉钉用户群。DataHub公共云用户群 欢迎扫码或搜索群号:21954235 加入钉钉用户群。

Go High-Level SDK

nil { fmt.Println(err)} } Hash 写入 如果数据有保序的需求,那么需要根据一些信息进行 hash,相同 hash 值的数据会写入到同一个 shard,单个 shard 的数据是可以保证顺序的,一般 hash 写入建议使用异步的方式写入。func ...

Shard操作

本文为您展示DataHub的 Java SDK的Shard操作。Shard说明 Shard表示对一个Topic进行数据传输的并发通道,每个Shard会有对应的ID。每个Shard会有多种状态:Opening:为启动中状态。Active:为启动完成可服务状态。每个Shard启用以后会占用...

Go SDK

ok { fmt.Println("Subscription used by other one")break } else { fmt.Println("Commit offset failed",err)break } } recordCount=0 } } cursor=gr.NextCursor } } 接口示例 project 操作 项目(Project)是DataHub数据的基本组织单元,...

读写数据

本文为您展示DataHub的 Java SDK的读写数据操作。前提条件 状态为 CLOSED 和 ACTIVE 的 shard 可以读取数据。状态为 ACTIVE 的 shard 可以写数据。重要 如无特殊需求,建议使用High-Level SDK 进行读写操作,High-Level SDK 是对 Low-Level...

社区文章

DataHub社区文章 简介:DataHub在云栖社区输出了一系列文章,有助于您了解和使用DataHub DataHub操作指南 DataHub使用指南 新功能说明 datahub3月份新功能概览 DataHub常见问题归类 Topic:...

shard操作

本文为您展示DataHub的 GO SDK的Shard操作。Shard说明 Shard表示对一个Topic进行数据传输的并发通道,每个Shard会有对应的ID。每个Shard会有多种状态:Opening:为启动中状态。Active:为启动完成可服务状态。每个Shard启用以后会占用一定...

Topic操作

需要注意的是,一旦删除Topic,该Topic下的数据,资源(Shard,Connector)均被删除,无法恢复,请谨慎操作。新增Version DataHub允许对已经创建的Topic进行字段的修改,并生成新的version版本。注意:对于使用DTS、以及Logstash插件、Flume...

API参考

限制描述 名字 描述 ProjectName 长度:[3,32],仅包含字母、数字和'_',以字母开头,不区分小写 TopicName 长度:[3,128],仅包含字母、数字和'_',以字母开头,不区分小写 二、Authorization字段计算的方法 Authorization="DATAHUB"+...

Topic操作

Topic说明 Topic 是 DataHub 订阅和发布的最小单位,用户可以用Topic来表示一类或者一种流数据,目前支持Tuple与Blob两种类型:Blob类型 Topic支持写入一块二进制数据作为一个Record。Tuple类型 的Topic支持类似于数据库的记录的数据,每条...

Meter操作

本文为您展示DataHub的 C++ SDK的Meter 操作。参数说明 参数名 参数类型 参数说明 projectName String 项目名称。topicName string Topic名称 shardId string 代码示例 void GetMeter(){ try { GetMeteringInfoResult GetMeteringInfo=...

产品升级公告

DataHub底层硬件资源升级公告 尊敬的DataHub用户:DataHub将于北京时间 2025年12月22号(周一)上午10:00至下午18:00,升级 华北2(北京)地域 的DataHub底层硬件资源。在此期间,客户业务可能有秒级抖动,如对业务有影响可及时通过工单...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用