大数据总线(DataHub)

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介:

本页目录

注册

DataHub作为一个流式数据总线,为阿里云数加平台提供了大数据的入口服务。结合阿里云众多云产品,可以构建一站式的数据处理平台。流计算通常使用DataHub作为流式数据存储头和输出目的端。

注意: DataHub在公有云使用需要用户授予实时计算代为用户访问DataHub权限,具体请参看流计算角色授权。否则可能出现报错“No Permission”的情况。

22

Endpoint

填写DataHub Endpoint

需要注意不同的地域下DataHub有不同的Project。当前DataHub仅支持杭州地域,为http://dh-cn-hangzhou.aliyun-inc.com。如需了解更多Endpoint相关信息,请您访问DataHub控制台。

注意:http://dh-cn-hangzhou.aliyun-inc.com不要使用(/)结尾

VPC模式支持

当前DataHub不提供VPC模式,因此实时计算当前使用DataHub的经典网络地址(Endpoint)即可。

内外网选择

上述http://dh-cn-hangzhou.aliyun-inc.com是DataHub在阿里云内网地址。实时计算和DataHub实际上同处于阿里云内网,使用内网访问更加节省带宽。
有关专有云的Endpoint填写,请联系您的专有云系统管理员,咨询有关DataHub Endpoint地址。

Project填写

填写DataHub的Project。

注意:**跨属主的数据存储不能注册。例如A用户拥有DataHub的ProjectA,但B用户希望在流计算使用ProjectA,目前流计算暂不支持这类使用场景下注册,若需使用可使用明文方式,具体参考创建数据总线源表创建数据总线结果表

使用

由于DataHub本身是流数据存储,流计算只能将其作为流式数据输入和输出,无法作为维表引用。有关DataHub DDL定义,请参看具体章节。

常见问题

Q: 为什么我注册失败,失败原因提示XXX?

A: 实时计算的数据存储页面能够协助您完成数据管理,其本身就是使用相关存储SDK代为访问各类存储。因此很多情况下可能是您注册过程出现问题导致,请排查如下原因。

  • 请确认是否已经开通并拥有DataHub的Project。请登录DataHub控制台,公有云客户可以访问DataHub控制台看您是否有权限访问您的Project。

  • 请确认您是DataHub Project的属主。跨属主的数据存储不能注册。例如A用户拥有DataHub的ProjectA,但B用户希望在流计算使用ProjectA,目前流计算暂不支持这类使用场景下注册,若需使用可使用明文方式,具体参考创建数据总线源表创建数据总线结果表

  • 请确认您填写的DataHub的Endpoint和Project完全正确。DataHub Endpoint必须以http开头,且不能以(/)结尾。例如,http://dh-cn-hangzhou-internal.aliyuncs.com是正确的,但http://dh-cn-hangzhou-internal.aliyuncs.com/是错误的。

  • 请确认您填写的DataHub Endpoint是经典网络地址,而非VPC地址。目前流计算暂不支持VPC内部地址。

  • 请不要重复注册,实时计算提供注册检测机制,避免您重复注册。

Q: 为什么数据抽样仅仅针对时间抽样,不支持其他字段抽样?

A: DataHub定位是流数据存储,对外提供的接口也只有时间参数。因此,实时计算也只能提供基于时间的抽样。

附录

产品内网与公网选择

注意:本小节仅限于公共云场景,不包含专有云情况。

所谓的内网和公网是相对于阿里云集群来说。我们可以将阿里云计算视为一个跨地域的大型计算集群。集群内部之间的网络传输可以使用阿里云内网,这样可以有效地节省网络带宽成本。

例如,实时计算使用阿里云内部网络带宽访问RDS。

对于外部(例如Internet)网络请求阿里云服务,则需要使用公网地址。实时计算注册DataHub过程中,要求用户必须提供DataHub内网Endpoint地址。 但对于外部数据写入DataHub而言,则需要填写DataHub公网地址。如下图所示。


例如,在当前PC使用LogStash采集传输日志。

大数据总线目录


本文转自实时计算——大数据总线(DataHub)

相关实践学习
实时数据及离线数据上云方案
本实验通过使用CANAL、DataHub、DataWorks、MaxCompute服务,实现数据上云,解决了数据孤岛问题,同时把数据迁移到云计算平台,对后续数据的计算和应用提供了第一步开山之路。
相关文章
|
Java Apache Maven
阿里云数据总线(DataHub)使用Flume插件导入数据示例
Flume NG是Cloudera提供的一个分布式、可靠、可用的系统,它能够将不同数据源的海量日志数据进行高效收集、聚合、移动,最后存储到一个中心化数据存储系统中。本文主要演示如何使用Flume-DataHub插件导入数据到阿里云数据总线(DataHub)。
2692 0
阿里云数据总线(DataHub)使用Flume插件导入数据示例
|
分布式计算 Java MaxCompute
DataHub通过DataConnector流转到MaxCompute全链路测试
前面通过博客:流数据同步DataConnector测试整理简要介绍了DataConnector的配置。下面通过一个示例,从maxcompute建表开始,介绍整个链路的实现。实现使用Datahub SDK写入数据到Topic,进而经过Dataconnector推送数据到maxcompute的数据表。
1723 0
|
大数据 测试技术 流计算
|
分布式计算 MaxCompute
5分钟学会使用DataHub接入实时数据到MaxCompute(原ODPS)
DataHub服务是MaxCompute提供的流数据服务, 并提供把实时数据准实时归档到MaxCompute中功能, 在延时上可以做到5分钟数据在MaxCompute中可见;相对于MaxCompute之前提供的批量数据接口Tunnel实时性有了极大的提高。本文简要介绍如何快速通过DataHub创建.
8572 0
|
5月前
|
SQL 关系型数据库 数据管理
Datahub实践——Sqllineage解析Sql实现端到端数据血缘
Datahub实践——Sqllineage解析Sql实现端到端数据血缘
721 1
|
7月前
|
数据采集 JSON 关系型数据库
将 MySQL 数据抽取并写入 DataHub,您可以按照以下步骤进行
将 MySQL 数据抽取并写入 DataHub,您可以按照以下步骤进行
303 2
|
3月前
|
存储 监控 Apache
Flink整库同步 如何把数据丢入到 datahub 中
Flink整库同步 如何把数据丢入到 datahub 中
|
5月前
|
数据采集 大数据 数据挖掘
企业级数据治理工作怎么开展?Datahub这样做
企业级数据治理工作怎么开展?Datahub这样做
|
7月前
|
数据采集 JSON 关系型数据库
将 MySQL 数据抽取并写入 DataHub
将 MySQL 数据抽取并写入 DataHub
176 3