企业数据集成

_相关内容

数据同步

背景说明 如果您是在 2020年4月之后 购买的Dataphin,则数据同步能力通过数据集成功能实现(即系统 不再提供数据同步的功能入口)。数据集成为您提供简单高效、安全可靠的数据同步平台。更多信息,请参见 数据集成概述。重要 因数据同步...

字段编辑与赋值

DataWorks数据集成实时ETL支持字段编辑与赋值组件使用,可以在来源与去向组件间新增字段编辑与赋值组件按配置的过滤规则,进行新增字段的编辑和赋值。前提条件 已完成数据集成的基本配置与网络资源配置。仅支持如下数据源类型的数据来源和...

数据入湖功能停止更新公告

亲爱的各位用户,您好!...DataWorks数据集成:通过其强大的数据集成能力,可帮您轻松地将分散在不同位置的数据汇聚至统一的数据湖环境中。详情请参见 DataWorks数据集成。感谢您的配合与理解。如有疑问,欢迎随时联系我们。

API概览

数据集成 API 标题 API概述 CreateDISyncTask 创建数据集成同步任务 调用CreateDISyncTask创建数据集成同步任务。DeleteDISyncTask 删除数据集成同步任务 调用DeleteDISyncTask接口,删除数据集成同步任务。当前仅支持使用该接口删除实时...

基本操作

MaxCompute无缝集成了上下游生态产品,支持多种丰富的数据集成工具,并进行了深度的定制开发与优化。例如MaxCompute定制开发的Flink Connector和DataWorks的数据集成等,用于支持高并发、可扩展的高效近实时增量数据导入。SQL批式写入Delta...

API概览

ListDIJobs 获取数据集成同步任务配置列表 查询数据集成新版任务列表,包括整库同步实时任务,整库同步离线任务,单表同步实时任务等数据集成任务。ListDIJobRunDetails 获取数据集成同步任务运行的执行进展 获取数据集成运行信息。...

公网流量计费说明

数据集成任务运行在公共资源组和独享资源时,在数据传输过程中如果产生了公网流量,会按量收取公网流量费用。本文为您介绍数据集成公网流量计费详情。流量费用产生原则 若DataWorks上的数据源配置了公网地址,则基于该数据源配置的任务执行...

QueryDISyncTaskConfigProcessResult-查询异步任务...

接口说明 DataWorks 目前仅支持直接使用 CreateDISyncTask 接口创建或 UpdateDISyncTask 接口更新数据集成离线同步任务,而数据集成实时同步任务则需要先调用 GenerateDISyncTaskConfigForCreating、GenerateDISyncTaskConfigForUpdating ...

【新功能/规格】RDS PostgreSQL支持无感数据集成...

本文为您介绍无感数据集成(Zero-ETL)功能的简介、优势、上线时间及费用等。简介 云数据库RDS提供无感数据集成(Zero-ETL)功能,用于将RDS数据同步至数据仓库(AnalyticDB PostgreSQL),您无需搭建或维护数据同步链路,且数据同步链路不...

SQL Server集成至OSS

本文以自建SQL Server数据库为例,为您介绍如何将SQL Server的数据集成到阿里云对象存储OSS(Object Storage Service)的指定存储空间(Bucket)中。前提条件 SQL Server数据库已开通公网访问权限或已通过专有网络VPC接入到阿里云。说明 ...

MaxCompute作业概述

MaxCompute中数据开发作业主要存在以下三种类型:周期性调度作业、数据集成作业、数据分析作业。典型场景 创建作业:创建ODPS SQL节点、数据传输作业:数据集成、数据分析作业。查看作业运行信息:使用Logview查看作业运行信息、在...

产品概述

Cloudera CDP企业数据云平台是一款统一的企业级数据管理与分析平台。本文系统阐述了其核心概念、产品优势、应用场景与计费模式,助您快速构建安全、高效的企业数据基石。

单表实时同步任务

支持的数据源 重要 数据开发和数据集成支持的数据源有部分重叠,如您需要使用的类型在数据集成侧已支持,更推荐在 数据集成 侧创建实时同步任务。数据集成侧支持的数据源的源端和目的端并非任意组合,具体支持类型见配置来源和去向数据源时...

通过DataWorks导入

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

数仓开发任务流

任务流 说明 相关文档 数据集成 显示任务流中的数据集成节点:DTS数据迁移节点和离线数据集成节点。数据集成节点在项目空间的标准模式下试运行时,节点会空跑,以免生产数据迁移到测试环境的风险。配置DTS数据迁移节点 配置离线数据集成...

通过DataWorks导入数据

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

迁移ECS自建MySQL数据库至MaxCompute

本文为您介绍如何使用独享数据集成资源,将您在ECS上自建的MySQL数据库中的数据,迁移到MaxCompute。前提条件 已拥有至少一个绑定专有网络VPC的ECS(请勿使用经典网络),并在ECS上安装好MySQL数据库,数据库中已创建好用户和测试数据。...

Oracle集成至OSS

本文为您介绍如何将Oracle的数据集成到阿里云对象存储OSS(Object Storage Service)的指定存储空间(Bucket)中。前提条件 Oracle数据库已开通公网访问权限或已通过专有网络VPC接入到阿里云。说明 通过专有网络VPC将Oracle数据库接入到...

MySQL集成至OSS

本文以自建MySQL数据库为例,为您介绍如何将MySQL的数据集成到阿里云对象存储OSS(Object Storage Service)的指定存储空间(Bucket)中。前提条件 MySQL数据库已开通公网访问权限或已通过专有网络VPC接入到阿里云。说明 通过专有网络VPC将...

DataWorks访问DLF

如何在阿里云DataWorks数据集成服务通过Paimon REST将数据导入至DLF Catalog。前提条件 已创建DataWorks工作空间。如未创建,详情请参见 创建工作空间。创建DLF Catalog 详情请参见 DLF 快速入门。创建数据源 进入数据源页面。登录 ...

迁移ECS自建MySQL数据库至MaxCompute

本文为您介绍如何使用独享数据集成资源,将您在ECS上自建的MySQL数据库中的数据,迁移到MaxCompute。前提条件 已拥有至少一个绑定专有网络VPC的ECS(请勿使用经典网络),并在ECS上安装好MySQL数据库,数据库中已创建好用户和测试数据。...

MongoDB(副本集架构)集成至OSS

本文以自建MongoDB(副本集架构)为例,为您介绍如何将MongoDB(副本集架构)的数据集成到阿里云对象存储OSS(Object Storage Service)的指定存储空间(Bucket)中。前提条件 MongoDB(副本集架构)数据库已通过专有网络VPC接入到阿里云。...

ListDIProjectConfig-查看数据集成项目默认配置

查看当前工作空间中数据集成同步解决方案任务默认的全局配置。接口说明 当前 DataWorks 仅支持为同步解决方案任务中的实时同步 DDL 消息处理策略设置默认的全局配置。如果您的同步解决方案任务包含实时同步任务,则配置 DDL 消息处理规则时...

配置PolarDB输入

鼠标悬停至 图标,单击 新建节点 数据集成 实时同步。您也可以展开业务流程,右键单击目标业务流程,选择 新建节点 数据集成 实时同步。在 新建节点 对话框中,选择 同步方式 为 单表(Topic)到单表(Topic)ETL,输入 名称,并选择 路径...

使用DataWorks

MaxCompute支持通过DataWorks的数据集成功能将MaxCompute中的数据以离线方式导出至其他数据源。当您需要将MaxCompute中的数据导出至其他数据源执行后续数据处理操作时,您可以使用数据集成功能导出数据。本文为您介绍如何将MaxCompute的...

分库分表实时同步

数据集成目前支持将MySQL、PolarDB等源头的分库分表数据实时同步至MaxCompute。本文以MySQL分库分表实时写入MaxCompute场景为例,为您介绍如何通过数据集成同步分库分表数据至MaxCompute。背景信息 实际业务场景下数据同步通常不能通过一个...

DataStudio侧实时同步任务配置

您需要在数据集成同步任务配置前,配置需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。实时同步支持的数据源及其配置详情请参见 支持的数据源及同步方案。已购买合适...

Oracle单表实时同步至Tablestore

本文以Oracle单表实时同步至表格存储Tablestore场景为例,为您介绍如何通过数据集成将Oracle的某张表数据实时同步到Tablestore。前提条件 已购买 Serverless资源组 或 独享数据集成资源组。已创建Oracle数据源和Tablestore数据源,详情请...

查看运维大屏

运维大屏为您展示周期任务的运维稳定性评估、关键运维指标、调度资源使用概况,以及手动任务和数据集成同步任务的运行详情。这有助于您从宏观角度快速了解整个空间任务的总体情况,及时发现并处理异常任务,从而提升运维效率。使用说明 运...

连接同主账号同地域数据

验证网络连通性 登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据集成 数据集成,在下拉框中选择对应工作空间后单击 进入数据集成。在左侧导航栏单击 数据源,然后在数据源列表单击新增数据源,根据实际情况选择数据源并...

GenerateDISyncTaskConfigForCreating-异步生成同时...

接口说明 DataWorks 目前仅支持直接使用 CreateDISyncTask 接口创建数据集成离线同步任务,而数据集成实时同步任务和其他同步类型的任务则需要先调用 GenerateDISyncTaskConfigForCreating 和 QueryDISyncTaskConfigProcessResult 接口,...

ListDIJobs-获取数据集成同步任务配置列表

查询数据集成新版任务列表,包括整库同步实时任务,整库同步离线任务,单表同步实时任务等数据集成任务。接口说明 需要购买 DataWorks 基础版及以上版本才能使用。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。...

系统管理

上传数据至MaxCompute引擎:支持使用 Serverless资源组(推荐)、旧版资源组(独享调度资源组 或 独享数据集成资源组),且需确保数据上传任务使用的数据源与所选资源组网络连通。所选Serverless资源组和独享资源组需绑定至待接收数据的表...

核心收费场景解析

数据集成场景费用 进行 数据集成 与运维的相关费用如下:DataWorks侧收费(费用在DataWorks相关账单中)资源组费用:数据同步任务依赖资源组进行。根据资源组不同,将产生 Serverless资源组费用 或 独享数据集成资源组费用。同步过程中若...

发布数据

在顶部菜单栏中,选择 Data+AI 数据集成 离线集成。说明 若您使用的是极简模式的控制台,请单击控制台左上角的 图标,选择 全部功能 Data+AI 数据集成 离线集成。单击数据流名称,进入数据流详情页面。可选:试运行数据流。单击画布左上方...

配置数据过滤转换

鼠标悬停至 图标,单击 新建节点 数据集成 实时同步。您也可以展开业务流程,右键单击目标业务流程,选择 新建节点 数据集成 实时同步。在 新建节点 对话框中,选择 同步方式 为 单表(Topic)到单表(Topic)ETL,输入 名称,并选择 路径...

数据脱敏

DataWorks数据集成 单表实时 任务支持在来源与去向组件间新增数据脱敏组件,对来源的数据指定字段进行脱敏,并将脱敏后的数据写入目标表。步骤一:配置单表实时任务 新建数据源,详情请参见:数据源管理。新建数据集成任务,详情请参见:...

离线同步任务运维

使用Logview查看任务运行信息 数据集成LogView是在数据集成同步任务中进行埋点采集、分析处理、可视化展现等更加细粒度展示分析同步任务过程的同步速率,日志等信息。在 运维中心,找到离线任务的运行实例,单击 运行诊断。在 智能诊断 ...

Kafka单表实时同步至OSS数据

数据集成目前支持将Kafka、LogHub等源头的数据单表实时同步至OSS。本文以Kafka为源端、OSS为目标端场景为例,为您介绍Kafka如何通过数据集成实时同步至OSS数据湖。使用限制 Kafka的版本需要大于等于0.10.2小于等于2.2.0。前提条件 已购买 ...

数据传输与迁移概述

类型 典型场景 数据库批量同步 数据集成-离线数据同步。数据上云搬站 MMA。本地文件上传 odps控制台-Tunnel命令上传。其它自定义上传 SDK写入-批量数据通道(Tunnel)。离线数据流式写入(数据通道)场景特征。流式数据写入(7天24小时不...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用