服务器数据同步软件

_相关内容

轻量应用服务器迁移至ECS实例

如果当前轻量应用服务器无法满足您的业务需求,您可以将同一阿里云账号下轻量应用服务器平滑迁移至同地域或者跨地域下的云服务器ECS,以获取更加灵活的资源配置方案。本文介绍如何通过SMC将轻量应用服务器迁移至ECS实例。说明 建议您优先...

概述

DataHub数据同步功能 DataHub提供数据Sink/Source功能,即数据同步功能,DataHub支持将对应Topic中的数据 实时/准实时 的同步到第三方阿里云产品中,打通阿里云产品间的数据流通。目前支持MaxCompute(原ODPS)、分析型数据库MySQL(ADS)、...

数据同步方案概览

适用场景 文档链接 MySQL间数据同步 MySQL实例间的双向同步 RDS MySQL实例间的单向同步 从ECS上的自建MySQL同步至RDS 从通过专线、VPN网关或智能接入网关接入的自建MySQL同步至RDS 不同阿里云账号下RDS实例间的数据同步 从RDS MySQL同步至...

修改数据同步项目的名称

本文为您介绍如何修改数据同步项目的名称。使用限制 数据传输支持处于 未启动、运行中、已暂停 和 失败 状态的项目修改项目名称。数据同步项目运行过程中创建的修改同步对象子项目不支持编辑项目名称。修改同步对象的详情请参见 查看和修改...

跨账号和同账号ECS实例间迁移

如果您需要缩容源服务器的系统盘和数据盘,目标实例的系统盘和数据盘的容量至少要大于等于源服务器的系统盘和数据盘的实际使用容量。如果目标实例的云盘容量不满足需求,您需要对云盘进行扩容。云盘的扩容的具体操作,请参见 云盘扩容指引...

通过一键建仓同步至数仓版

您可以通过一键建仓将PolarDB MySQL实例中的数据同步到 AnalyticDB MySQL 集群中,快速创建PolarDB MySQL数据仓库。适用范围 一键创建数据仓库仅适用于 AnalyticDB MySQL版 数仓版(3.0)集群。前提条件 已创建PolarDB MySQL集群。更多信息...

批量操作数据同步项目

本文为您介绍如何使用数据传输对数据同步项目进行批量操作。背景信息 数据传输支持在 同步项目列表 页面,对数据同步项目进行批量操作。不同状态的数据同步项目支持不同的批量操作。数据同步项目的状态 支持的批量操作 未配置 无 未启动 ...

通过一键建仓同步至数仓版

您可以在 AnalyticDB MySQL版 控制台上通过一键建仓将一个或多个RDS MySQL实例中的数据同步到 AnalyticDB MySQL 集群中,快速创建RDS MySQL数据仓库。适用范围 一键创建数据仓库仅适用于 AnalyticDB MySQL版 数仓版(3.0)集群。前提条件 ...

结束数据同步项目

本文为您介绍如何结束数据同步项目。使用限制 数据传输支持结束处于 已暂停、失败 和 已完成 状态的数据同步项目。操作步骤 项目结束后,仍保留当前项目的配置信息,您可以根据需要选择清空项目配置后重新配置。详情请参见 清空项目配置。...

购买指引

产品版本 入门版 标准版 高级版 版本选择建议 小型数据团队 中小型数据团队 中型数据团队 功能规格 数据同步 离线数据同步 离线数据同步 实时数据同步 配置化数据同步 离线数据同步 实时数据同步 配置化数据同步 多引擎数据计算任务编排 ...

数据集成计费说明

使用DataWorks运行数据集成同步任务时,DataWorks会根据您使用的资源类型收取相应数据同步费用。本文为您介绍使用各资源组运行数据集成任务的计费详情。费用产生场景 通过如下方式运行数据同步任务,会产生相应同步费用:数据开发:在数据...

配置监控报警

DTS为数据同步作业提供了监控报警功能,您可以通过控制台对重要的监控指标设置报警规则,让您第一时间了解同步作业的状态。前提条件 已完成数据同步作业的配置流程,详情请参见 配置数据同步作业。操作步骤 登录 数据传输控制台。在左侧...

全量数据同步

通过选择已注册的数据源端数据和目标端,实现全量任务自动建表的方式创建离线同步周期任务,本文介绍如何创建MySQL to MaxCompute离线全量数据同步一次性调度的任务。前提条件 已新建工作组,具体操作,请参见 新建工作组。已在工作组中...

通过标签管理数据同步项目

创建数据同步项目后,您可以通过标签功能实现对数据同步项目的管理,快速筛选目标项目。本文为您介绍数据传输如何通过标签功能实现对数据同步项目的管理。使用限制 每个数据同步项目最多支持添加 4 个标签。所有数据同步项目的标签总数不得...

移除同步对象

DTS支持在数据同步的过程中移除同步对象,无需重新配置同步任务,以在降低对业务影响的情况下变更同步对象。本文将介绍移除同步对象的操作流程。重要 本文为旧版控制台的操作流程,若您使用的是新版控制台,操作流程请参见 修改同步对象。...

通过DTS采集数据

通过阿里数据传输中的数据同步(DTS),将RDS的数据实时传输至DataHub中。创建DataHub项目。登录 DataHub控制台。在 项目管理 中,选择区域,本案例选择 华东1 区。单击 创建Project,输入 名称 和 描述,创建一个DataHub项目。本案例的...

数据集成概述

数据集成是稳定高效、弹性伸缩的数据同步平台,致力于提供复杂网络环境下、丰富的异构数据源之间高速稳定的数据移动及同步能力。使用限制 数据同步:支持且仅支持结构化(例如RDS、DRDS等)、半结构化、无结构化(OSS、TXT等,要求具体同步...

创建同步OSS

准备OSS Bucket DataHub支持将数据同步到对象存储OSS中,在创建同步任务前,用户首先需要在OSS管控台创建OSS Bucket,作为DataHub数据同步的目标Bucket。2.服务关联角色授权 用户配置同步任务时,账号可以选择使用 AccessId/AccessKey 静态...

设置增量同步位点

本文为您介绍创建数据迁移或数据同步项目时,增量同步位点的使用限制、适用场景和操作步骤。使用限制 您在创建数据迁移或数据同步项目时,迁移/同步类型选择了 增量同步,并且未选择 全量迁移/全量同步,才会支持设置增量同步位点。设置...

计费方式

配置数据同步实例时 数据同步实例将从 增量数据采集 模块启动后,开始按同步链路规格来计费。数据同步实例暂停期间仍会收取费用。配置数据迁移实例时 如不勾选增量迁移,则不会收取费用。如勾选增量迁移,则数据迁移实例将从增量迁移任务...

获取物理表

数据同步支持获取、更新当前云计算资源下最新物理表及元数据Meta信息,以便进行数据源之间的数据同步。本文介绍如何在数据同步中获取物理表。前提条件 已准备好相应的数据源,具体操作,请参见 新建数据源。操作步骤 登录 数据资源平台控制...

获取物理表

数据同步支持获取、更新当前云计算资源下最新物理表及元数据Meta信息,以便进行数据源之间的数据同步。本文介绍如何在数据同步中获取物理表。前提条件 已准备好相应的数据源,具体操作,请参见 新建数据源。操作步骤 登录企业数据智能平台...

新建 PostgreSQL 数据

新建数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 PostgreSQL 数据源。前提条件 已创建 RDS PostgreSQL 实例。详情请参见 创建 RDS PostgreSQL 实例。重要 数据传输不支持 Serverless 模式实例和只读实例...

数据库库表重命名

说明 多表聚合功能主要用于将 DRDS、MyCat 等分库分表的数据同步至目标端的同一张表。使用限制 数据传输仅支持配置数据迁移或数据同步项目时,在设置选择迁移/同步对象步骤执行重命名操作。一旦启动数据迁移或数据同步项目,请勿再执行重...

数据集成

DataWorks数据集成支持复杂网络环境下的数据同步,您可在数据开发(DataStudio)界面直接 创建离线同步节点,用于离线(批量)数据周期性同步;实时同步任务运维,用于单表或整库增量数据实时同步。本文为您介绍数据同步的相关内容。背景...

数据集成概述

数据集成是基于Dataphin构建的简单高效的数据同步平台,致力于提供具有强大的数据预处理能力、丰富的异构数据源之间数据高速稳定的同步能力。背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量...

单向同步升级至双向同步

前提条件 数据同步作业的源实例和目标实例的数据库类型均为 MySQL。数据同步作业的同步拓扑为 单向同步。数据同步作业的状态为 运行中。注意事项 同步实例只能从单向同步升级为双向同步,不能从双向同步降级为单向同步。升级生效期间数据...

支持的数据

类别 数据源 导入方式 文档链接 消息队列 Kafka 数据同步 通过数据同步功能同步Kafka至湖仓版(推荐)日志类数据 日志服务(SLS)数据同步 通过数据同步功能同步SLS至湖仓版(推荐)大数据 Hive 数据迁移 Hive数据导入 相关文档 AnalyticDB...

使用DTS同步RDS MySQL数据到AnalyticDB MySQL 2.0

通过数据同步功能,您可以将MySQL、PolarDB-X(原DRDS)以及PolarDB中的数据同步至 AnalyticDB MySQL版 2.0 中,其中MySQL可以是RDS MySQL、其他云厂商或线上IDC自建MySQL或者ECS自建MySQL。同步对象的选择粒度可以为库、表、列,您可以...

上线实时任务

相关操作 操作 说明 下线实时任务 单个下线:在 实时数据同步 页面,单击目标实时任务 操作 列的 下线,在弹出对话框中单击 确定,可下线实时任务。批量下线:在 实时数据同步 页面,选择需要下线的任务,单击页面左下角 批量下线,可批量...

列过滤

操作步骤 将数据同步项目配置至 选择同步对象 步骤。详情请参见相应类型的 数据同步 项目文档。选择同步对象和映射方式后,在 选择同步范围 区域右侧的 目标端对象 列表中,鼠标悬停至目标对象,单击显示的 设置。在 设置 对话框的 选择列 ...

查看同步任务

DataHub DataConnector是把DataHub服务中的流式数据同步到其他云产品中的功能,目前支持将Topic中的数据实时/准实时同步到MaxCompute(ODPS)、OSS、ElasticSearch、RDS Mysql、ADS、TableStore中。用户只需要向DataHub中写入一次数据,并在...

出错提示S12数据同步密钥获取出错

本文主要介绍在使用SMC迁移时,迁移任务出错提示“S12_*数据同步密钥获取出错”的问题描述、问题原因及其解决方案。问题描述 在SMC迁移时,迁移任务出错提示“S12_*数据同步密钥获取出错”。其中S12_*可能的错误码如下:S12_U28 S12_U7 S12...

DeleteDISyncTask-删除数据集成同步任务

当前仅支持使用该接口删除实时数据同步任务。接口说明 如果您希望删除离线数据同步任务,请使用 DeleteFile 接口,具体操作流程请参考 删除同步任务。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,...

Kafka Partition同步策略说明

在配置同步到Kafka的数据同步作业时,为提升同步的性能,您可以调整Kafka Partition(分区)同步策略,例如根据Hash结果将数据同步至不同的Partition。Hash算法 DTS采用Java默认的hashcode算法来计算Hash值。配置方法 您需要在配置数据同步...

升级实例配置

升级实例配置的操作,仅适用于数据迁移任务和数据同步作业。数据订阅通道无需升级实例配置。注意事项 实例只能升级配置,不能降级配置。升级生效期间增量数据迁移与数据同步会出现5秒左右的延迟,请在业务低峰期操作。费用说明 包年包月...

更改 Topic

适用场景 创建数据库至消息队列的数据同步项目时,数据传输支持您在选择需要同步的 Topic 类型后,通过 更改 Topic 功能重新选择 Topic 名称。操作步骤 将数据同步项目配置至 选择同步对象 步骤。详情请参见相应类型的 数据同步 项目文档。...

BigQuery数据

BigQuery数据源为您提供读取BigQuery的功能,方便您后续可以通过向导模式和脚本模式配置数据同步任务。本文为您介绍DataWorks的BigQuery数据同步能力支持情况。支持的版本及地域 BigQuery使用的SDK版本是 google-cloud-bigquery 2.29.0,...

数据传输作业:数据集成

MaxCompute支持通过DataWorks数据集成功能将其他数据源数据同步至MaxCompute,数据集成作业主要有三种类型:离线同步、实时同步、同步解决方案。本文为您介绍MaxCompute数据集成的实现方案。离线同步 离线(批量)的数据通道通过定义数据...

使用数据传输同步数据

数据同步能够保持源端和目标端的数据一致性,实现关键业务的数据实时流动。本文以同步 OceanBase 数据库的数据至 Kafka 为例,介绍如何使用数据传输同步数据。前提条件 在同步数据之前,您需要确认以下信息:数据传输已具备云资源访问权限...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用