网络数据的传输

_相关内容

迁移 RDS PostgreSQL 实例的数据至 OceanBase 数据库 ...

RDS PostgreSQL 实例的数据迁移(结构迁移或增量 DDL)至 OceanBase 数据库 Oracle 租户时,表名、字段名将根据数据传输的默认策略转为大写。例如,源端的表名为 a,则目标端默认转为 A。您可以通过 a、A 或“A”的方式使用表名、字段名,...

使用数据传输迁移数据

在 预检查 环节,数据传输会检查数据库用户的读写权限、数据库的网络连接等是否符合要求。全部检查任务均通过后才能启动数据迁移任务。如果预检查报错:您可以在排查并处理问题后,重新执行预检查,直至预检查成功。您也可以单击错误预检查...

迁移 AnalyticDB MySQL 的数据至 OceanBase 数据库 ...

在 预检查 环节,数据传输会检查数据库用户的读写权限、数据库的网络连接等是否符合要求。全部检查任务均通过后才能启动数据迁移任务。如果预检查报错:您可以在排查并处理问题后,重新执行预检查,直至预检查成功。您也可以单击错误预检查...

OceanBase 数据库相同租户之间的数据同步

在 预检查 环节,数据传输会检查数据库用户的读写权限、数据库的网络连接等是否符合要求。全部检查任务均通过后才能启动数据同步任务。如果预检查报错:您可以在排查并处理问题后,重新执行预检查,直至预检查成功。您也可以单击错误预检查...

迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle...

本文为您介绍如何使用数据传输迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle 租户。重要 如果数据迁移任务长期处于非活跃状态(任务状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,任务可能无法恢复。数据传输将主动...

批量操作数据同步任务

本文为您介绍如何使用数据传输对数据同步任务进行批量操作。背景信息 数据传输支持在 同步任务列表 页面,对数据同步任务进行批量操作。不同状态的数据同步任务支持不同的批量操作。数据同步任务的状态 支持的批量操作 未配置 无 未启动 ...

配置双向同步任务

在 预检查 环节,数据传输会检查数据库用户的读写权限、数据库的网络连接等是否符合要求。全部检查任务均通过后才能启动数据迁移任务。如果预检查报错:您可以在排查并处理问题后,重新执行预检查,直至预检查成功。您也可以单击错误预检查...

OceanBase 数据库不同租户之间的数据同步

在 预检查 环节,数据传输会检查数据库用户的读写权限、数据库的网络连接等是否符合要求。全部检查任务均通过后才能启动数据同步任务。如果预检查报错:您可以在排查并处理问题后,重新执行预检查,直至预检查成功。您也可以单击错误预检查...

查看数据迁移任务的详情

当源库不断有业务写入时,数据传输会在全量数据迁移启动前,启动增量拉取模块,以拉取源实例中的增量更新数据,对其进行解析、封装,并存储至数据传输中。当全量数据迁移完成后,数据传输会启动增量数据回放模块,从增量数据拉取模块中获取...

功能特性

云数据库MongoDB版(ApsaraDB for MongoDB)完全兼容MongoDB协议,基于飞天分布式系统和高可靠...通过数据传输可实现不停服数据迁移、数据异地灾备、跨境数据同步、缓存更新策略等多种业务应用场景,助您构建安全、可扩展、高可用的数据架构。

概述

数据传输是 OceanBase 数据库提供的一种支持同构或异构数据源与 OceanBase 数据库之间进行数据交互的服务,具备在线迁移存量数据和实时同步增量数据的能力。产品功能 数据传输提供可视化的集中管控平台,您只需要进行简单的配置即可实时...

使用数据传输同步数据

本文以同步 OceanBase 数据库的数据至 Kafka 为例,介绍如何使用数据传输同步数据。前提条件 在同步数据之前,您需要确认以下信息:数据传输已具备云资源访问权限。详情请参见 数据传输迁移角色授权。已为源端 OceanBase 数据库创建专用于...

配置MaxCompute数据

参数名 说明 数据传输服务 Quota Name 源端独享数据传输服务资源组名称。登录 MaxCompute控制台,在 配额(Quota)管理 列表中,可查看并复制对应的 QuotaName,例如:ot_42854300324*_169821756*_p#ot_42854300324*_169821756*,详情请...

批量操作数据迁移任务

本文为您介绍如何使用数据传输对数据迁移任务进行批量操作。背景信息 数据传输支持在 迁移任务列表 页面,对数据迁移任务进行批量操作。不同状态的数据迁移任务支持不同的批量操作。数据迁移任务的状态 支持的批量操作 未配置 无 未启动 ...

配置RDS MySQL间的数据集成任务

说明 若数据传输控制台自动跳转至数据管理DMS控制台,您可以单击右下角的 中单击,返回至旧版数据传输控制台。若您登录的是新版数据传输控制台,您可以单击右下角的,返回至旧版数据传输控制台。在左侧导航栏,单击 数据集成。在数据集成...

使用DTS进行增量迁移时没有同步数据

问题描述 使用阿里云数据传输服务DTS的增量迁移功能时出现延迟,或者使用数据同步功能时很长时间没有同步数据。问题原因 增量迁移没有同步数据的原因如下:目标或者源端实例运行状态异常。源或者目标实例上进程被阻塞。源实例以及目标实例...

身份管理

推荐的做法是使用RAM身份(即RAM用户和RAM角色)来访问云数据传输。RAM用户 RAM用户需要由阿里云账号(即主账号)或拥有管理员权限的RAM用户、RAM角色来创建,且必须在获得授权后才能登录控制台或使用API访问阿里云账号下的资源。对于RAM...

修复迁移失败的任务

登录 数据传输控制台。在左侧导航栏,单击 数据迁移。在 迁移任务列表 页,选择数据迁移任务所属的地域。您可以选择下述方法进行修复:方法一 单击目标迁移任务的 查看原因并修复。在弹出的对话框中,根据提示进行调整修复,例如修改结构...

数据库改造迁移

ADAM的数据库改造迁移功能已与数据传输服务DTS的数据迁移功能全面融合,请您前往新版DTS控制台进行迁移操作。迁移方案概览 DTS支持以下迁移方案,您可以根据业务需求单击具体方案,来查看支持的版本、迁移类型和配置步骤。迁移方案的详细...

【通知】DTS将对部分实例进行主动运维

数据传输服务DTS(Data Transmission Service)将于2025年07月28日至2025年08月01日,对部分启动时间较早的DTS实例进行主动运维。DTS将通过对目标DTS实例下发运维事件的方式,对其进行重启操作,请您关注DTS运维事件的通知。操作时间 2025...

数据传输服务(上传)场景与工具

本文为您介绍如何将数据上传至MaxCompute或从MaxCompute下载数据,包括服务连接、SDK、工具和数据导入导出、上云等常见操作。背景信息 MaxCompute提供了多种数据上传下载的...相关文档 关于数据传输服务详情介绍,请参见 数据传输服务概述。

从RDS PostgreSQL同步至云原生数据仓库AnalyticDB ...

数据传输服务DTS(Data Transmission Service)支持将RDS PostgreSQL同步至 云原生数据仓库AnalyticDB PostgreSQL。通过DTS提供的数据同步功能,可以轻松实现数据的流转,将企业数据集中分析。前提条件 RDS PostgreSQL中待同步的数据表必须...

RDS MySQL修改字符集(平滑方案)

说明 若数据传输控制台自动跳转至数据管理DMS控制台,您可以在右下角的 中单击,返回至旧版数据传输控制台。若您登录的是新版数据传输控制台,您可以单击右下角的,返回至旧版数据传输控制台。在左侧导航栏,单击 数据迁移。在 迁移任务...

RDMA日志传输

全球数据网络GDN中的从集群 不支持 开启RDMA日志传输功能。使用方法 您可以通过 loose_innodb_polar_log_rdma_transfer 参数开启RDMA日志传输功能。参数 级别 说明 loose_innodb_polar_log_rdma_transfer Global RDMA日志传输功能开关,...

产品架构

优势:安全:系统后台通过专有网络进行跨地域传输,数据库无需开启公网,提高数据传输的安全性。灵活:备份周期配置更加灵活,仅需配置一次即可。例如可配置每天进行同地域的备份,每个月进行一次跨地域备份。备份性能:备份速度快。混合云...

什么是数据传输服务DTS

服务内部提供7x24小时的数据准确性校验,并通过安全传输协议、安全 Token认证及 SSL加密等手段保障数据传输的可靠性与安全性。在跨境、跨地域同步场景中,DTS使用专线网络进行隔离,进一步增强了数据的安全性。不停机迁移 您能够在源数据库...

使用SDK消费PolarDB-X 1.0订阅数据

proxyUrl 数据订阅通道的网络地址及端口号信息。说明 如果您部署SDK客户端所属的ECS实例与数据订阅通道属于经典网络或同一专有网络,建议通过内网地址进行数据订阅,网络延迟最小。不建议使用公网地址。在DTS控制台单击目标订阅实例ID,在 ...

通过数据订阅实现缓存更新策略

同时,为保证数据的完整性,业务的更新数据持久化存储至RDS MySQL中。此时,业务需要实现缓存更新策略,保证业务数据更新后,缓存中的数据能够被同步更新。操作步骤 本文以IntelliJ IDEA软件为例,介绍如何运行SDK示例代码来消费订阅数据。...

配置任务时测试连接失败的排查及解决方法

Ping 数据库实例所属服务的网络不通。数据库IP信息填写错误。请检查下您的网络是否正常。请确认并修正数据库的IP。Telnet 数据库实例有访问限制。数据库Port信息填写错误。请在数据库实例中放开DTS公网IP段的访问权限(如数据库所属服务的...

使用flink-dts-connector消费订阅数据

参数说明 DstExample文件中的参数 DtsTableISelectTCaseTest文件中的参数 说明 查询方式 broker-url dts.server 数据订阅通道的网络地址及端口号信息。说明 如果您部署的Flink所属的ECS实例与数据订阅通道属于经典网络或同一专有网络,建议...

功能特性

产品优势 断点续传 具有自动断点续传机制,有效地保证数据传输的可靠性。产品优势 数据源容灾守护 源库或目标库无法连接或出现其他问题时,DTS支持立即进行持续的重试操作。数据集成 ETL支持通过可视化拖拉拽操作、Flink SQL语句配置任务,...

排查订阅任务问题

initCheckpoint 消费位点,即SDK客户端消费第一条数据的时间戳,格式为Unix时间戳,例如1620962769。重要 本参数仅当 subscribeMode 为 ASSIGN,且 isForceUseInitCheckpoint 为 true 时生效。消费位点信息可用于:当业务程序中断后,传入...

什么是云数据传输CDT

数据传输 Cloud Data Transfer(简称CDT),是对云上网络带宽统一计费的产品。CDT提供免费额度、按量计费、阶梯计费等灵活优惠的计费方式,助您节省云上网络带宽费用。支持公网流量累计阶梯计费,每月按 地域 累计阶梯,用量越大单价越低...

使用Kafka客户端消费订阅数据

KAFKA_BROKER_URL_NAME 数据订阅通道的网络地址信息。说明 如果您部署Kafka客户端所属的ECS实例与数据订阅通道属于经典网络或同一专有网络,建议通过内网地址进行数据订阅,网络延迟最小。鉴于网络稳定性因素,不建议使用公网地址。INITIAL...

迁移服务(MMS)

网络传输费用:数据迁移过程中,需要网络打通,会产生相应的网络费用。源端数据读取费用:MMS数据迁移过程中,通过调用各类数据源的取数接口读取数据,会根据各类数据源规则在源端产生相应的取数费用。MMS、DataWorks数据集成在数据迁移...

数据同步链路规格说明

名词解释 规格:数据传输服务为用户提供了不同性能的链路规格,以同步的记录数为衡量标准。RPS:表示每秒增量同步至目标表的数据行数,如每秒增量同步源库5000行数据至目标表,则RPS为5000。数据同步规格说明 数据同步根据同步链路的同步...

【通知】DTS经典网络下线

数据传输服务DTS(Data Transmission Service)将下线经典网络资源,并不再支持经典网络架构的云产品。背景信息 自2011年阿里云上线公共云服务以来,经典网络架构为云服务器提供了网络支撑,服务了海量云上客户。2014年,阿里云推出了全新...

应用场景

数据传输服务DTS(Data Transmission Service)支持数据迁移、数据订阅和数据实时同步功能,帮助您实现多种典型应用场景。不停机迁移数据库 传输方式:数据迁移 为了保证数据的一致性,传统的迁移过程需要您在迁移数据时停止向源数据库写入...

云数据库 OceanBase 版数据传输服务等级协议

版本生效日期:2023年12月25日 本服务等级协议(Service Level Agreement,以下简称“SLA”)规定了阿里云向客户提供的云数据库 OceanBase 版数据传输服务(以下简称“OceanBase 数据传输服务”)的服务可用性等级指标及赔偿方案。...

什么是VPC数据通道

VPC数据通道是数据传输服务DTS(Data Transmission Service)通过专有网络VPC(Virtual Private Cloud)内的弹性网卡访问数据源的一项新技术方案,以实现通过私有网络地址访问数据库实例的效果。概述 当您通过 专线/VPN网关/智能网关 的 接...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用