数据迁移原理 Hive数据迁移原理 Hive数据迁移包含通过Hive UDTF迁移数据到MaxCompute、通过OSS迁移Hive数据到MaxCompute,本文为您介绍两种数据迁移方式的原理。通过Hive UDTF迁移数据到MaxCompute。该场景通过Hive的分布式能⼒,实现Hive...
迁移Oracle数据至MaxCompute,详情请参见 迁移Oracle数据至MaxCompute。迁移消息队列for Apache Kafka集群数据至MaxCompute,详情请参见 迁移消息队列for Apache Kafka数据至MaxCompute。迁移Kafka集群数据至MaxCompute,详情请参见 迁移...
重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动释放处于非活跃状态超过 7 天的数据迁移项目,以回收相关资源,建议您为项目配置告警并及时...
sample_percent 设置随机选择Oracle表数据的比例,用于PostgreSQL表统计信息,取值范围是0.000001~100,默认值是100。prefetch 外部表扫描时,PostgreSQL和Oracle数据表之间一次性传输的行数,取值范围是0~1024,默认值是200,0代表取消...
DTS支持全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在自建应用不停服的情况下,平滑地完成自建MySQL数据库迁移至 PolarDB-X。前提条件 自建MySQL数据库版本为5.1、5.5、5.6、5.7或8.0版本。PolarDB-X 中的数据库须基于...
否 sample_percent PostgreSQL用于计算因统计信息而随机选择的Oracle表数据的比例(默认100)。否 prefetch 扫描外表时PostgreSQL与Oracle之间一次性传输的数据行数。否 key 当前列是否包含在主键约束中。否 strip_zeros 数据传递时,是否...
重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动释放处于非活跃状态超过 7 天的数据迁移项目,以回收相关资源,建议您为项目配置告警并及时...
重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动释放处于非活跃状态超过 7 天的数据迁移项目,以回收相关资源,建议您为项目配置告警并及时...
您可以通过数据迁移功能实时迁移其他数据源的数据至 OceanBase 数据库,以及迁移 OceanBase 数据库的数据至其他数据源。本文以迁移 MySQL 数据库的数据至 OceanBase 数据库为例,介绍如何使用数据传输迁移数据。前提条件 在迁移数据之前,...
重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动释放处于非活跃状态超过 7 天的数据迁移项目,以回收相关资源,建议您为项目配置告警并及时...
重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动释放处于非活跃状态超过 7 天的数据迁移项目,以回收相关资源,建议您为项目配置告警并及时...
表数据迁移 导出自建Greenplum集群的数据,您可以通过COPY TO命令或GPFDIST外表两种方法导出。COPY TO命令 在psql客户端使用COPY TO命令导出表数据,SQL示例如下:Greenplum 4X、5X、6X版本导出表数据的语句示例如下。COPY public.t1 TO '/...
本文为您介绍迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle 租户时,Oracle 数据库执行的 CREATE TABLE DDL 支持被数据传输的 DDL 同步组件转换,但 OceanBase 数据库 Oracle 租户不支持执行的场景。二级分区模板和自定义二级分区...
支持的地域列表 2019年11月 支持迁移Oracle数据库的分区表结构至MySQL数据库。从自建Oracle迁移至阿里云 2019年10月 支持迁移MongoDB Atlas,同时支持事务日志。说明 DTS通过SSL加密连接至MongoDB Atlas,可建立更加安全可靠的迁移链路。...
DTS支持全量数据迁移以及增量数据迁移,同时使用这两种迁移类型可以实现在自建应用平滑地完成Oracle数据库的数据迁移工作。本文以PolarDB-X 2.0为例,介绍如何使用数据传输服务DTS(Data Transmission Service)将自建Oracle数据库迁移至...
库表结构迁移 全量数据迁移 增量数据迁移 PolarDB MySQL版迁移至ClickHouse集群 自建Oracle(RAC或PDB架构、非RAC架构)9i、10g、11g、12c、18c、19c版本 库表结构迁移 全量数据迁移 增量数据迁移 PolarDB MySQL版迁移至自建Oracle ...
DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在本地应用不停服的情况下,平滑地完成Oracle数据库的数据迁移。前提条件 自建Oracle数据库的版本为9i、10g、11g、12c、18c或19c版本。自建Oracle数据库已...
DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在本地应用不停服的情况下,平滑地完成Oracle数据库的数据迁移。前提条件 自建Oracle数据库的版本为9i、10g、11g、12c、18c或19c。自建Oracle数据库已开启...
本文介绍如何使用数据传输服务DTS(Data Transmission Service),将自建Oracle数据迁移至 PolarDB-X。DTS支持全量数据迁移以及增量数据迁移,同时使用这两种迁移类型可以实现在自建应用不停服的情况下,平滑地完成Oracle数据库的数据迁移...
本文为您介绍如何使用数据传输迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle 租户。重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动...
自建Oracle数据库中的待迁移表需具备主键或非空唯一索引。阿里云消息队列Kafka的版本为0.10.1.0~2.x,自建Kafka版本为0.10.1.0~2.7.0版本 目标Kafka实例的存储空间须大于自建Oracle数据库占用的存储空间。目标Kafka实例中已创建用于接收...
自建Oracle数据库中的待迁移表需具备主键或非空唯一索引。注意事项 DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在...
全量数据同步 增量数据同步 单向同步 PolarDB MySQL版同步至MaxCompute Oracle(RAC或非RAC架构)版本为9i、10g、11g、12c、18c、19c 库表结构同步 全量数据同步 增量数据同步 单向同步 PolarDB MySQL版同步至自建Oracle 云数据库SelectDB...
OceanBase 数据库 Oracle 租户作为目标端的用户权限赋予说明 迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle 租户时,目标端的版本不同,权限使用也不同。目标端版本 权限说明 V2.2.5 或 V2.2.3 您可以通过以下两种方式赋予迁移用户...
借助数据传输服务DTS(Data Transmission Service),云数据库Redis版 提供了多种数据迁移方案,包括自建Redis数据库迁移上云、云数据库Redis版 实例间的数据迁移、其他云Redis数据迁移到阿里云等,满足多种业务场景下Redis数据迁移的需求...
本文为您介绍如何通过DataWorks的数据集成功能,迁移Oracle数据至MaxCompute。前提条件 准备DataWorks环境 开通MaxCompute。创建工作空间(本文以简单模式的工作空间为例)。在DataWorks上创建业务流程。详情请参见 创建业务流程。准备...
本文为您介绍如何通过DataWorks的数据集成功能,迁移Oracle数据至MaxCompute。前提条件 准备DataWorks环境 开通MaxCompute。创建工作空间(本文以简单模式的工作空间为例)。在DataWorks上创建业务流程。详情请参见 创建业务流程。准备...
本文主要介绍企业如何迁移Oracle上云。概述 阿里巴巴基于多年去IOE(即IBM的大型机或小型机、Oracle的数据库、EMC的存储设备)最佳实践,总结出一套专业的迁移Oracle上云的方法论以及解决方案。并建立专业的团队和专业的工具帮助企业最小...
目标端 OB_Oracle MySQL(RDS 实例)OB_Oracle MySQL(PolarDB 实例)OB_Oracle MySQL(VPC 内自建数据库)OB_Oracle MySQL(数据库网关)OB_Oracle MySQL(公网 IP 自建数据库)操作步骤 登录 OceanBase 管理控制台,购买数据迁移项目。...
勾选操作:表结构迁移、实时数据复制 和 历史数据迁移。表结构迁移:在目标集群创建表(Schema、分区信息一致),目标集群表已存在会跳过。实时数据复制:同步源集群实时增量的数据。历史数据迁移:文件级别的全量文件物理迁移。在 同步/...
勾选操作:表结构迁移、实时数据复制 和 历史数据迁移。表结构迁移:在目标集群创建表(Schema、分区信息一致),目标集群表已存在会跳过。实时数据复制:同步源集群实时增量的数据。历史数据迁移:文件级别的全量文件物理迁移。在 同步/...
支持简单易用的数据交换、处理、订阅等能力,满足用户的数据迁移、实时订阅、数湖转存、数仓回流、单元化多活、备份恢复等需求,实现面向Lindorm的一站式数据生态服务。核心能力 云原生分布式:LTS是一个基于ECS部署的分布式系统,具备良好...
本文介绍数据迁移各链路规格的说明及性能测试情况。注意事项 本文中提供的性能指标仅用于提供参考的测试数据,并不作为产品SLA的评判标准。使用DTS可实现数据秒级增量迁移到目标实例,但受限于源实例的运行负载、传输网络的带宽、网络延时...
本文介绍的操作方法需要先在目标实例中创建表结构信息(新字符集),再通过DTS将源实例的数据迁移至目标实例,同时可建立简易回滚方案或双写方案,平滑地完成RDS MySQL字符集的变更。注意事项 在执行变更字符集之前,请对业务和SQL进行充分...
如果数据迁移项目已启用正向切换,数据迁移会根据数据迁移项目的类型,自动删除隐藏列和唯一索引。详情请参见 数据迁移服务隐藏列机制说明。库表汇聚场景下:建议您使用导入对象或匹配规则的方式映射源端和目标端的关系。建议您自行在目标...
使用其它引擎的RDS数据库也可以参照本文的方法将数据迁移到Redis中。场景介绍 在应用与数据库之间使用Redis作为缓存层,扩展传统关系型数据库的服务能力,从而优化业务的生态体系,是Redis的经典应用场景之一。将业务中的热数据保存到Redis...
当您的现有业务对数据库的并发读写、扩展性和可用性的要求较高,且需要使用复杂的检索或大数据分析时,如果原有数据库的数据架构不能满足现在的业务需求或改造成本较大,则您可以通过DataWorks数据集成服务将现有数据库中的数据迁移到...
背景信息 在数据传输控制台创建从 OceanBase 数据库 Oracle 租户迁移数据至 Oracle 数据库的数据迁移项目,您可以通过结构迁移、全量迁移和增量同步,无缝迁移源端数据库中的存量业务数据和增量数据至 Oracle 数据库。同时,数据传输支持将...
数据迁移 数据迁移功能帮助您实现同构或异构数据源之间的数据迁移,适用于数据上云迁移、阿里云内部跨实例数据迁移、数据库拆分扩容等业务场景 功能集 功能 功能描述 参考文档 同构迁移 逻辑迁移 支持同构数据库间的数据迁移。自建MySQL...
DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以平滑地完成Oracle数据库的数据迁移。前提条件 自建Oracle数据库的版本为9i、10g、11g、12c、18c或19c版本。自建Oracle数据库已开启ARCHIVELOG(归档模式),...