数据源和数据库的关系

_相关内容

使用数据传输迁移数据

源数据库和目标数据库均可以连通网络。您已为源端 MySQL 数据库目标端 OceanBase 数据库的 MySQL 租户创建专用于数据迁移的数据库用户,并赋予其相关权限。详情请参见 创建数据库用户。已开启 Binlog,详情请参见 管理本地日志(Binlog)...

配置数据校验

每秒读取的最大数据行数rps 全量数据校验会占用数据库一定的读取资源,您可以根据实际情况对全量校验任务进行限速设置(每秒读取的数据行数数据量),以缓解数据库的压力。说明 参数值为0时表示无限制,当 每秒读取的最大数据行数rps ...

自建Oracle同步至PolarDB MySQL版

说明 DTS要求源数据库的Redo LogArchive Log至少保留7天以上,否则DTS可能因无法获取Redo Log或Archive Log而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Redo Log或Archive Log保存时间低于DTS要求的时间...

自建Oracle同步至PolarDB PostgreSQL版(兼容Oracle)

说明 如为增量同步任务,DTS要求源数据库的Redo LogArchive Log保存24小时以上,如为全量同步增量同步任务,DTS要求源数据库的Redo LogArchive Log至少保留7天以上(您可在全量同步完成后将Redo LogArchive Log保存时间设置为24...

自建Oracle同步至MaxCompute

说明 如为增量同步任务,DTS要求源数据库的Redo LogArchive Log保存24小时以上,如为全量同步增量同步任务,DTS要求源数据库的Redo LogArchive Log至少保留7天以上(您可在全量同步完成后将Redo LogArchive Log保存时间设置为24...

自建SQL Server同步至PolarDB MySQL版

如为增量同步任务,DTS要求源数据库的数据日志保存24小时以上,如为全量同步增量同步任务,DTS要求源数据库的数据日志至少保留7天以上(您可在全量同步完成后将数据日志保存时间设置为24小时以上),否则DTS可能因无法获取数据日志而导致...

RDS PostgreSQL间的单向同步

如为增量同步任务,DTS要求源数据库的WAL日志保存24小时以上,如为全量同步增量同步任务,DTS要求源数据库的WAL日志至少保留7天以上(您可在全量同步完成后将WAL日志保存时间设置为24小时以上),否则DTS可能因无法获取WAL日志而导致任务...

自建Oracle同步至PolarDB-X 2.0

说明 如为增量同步任务,DTS要求源数据库的Redo LogArchive Log保存24小时以上,如为全量同步增量同步任务,DTS要求源数据库的Redo LogArchive Log至少保留7天以上(您可在全量同步完成后将Redo LogArchive Log保存时间设置为24...

RDS PostgreSQL间的单向同步

如为增量同步任务,DTS要求源数据库的WAL日志保存24小时以上,如为全量同步增量同步任务,DTS要求源数据库的WAL日志至少保留7天以上(您可在全量同步完成后将WAL日志保存时间设置为24小时以上),否则DTS可能因无法获取WAL日志而导致任务...

自建Oracle间的数据迁移

前提条件 源和目标Oracle数据库的版本为9i、10g、11g、12c、18c或19c版本。说明 为保障兼容性,建议源和目标库的版本保持一致,请勿跨版本迁移。源Oracle数据库已开启Supplemental Logging,且要求开启supplemental_log_data_pk和...

自建PostgreSQL同步至RDS PostgreSQL

如为增量同步任务,DTS要求源数据库的WAL日志保存24小时以上,如为全量同步增量同步任务,DTS要求源数据库的WAL日志至少保留7天以上(您可在全量同步完成后将WAL日志保存时间设置为24小时以上),否则DTS可能因无法获取WAL日志而导致任务...

自建Oracle同步至DataHub

说明 如为增量同步任务,DTS要求源数据库的Redo LogArchive Log保存24小时以上,如为全量同步增量同步任务,DTS要求源数据库的Redo LogArchive Log至少保留7天以上(您可在全量同步完成后将Redo LogArchive Log保存时间设置为24...

数据库Redis实例间单向数据迁移

实例的数据迁移到另一个 云数据库 Redis 版 实例中,且您未创建新实例,推荐您通过 备份集克隆、数据闪回功能 将数据克隆至新实例,若您已创建新实例,建议您通过数据传输服务DTS(Data Transmission Service,简称DTS)实现Redis实例(自...

RDS SQL Server同步至RDS MySQL

如为增量同步任务,DTS要求源数据库的数据日志保存24小时以上,如为全量同步增量同步任务,DTS要求源数据库的数据日志至少保留7天以上(您可在全量同步完成后将数据日志保存时间设置为24小时以上),否则DTS可能因无法获取数据日志而导致...

Reserve参数说明

源数据库类型为MySQL(包括RDS MySQL和自建MySQL)参数 配置条件 说明 privilegeMigration 当源和目标数据库类型均为RDS MySQL时。是否迁移账号,取值为:true:迁移账号。false(默认值):不迁移账号。privilegeDbList 迁移账号的信息。...

查看数据迁移项目的详情

连接详情 单击 连接详情,您可以查看数据迁移项目源端目标端的数据源信息,并可以复制数据源标识。实例规格 购买当前数据迁移项目时,选择的实例规格。规格详情请参见 数据传输规格说明。您可以进行以下操作:查看迁移对象 单击页面右上...

迁移与批量上云

支持的数据源 当前DataWorks支持各类数据源的数据整迁移至MaxCompute、OSS、Elasticsearch等,支持的数据源类型操作指导链接如下。去向数据源 来源数据源 操作指导链接 MaxCompute MySQL PostgreSQL SQL Server Oracle PolarDB ...

数据源概述

DataWorks的数据源用于连接不同的数据存储服务。在配置数据集成同步任务之前,您需要首先定义好同步任务的源端目的端数据源信息,以便在配置同步任务时,能够通过选择数据源名称来确定数据的读取写入数据库。本文将介绍配置数据源时您...

创建RDS MySQL数据订阅通道

如果订阅的源数据库还处于其他任务中(例如该数据库还存在于某个正在运行的数据迁移任务中),您可能会订阅到订阅对象以外的数据,此类场景中,您需要手动在订阅客户端中过滤掉不需要的数据。操作步骤 购买数据订阅通道,详情请参见 购买...

支持的数据源

DBS支持添加阿里云数据库、自建库、其他云厂商等各种环境中的MySQL、SQL Server、PostgreSQL、Oracle、MongoDB、Redis等类型的数据源。数据源是待备份的数据库或文件路径,数据源信息包含数据源名称、数据源所在地域、数据库类型、数据库的...

切换

将业务回滚至PolarDB-X 1.0(可选)为了防止风险的发生(例如发现迁移的数据有误、迁移后数据库表现不符合预期等),切换后会自动将新写入目标数据库的业务数据回写到源数据库,以便在异常状况下,将业务回滚切换至源数据库。在迁移任务...

添加适配数据源

在 添加数据 对话框中,类型 选择 RDS for MySQL、RDS for PostgreSQL 或 兼容MySQL数据库,添加这两种类型数据源详细步骤,请参见 添加RDS for MySQL数据源、添加RDS for PostgreSQL数据源 添加兼容MySQL数据库的数据源

设置资产数据源

本文介绍DataV设置资产数据源的方法,以及 设置数据源 页面的内容,包括数据源数据过滤器以及数据响应结果等。配置资产数据源 登录 DataV控制台。在 我的可视化 页面,单击您创建的可视化应用项目上方的 编辑 按钮。在画布编辑器页面,...

Oracle数据导入

您需要在数据集成同步任务配置前,配置好您需要同步的源端目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

通过DataWorks导入

您需要在数据集成同步任务配置前,配置好您需要同步的源端目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

通过DataWorks导入数据

您需要在数据集成同步任务配置前,配置好您需要同步的源端目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

流量回放压测

如果手动开启了源数据库的 SQL洞察审计,压测结束后,请关闭该功能,详细参照请参见 关闭SQL洞察审计。如果面对即将到来的短期业务高峰,需要扩容数据库实例,您可以根据实例类型开启 自动性能扩展 或者 定时自动弹性伸缩。相关API API...

Quick BI如何接入TSDB

您可以在数据列表中,看到您创建的数据源。后续步骤 创建数据源后,您还可以创建数据集并分析数据。将时间序列数据库 TSDB中的数据表或自定义方式创建的数据集添加到Quick BI,请参见 创建并管理数据集。添加可视化图表并分析数据,请参见 ...

智能压测

如果手动开启了源数据库的 SQL洞察审计,压测结束后,请关闭该功能,详细参照请参见 关闭SQL洞察审计。如果面对即将到来的短期业务高峰,需要扩容数据库实例,您可以根据实例类型开启 自动性能扩展 或者 定时自动弹性伸缩。视频教程 ...

配置并管理实时同步任务

数据集成附加字段支持的变量字段如下:EXECUTE_TIME:执行时间 UPDATE_TIME:更新时间 DB_NAME_SRC:原始数据库名称 DB_NAME_SRC_TRANSED:转换后数据库名称 DATASOURCE_NAME_SRC:源端数据源名称 DATASOURCE_NAME_DEST:目的端数据源名称 ...

创建Oracle数据订阅通道

如果订阅的源数据库还处于其他任务中(例如该数据库还存在于某个正在运行的数据迁移任务中),您可能会订阅到订阅对象以外的数据,此类场景中,您需要手动在订阅客户端中过滤掉不需要的数据。准备工作 登录待订阅的Oracle数据库,创建用于...

从自建Oracle同步至DataHub

说明 如为增量同步任务,DTS要求源数据库的Redo LogArchive Log保存24小时以上,如为全量同步增量同步任务,DTS要求源数据库的Redo LogArchive Log至少保留7天以上(您可在全量同步完成后将Redo LogArchive Log保存时间设置为24...

配置并管理实时同步任务

数据集成附加字段支持的变量字段如下:EXECUTE_TIME:执行时间 UPDATE_TIME:更新时间 DB_NAME_SRC:原始数据库名称 DB_NAME_SRC_TRANSED:转换后数据库名称 DATASOURCE_NAME_SRC:源端数据源名称 DATASOURCE_NAME_DEST:目的端数据源名称 ...

专有网络VPC的数据源连通独享数据集成资源组

本文以阿里云RDS数据库为例,为您介绍专有网络VPC的数据源如何连通独享数据集成资源组。前提条件 购买RDS MySQL实例。本文以购买MySQL 5.7版本的MySQL实例为例,您可以根据业务需求进行配置。详情请参见 快速创建RDS MySQL实例。在目标实例...

通过DataWorks导入

离线同步支持的数据源及其配置详情请参见 支持的数据源与读写插件。说明 数据源相关能力介绍详情请参见:数据源概述。已购买合适规格的独享数据集成资源组。详情请参见:新增使用独享数据集成资源组。独享数据集成资源组与数据源网络已...

通过DataWorks导入数据

离线同步支持的数据源及其配置详情请参见 支持的数据源与读写插件。说明 数据源相关能力介绍详情请参见:数据源概述。已购买合适规格的独享数据集成资源组。详情请参见:新增使用独享数据集成资源组。独享数据集成资源组与数据源网络已...

批量添加数据源

您可以通过 数据库备份DBS 的批量添加数据源功能,快速导入大批量同类型的数据源,便于后续对数据源进行管理与备份。功能说明 批量导入功能仅支持MySQL公网自建数据库。费用说明 添加数据源操作不会产生费用,只有在添加数据源后开启备份才...

配置并管理实时同步任务

在 数据来源 区域,选择要同步的数据源 类型 数据源 名称等信息。选择要同步的表。在 选择同步的源表 区域,为您展示所选数据源下所有的表,您可以在 源端表 区域选中需要同步的整全表或部分表,并单击 图标,将其移动至 已选表。...

开发者中心介绍

4 数据源 ODC 支持与 OceanBase 数据库建立连接,连接成功后,您可以通过 ODC 对所连接的数据源数据库对象资源)进行编辑管理。5 用户权限 拥有 ODC 系统管理员角色的用户可以新建用户、编辑用户,并通过角色授予用户资源管理系统...

SQL查询

工作空间已配置数据源:DataWorks的数据源分为引擎绑定时默认创建的引擎数据源和在数据源配置界面创建的自建数据源,若要操作非引擎数据源,请确保已创建数据源,详情请参见 创建并管理数据源。已拥有某数据源在数据分析模块的查询权限:...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用