本文介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大时,...
解决方案 数据归档 数据归档功能支持定时将大表的数据归档至其他数据库,同时支持源表数据删除、表空间整理回收等。一键建仓 一键创建实时同步的数据仓库,数据在秒级的延迟下,同步至 AnalyticDB for MySQL 数据库中。数据库迁移 通过创建...
数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据。数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...
对于非ONLINE状态的同名数据库,根据不同场景解决:场景1:OSS备份数据恢复上云时选择不打开数据库 产生原因 在使用 OSS备份数据恢复到RDS SQL Server 时如果选择了 不打开数据库(还有差异备份或日志文件)选项,数据库会处于非ONLINE状态...
敏感数据识别任务扫描完成后,您可在数据安全中心以数据库实例、OSS Bucket、SLS Project或具体数据对象(如数据表、文件或每5分钟内存储的数据等)为单位查看敏感数据识别结果。本文介绍如何查看数据对象、数据库实例的敏感数据识别结果。...
通过创建Greenplum数据源能够实现Dataphin读取Greenplum的业务数据或向Greenplum写入数据。本文为您介绍如何创建Greenplum数据源。背景信息 Greenplum是一款大数据分析引擎,适用于分析、机器学习和AI等领域。其架构主要针对管理大规模分析...
MaxCompute支持使用外部表功能查询和分析存储于OSS等外部存储系统的数据。该机制使得用户可以无需将数据导入到MaxCompute内部存储,直接对外部数据进行操作,从而提供了数据处理的灵活性和方便性。背景信息 MaxCompute SQL作为分布式数据...
批量和实时导入数据 批量导入:适用于大数据量导入的场景,导入过程中可以查询旧数据,导入操作完成后一键切换新数据。导入失败时,支持回滚新数据,不影响查询旧数据。例如,从MaxCompute、OSS中导入数据到 AnalyticDB MySQL版 时,推荐...
通过创建Greenplum数据源能够实现Dataphin读取Greenplum的业务数据或向Greenplum写入数据。本文为您介绍如何创建Greenplum数据源。背景信息 Greenplum是一款大数据分析引擎,适用于分析、机器学习和AI等领域。其架构主要针对管理大规模分析...
本文介绍了NLP自学习平台提供的SDK语言版本,列举了最新版本SDK的获取地址。SDK简介 NLP自学习平台SDK封装了2019-11-11版本API,以访问密钥(AccessKey)识别调用...编程语言 GitHub地址 GitHub文档 Java aliyun-java-sdk-nlp-automl README-...
解决方案 数据归档 数据归档功能支持定时将大表的数据归档至其他数据库,同时支持源表数据删除、表空间整理回收等。一键建仓 一键创建实时同步的数据仓库,数据在秒级的延迟下,同步至 AnalyticDB for MySQL 数据库中。数据库迁移 通过创建...
风险识别管理提供了多维度的关联分析及算法,智能化的分析技术帮助您通过风险识别规则,主动发现风险操作并预警,使用可视化方式进行一站式审计。DataWorks内置了多种场景的风险识别规则,您可以直接使用,也可以根据业务场景自定义规则。...
数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据。数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...
重要 该配置项为一个数组,配合数据分级使用,从类型1到类型n为递增的设置,例:类型1设置为10,则表示value值为0~10的数据将展示为10的大小,类型2设置为20,则表示value值为11~20的数据将展示为20的大小,如果数据分级配置项设置为3级,...
数据归档 数据归档功能定时将大表的数据归档至其他数据库,支持源表数据删除、表空间整理回收等功能。数据库迁移 通过创建工单实现数据库迁移、校验和清理的闭环操作。运维管理 通知管理 可根据您的业务需求,订阅不同功能模块的消息事件,...
数据集成 MaxCompute可以通过数据集成功能加载不同数据源(例如MySQL数据库)的数据,也可以通过数据集成把MaxCompute的数据导出到各种业务数据库。数据集成功能已集成在DataWorks上,您可以直接在DataWorks上配置MaxCompute数据源并读写...
云数据库 SelectDB 版 支持多样化的数据导入方式,涵盖原生接口与生态工具,满足从实时流数据到离线批处理的多场景需求。本文为您介绍数据导入到 SelectDB 的核心接口与工具。导入选型建议 阿里云生态源数据:DTS、DataWorks 非阿里云生态...
数据地图概述 安全中心 数据保护伞 审批中心 安全中心是集数据资产分级分类、敏感数据识别、数据授权管理、敏感数据脱敏、敏感数据访问审计、风险识别与响应于一体的一站式数据安全治理界面,帮助用户落地数据安全治理事项。安全中心概述 ...
一、数据集成 DataWorks的数据集成模块为您提供读取和写入数据至EMR Hive的能力,您需要将Hive组件创建为 DataWorks的 Hive数据源,实现将其他数据源的数据同步至Hive数据源,或将Hive数据源的数据同步至其他数据源。同时,可根据需要选择...
步骤四:配置案例 在 DataWorks控制台 左侧导航栏选择 大数据体验 ETL工作流模板,单击 Github十大热门编程语言 模板,单击 载入模板,配置模板参数。参数 说明 模板名称 显示当前模板名称,即“Github十大热门编程语言”。工作空间 选择 ...
通过创建Presto数据源能够实现在Dataphin中使用Presto数据源进行离线研发。本文为您介绍如何创建Presto数据源。背景信息 Presto是一个高性能、分布式SQL查询引擎。它可以对数据进行快速查询和分析,支持各种数据源,如HDFS、MySQL、...
本文汇总了 PolarDB 冷数据归档相关的常见问题。出现"[Data Lifecycle Management]DLM storage engine is not support.The value of polar_dlm_storage_mode is OFF."报错,如何处理?您需要在 PolarDB控制台 上开启冷数据归档功能。详情请...
通过新建TDengine数据源能够实现Dataphin读取TDengine的业务数据或向TDengine写入数据。本文为您介绍如何创建TDengine数据源。权限说明 仅支持具备 新建数据源权限点 的自定义全局角色和 超级管理员、数据源管理员、板块架构师、项目管理员...
数据地图概述 安全中心 数据保护伞 审批中心 安全中心是集数据资产分级分类、敏感数据识别、数据授权管理、敏感数据脱敏、敏感数据访问审计、风险识别与响应于一体的一站式数据安全治理界面,帮助用户落地数据安全治理事项。安全中心概述 ...
通过创建Presto数据源能够实现在Dataphin中使用Presto数据源进行离线研发。本文为您介绍如何创建Presto数据源。背景信息 Presto是一个高性能、分布式SQL查询引擎。它可以对数据进行快速查询和分析,支持各种数据源,如HDFS、MySQL、...
通过新建TDengine数据源能够实现Dataphin读取TDengine的业务数据或向TDengine写入数据。本文为您介绍如何创建TDengine数据源。权限说明 仅支持具备 新建数据源权限点 的自定义全局角色和 超级管理员、数据源管理员、板块架构师、项目管理员...
通过创建Teradata数据源能够实现Dataphin读取Teradata的业务数据或向Teradata写入数据。本文为您介绍如何创建Teradata数据源。背景信息 Teradata是一款大型数据仓库系统。如果您使用的是Teradata,在对接Dataphin进行数据开发或导出...
通过创建Lindorm(计算引擎)数据源能够实现Dataphin读取Lindorm(计算引擎)的业务数据或向Lindorm(计算引擎)写入数据。本文为您介绍如何创建Lindorm(计算引擎)数据源。背景信息 Lindorm(计算引擎)是阿里云推出的自研数据库,提供宽...
云原生数据仓库 AnalyticDB MySQL 版 提供的多种数据导入方法,满足不同场景下的数据导入需求。然而数据导入性能依然受各种各样的因素影响,如表的建模不合理导致长尾、导入配置低无法有效利用资源等。本文介绍不同场景下的数据导入调优...
云原生数据仓库 AnalyticDB MySQL 版 提供的多种数据导入方法,满足不同场景下的数据导入需求。然而数据导入性能依然受各种各样的因素影响,如表的建模不合理导致长尾、导入配置低无法有效利用资源等。本文介绍不同场景下的数据导入调优...
数据管理DMS的测试数据构建功能拥有强大的算法引擎,支持批量生成各类随机值、地区名、虚拟IP地址等信息,可以大大减轻准备测试数据的负担。本文介绍构建测试数据的方法。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、...
若您的任务配置为增量同步,且需要同步历史数据至目标表对应分区中,您可以使用补数据功能,调度参数将根据补数据配置的业务日期自动替换为具体的值,关于补数据功能使用,请参见 执行补数据并查看补数据实例(新版)。任务状态监控 您可以...
在使用Dataphin前,您可将需要引入Dataphin的数据源接入到Dataphin中,已接入的数据源可用于读取原始数据和写入到已接入的数据源中。Dataphin具备丰富的数据源类型接入,支持对接如MaxCompute、Hive等数据仓库,也支持对接企业传统数据库,...
在使用Dataphin前,您可将需要引入Dataphin的数据源接入到Dataphin中,已接入的数据源可用于读取原始数据和写入到已接入的数据源中。Dataphin具备丰富的数据源类型接入,支持对接如MaxCompute、Hive等数据仓库,也支持对接企业传统数据库,...
数据源配置 基于业务数据源是否区分生产数据源和开发数据源:如果业务数据源区分生产数据源和开发数据源,则选择 生产+开发数据源。如果业务数据源不区分生产数据源和开发数据源,则选择 生产数据源。标签 您可以根据标签给数据源进行分类...
通过创建Teradata数据源能够实现Dataphin读取Teradata的业务数据或向Teradata写入数据。本文为您介绍如何创建Teradata数据源。背景信息 Teradata是一款大型数据仓库系统。如果您使用的是Teradata,在对接Dataphin进行数据开发或导出...
新建Hologres数据源用于实现Dataphin能够读取Hologres的业务数据,及能够向Hologres写入数据。在引入Hologres的业务数据至Dataphin和将Dataphin的数据写入至Hologres的场景中,您需要先创建Hologres数据源。本文为您介绍如何新建Hologres...
通过创建Lindorm(计算引擎)数据源能够实现Dataphin读取Lindorm(计算引擎)的业务数据或向Lindorm(计算引擎)写入数据。本文为您介绍如何创建Lindorm(计算引擎)数据源。背景信息 Lindorm(计算引擎)是阿里云推出的自研数据库,提供宽...
通过创建TDH Inceptor数据源能够实现Dataphin读取TDH Inceptor的业务数据或向TDH Inceptor写入数据。本文为您介绍如何创建TDH Inceptor数据源。使用限制 仅支持具备 新建数据源权限点 的自定义全局角色和 超级管理员、数据源管理员、板块...
数据资产治理(原数据治理中心)可根据预先配置的治理计划,自动发现平台使用过程中数据存储、任务计算、代码开发、数据质量及安全等维度存在的问题,并通过健康分量化评估,从全局、工作空间、个人等多个视角,以治理报告及排行榜呈现治理...