在MaxCompute的使用过程中,如果已经积累了大量数据占用了大量存储资源,且已经通过削减数据存储生命周期和删除非必要数据等方式进行了治理,在您的存储预算有限,计算资源还有冗余的情况下,可以考虑使用数据重排方式对存储空间进行优化。...
默认包含一定量的日志存储空间,每个数据库实例授权包含200GB,每1TB OSS授权包含50GB。是否支持额外付费购买更多 日志存储量 不支持 不支持 支持 支持 支持 支持 系统设置 功能 免费版 7天免费试用版 高级版 企业版 数据库审计(等级保护...
您可以借助Iceberg快速地在HDFS或者阿里云OSS上构建自己的数据湖存储服务,并借助开源大数据生态的Spark、Flink、Hive和Presto等计算引擎来实现数据湖的分析。核心能力 Apache Iceberg设计初衷是为了解决Hive数仓上云的问题,经过多年迭代...
调用本接口查询已完成扫描授权的MaxCompute数据包的信息,例如数据包的名称、数据包所属者的账号、数据包的风险等级等。接口说明 本接口一般用于 MaxCompute 数据包列表查询,便于搜索和敏感信息概览。QPS 限制 本接口的单用户 QPS 限制为 ...
统计数据包含当前数据表创建的监控规则的最近30天执行完成的校验记录,将根据规则计分方式和校验结果进行统计。您可以指定日期查看规则校验明细,或快捷筛选 异常结果,或根据校验状态进行筛选,或通过对象、规则的名称关键字进行搜索。
字段信息:为您展示字段的序号、名称、数据类型、描述/备注、业务类型/关联实体(维度逻辑表和事实逻辑表仅展示关联实体)、关联标准(需购买数据标准模块)、样例数据(仅开启 数据采样 功能时展示)、质量分(需购买数据质量模块且资产...
Lindorm宽表经常会被应用在大数据链路中,如果写入链路出现问题,则可能导致写入延迟或无法正常写入数据,此时进行数据查询,该行数据还未写入,因此会产生无法查询到数据的情况。如果您在使用中遇到数据写入一段时间后才能查到的情况,...
本教程提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据,并且只支持在数据集成模块读取数据。在 私有OSS环境准备 步骤中创建的OSS对象存储的 Bucket 将用于接收MySQL数据源的用户信息数据与...
本教程提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据,并且只支持在数据集成模块读取数据。在 私有OSS环境准备 步骤中创建的OSS对象存储的 Bucket 将用于接收MySQL数据源的用户信息数据与...
此处的有效数据不包括由于类型转换错误等数据质量问题而被过滤的数据,数据质量问题可以参见 数据导入常见问题。MySQL和HTTP协议 StarRocks提供MySQL协议和HTTP协议两种访问协议接口来提交作业。Broker Load Broker导入,即通过部署的...
购买 数据安全中心DSC(Data Security Center)实例后,在使用DSC检测云产品(包括RDS、PolarDB等)中存在的敏感数据或审计数据库活动前,您需要先完成资产实例授权。本文适用的数据库范围 DSC仅支持为阿里云上的数据库资产提供数据安全...
数据地图概述 安全中心 数据保护伞 审批中心 安全中心是集数据资产分级分类、敏感数据识别、数据授权管理、敏感数据脱敏、敏感数据访问审计、风险识别与响应于一体的一站式数据安全治理界面,帮助用户落地数据安全治理事项。安全中心概述 ...
其他数据类型的操作可参考下述文档:自建数据库 云原生MongoDB数据库 非结构化数据OSS 非结构化数据SLS 大数据 前提条件 已开通数据安全中心免费版实例或已购买数据安全中心付费版实例。具体操作,请参见 数据安全中心免费版服务 或 购买...
支持的数据源 SQL查询支持的数据源包含 MaxCompute、Hologres、EMR、CDH、StarRocks、ClickHouse、SelectDB、Doris、AnalyticDB for MySQL3.0、AnalyticDB for PostgreSQL、Tablestore、MySQL、PostgreSQL、Oracle、SQL Server。...
数据地图概述 安全中心 数据保护伞 审批中心 安全中心是集数据资产分级分类、敏感数据识别、数据授权管理、敏感数据脱敏、敏感数据访问审计、风险识别与响应于一体的一站式数据安全治理界面,帮助用户落地数据安全治理事项。安全中心概述 ...
背景信息 ODC 支持在源数据库中的数据归档到目标数据库后,删除源数据库中的数据,以提高数据库查询性能,降低在线存储成本。本文档以新建数据清理为例,介绍如何在 ODC 中清理数据库 test2 中的表 employee。说明 文中所使用的均为示例...
元数据管理功能主要展示当前实例的所有数据库、数据表、分区及各种任务等信息,同时支持创建数据库和数据表,并定义其列及相关属性。前提条件 已创建StarRocks实例,详情请参见 创建实例。使用限制 普通用户无法查看数据库大小、缓存数据...
在 云数据库 Tair(兼容 Redis)集群架构实例中,若个别数据分片节点(Data Node)的内存使用率、CPU使用率或带宽使用率等性能指标远远高于其他数据分片,该集群可能已产生数据倾斜。数据倾斜严重时,会导致实例在整体内存使用率不高的情况...
DataWorks数据服务模块是一个灵活轻量、安全稳定的数据API构建平台,作为数据库和数据应用之间的“桥梁”,DataWorks数据服务旨在为个人、团队和企业提供全面的数据服务和共享能力,帮助用户统一管理面向内外部的API服务。例如,您可以将...
DataWorks数据服务模块是一个灵活轻量、安全稳定的数据API构建平台,作为数据库和数据应用之间的“桥梁”,DataWorks数据服务旨在为个人、团队和企业提供全面的数据服务和共享能力,帮助用户统一管理面向内外部的API服务。例如,您可以将...
DTS_BINLOG_PARSER解析结果是一个STRUCT类型,包含字段如下:struct:recordID long,-binlog的record ID|source string,-数据源信息,包括数据库类型,版本等等|dbTable string,-数据表名|recordType string,-操作类型,包括INSERT,DELETE...
数据中心 数据中心是DataV-Atlas的主入口,包含内置数据、上传数据、数据源管理、查看数据表和地图、新建项目等功能。序号 区域名称 说明 1 菜单栏 菜单栏主要包括数据中心、我的项目、账户管理、答疑解惑、产品文档等。2 Atlas演示数据库 ...
value2":0.54 },{"row1":"四川省","row2":"成都市","column1":"办公用品","column2":"笔","value1":2335,"value2":0.10 }]数据项配置 说明 数据源 组件的数据源中通过 代码编辑 或 可视化编辑 展示了组件所包含的数据字段。也可以修改 ...
数据开发包括编码研发和规范建模。编码研发用于构建计算任务,例如创建SQL代码任务、Shell任务、Python任务、MR任务和Spark任务;规范建模用于构建逻辑化的数据模型。前提条件 若需进行实时开发,需已购买实时研发增值服务。详情请参见 ...
数据开发包括编码研发和规范建模。编码研发用于构建计算任务,例如创建SQL代码任务、Shell任务、Python任务、MR任务和Spark任务;规范建模用于构建逻辑化的数据模型。前提条件 若需进行实时开发,需已购买实时研发增值服务并且当前租户已...
原始数据集:是用于进行查询分析的原始数据,包括 数据库 和 文件数据集。数据库:其数据来源于数据库或数据仓库(例如,AnalyticDB MySQL、Hologres、MaxCompute)。使用前,需先在DataV-Note中 创建相应数据源。文件数据集:其数据来源于...
本文档旨在介绍如何通过提交数据归档工单实现归档数据。背景信息 ODC 支持定时将源数据库中的表数据归档至其它目标数据库中,以解决因线上数据增多影响查询性能与业务运作的问题。本文档以新建数据归档为例,介绍如何在 ODC 中将同一项目的...
了解DataWorks on EMR Serverless StarRocks DataWorks作为阿里云一站式大数据开发治理平台,通过数据源对接EMR Serverless StarRocks,可实现EMR Serverless StarRocks的数据集成、作业周期性调度,同时结合StarRocks引擎在数据分析和数据...
计算 MaxCompute向用户提供了多种经典的分布式计算模型,提供TB、PB、EB级数据计算能力,能够更快速的解决用户海量数据计算问题,有效降低企业成本。功能集 功能 功能描述 参考文档 SQL开发 DDL语句 DDL语句 DDL DML操作 DML操作 DML操作 ...
本文档介绍配置资产数据的方法,以及资产数据面板的内容,包括数据接口、数据源、数据过滤器和数据轮询频次等。操作步骤 登录 DataV控制台。在 我的可视化 页面,单击您创建的可视化应用项目上方的 编辑 按钮。在画布编辑器页面,单击 图层...
图表样式 散点层是3D地球的子组件,支持独立的样式和数据配置,包括散点的大小、颜色和类型以及经纬度等,能够以散点的形式表现地理位置上的点数据信息。配置面板 搜索配置:单击 配置 面板右上角的 搜索配置,可在 搜索配置 面板中输入您...
离线数据集 页面分别展示离线数据集列表,列表中包含 数据集名称、加工方式、更新方式、负责人、数据集状态、运行状态、下游标签、最近修改时间 等信息。运行状态:当运行状态为 任务出错 时,可单击运行状态列的 查看图标,查看具体原因。...
本产品(大数据开发治理平台 DataWorks/2020-05-18)的OpenAPI采用 RPC 签名风格,签名细节参见 签名机制说明。我们已经为开发者封装了常见编程语言的SDK,开发者可通过 下载SDK 直接调用本产品OpenAPI而无需关心技术细节。如果现有SDK不能...
离线数据集、实时数据集 页面分别展示离线数据集列表 和实时数据集列表,列表中包含 数据集名称、加工方式、更新方式、负责人、数据集状态、运行状态、下游标签、最近修改时间 等信息。运行状态:当运行状态为 任务出错 时,可单击运行状态...
取值:1:未识别到敏感数据,无风险 2:1 级敏感数据风险 3:2 级敏感数据风险 4:3 级敏感数据风险 5:4 级敏感数据风险 6:5 级敏感数据风险 7:6 级敏感数据风险 8:7 级敏感数据风险 9:8 级敏感数据风险 10:9 级敏感数据风险 11:10 ...
通过创建FTP数据源能够实现Dataphin读取FTP的业务数据或向FTP写入数据。本文为您介绍如何创建FTP数据源。背景信息 文件传输协议FTP(File Transfer Protocol)是TCP/IP协议组中的一个协议。在开发网站的时候,您可以使用FTP客户端将网站...
背景信息 DataWorks的脱敏场景分为静态脱敏和动态脱敏:动态脱敏:包括 数据开发/数据地图展示脱敏、数据分析展示脱敏、MaxCompute引擎层脱敏、Hologres引擎层脱敏 等场景。静态脱敏:指数据集成静态脱敏场景。脱敏规则创建后默认不生效。...
选择 默认资源组,该资源组用于运行与当前数据源相关任务,包括数据库SQL、离线整库迁移、数据预览等。进行 测试连接 或直接单击 确定 进行保存,完成Redis数据源的创建。单击 测试连接,系统将测试数据源是否可以和Dataphin进行正常的连通...
通过创建FTP数据源能够实现Dataphin读取FTP的业务数据或向FTP写入数据。本文为您介绍如何创建FTP数据源。背景信息 文件传输协议FTP(File Transfer Protocol)是TCP/IP协议组中的一个协议。在开发网站的时候,您可以使用FTP客户端将网站...
设计工作包含数据探查和系分设计两部分:数据探查旨在了解来源数据的数据形态,例如数据质量、数据分布等。结合业务场景,帮助分析和判断需求实现的可行性以及找出潜在的数据问题和风险。系分设计则包括表设计、Mapping设计和调度设计等最...