贵州发展大数据的八个一建议

_相关内容

数据库分组

若您需要在SQL变更或结构设计中快速载入多个数据库,可以创建一个数据库分组,将多个数据库环境、引擎类型相同的数据库绑定成为一个分组。本文介绍如何创建数据库分组。背景信息 当您的业务部署在多地域,且存在多个数据库时,您每次做...

配置Oracle输入组件

同步Oracle数据源的数据至其他数据源的场景中,您需要先配置Oracle输入组件读取的源数据源信息,再配置数据同步的目标数据源。本文为您介绍如何配置Oracle输入组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建Oracle数据...

上传数据

添加完成数据文件后,在跳转后的添加数据对话框,选择数据的分组、输入数据集的名称、选择数据的类型和数据的服务地址,单击对话框右下角的 创建数据集 即可完成三维瓦片数据的添加。说明 当数据量较时解析时间会比较长,您可以先关闭弹...

上传数据

添加完成数据文件后,在跳转后的添加数据对话框,选择数据的分组、输入数据集的名称、选择数据的类型和数据的服务地址,单击对话框右下角的 创建数据集 即可完成三维瓦片数据的添加。说明 当数据量较时解析时间会比较长,您可以先关闭弹...

升级数据库版本

本文介绍云数据库MongoDB支持升级的数据版本以及如何升级数据版本。注意事项 升级分片集群实例的数据版本时,实例的协议类型需为 MongoDB协议。升级采用轮转升级的方式进行,升级过程中会自动对实例进行2~3次重启,请在业务低...

批量或异步插入数据

因为创建的数据分区会在后台合并成更大的分区(以优化读取查询的数据),每秒发送太多的插入查询可能会导致后台合并无法跟上新分区的数量。然而,当您使用异步插入数据时,可以使用更高速的插入查询速率。异步插入数据的详细信息,请参见 ...

数据源权限管理

本文为您汇总数据源权限管理相关的问题。哪些角色可以管理数据源的权限?是否支持再次分享已被分享的数据源?数据源的创建者是否有权控制该数据源?什么是私有模式的数据源?哪些用户能够收回数据源的分享权限?如何检查数据源分享关系的...

Trino概述

支持丰富的数据源:Hive Cassandra Kafka MongoDB MySQL PostgreSQL SQL Server Redis Redshift 本地文件 支持高级数据结构,具体如下:数组和Map数据 JSON数据 GIS数据 颜色数据 功能扩展能力强,提供了多种扩展机制:扩展数据连接器 ...

添加数据

DataV数据集支持多种数据源的接入,如数据库、excel表格文件等,通过对数据的结构化存储和元数据的汇集整理,提供高效实用的数据建模能力,可用的算子包括常见的数据聚合函数、按不同时间粒度划分、地理信息处理等。本文为您介绍如何在...

创建数据

数据管理DMS离线集成中,可以组合各类任务节点,形成数据流,通过周期调度运行达到数据加工、数据同步的目的。本文介绍创建数据流和配置的方法。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、PolarDB...

新建 TiDB 数据

新建数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 TiDB 数据源。前提条件 已获取相关数据库的 IP 地址和端口号。已存在用于数据迁移的数据库用户。建议您为数据迁移项目创建一个专属的数据库用户,该用户...

Tunnel命令常见问题

上传数据时,每Session的生命周期是天,因源表数据,导致Session超时任务失败,如何解决?上传Session太多导致上传速度慢,如何解决?导入数据的最后列为什么会多出\r符号?使用Tunnel Upload命令上传数据时,默认用逗号进行列...

Tunnel SDK常见问题

上传数据时,Writer每写入8 KB数据会触发一次网络动作,如果120秒内没有网络动作,服务端将主动关闭连接,届时Writer将不可用,请重新打开一个新的Writer写入。建议您使用 TunnelBufferedWriter。下载数据时,Reader也有类似机制,若长时间...

快速体验

DataWorks为您提供智能建模、数据清洗、周期调度运维、数据治理等站式大数据开发管理能力,本文以一个零售电商行业的数仓搭建实验为例,为您介绍DataWorks在数仓搭建过程中的技术选型、技术流程以及流程实现,帮助您深入了解阿里云...

概述

PolarDB for AI 功能通过系列MLOps和内置的模型解决了数据、特征和模型的割裂状态,实现了基于数据库的数据智能的站式服务。本文介绍了 PolarDB for AI 功能的相关特性。背景信息 随着数据的累积,数据驱动的智能应用(例如:搜索、...

基本概念

栅格数据(Raster Data)是将地理空间分割成有规律的网格,每一个网格称为一个单元(像元或像素),并在各单元上赋予相应的属性值来表示实体的数据形式。栅格数据通常有两种类型的栅格数据:专题数据和影像数据。专题数据:每栅格像...

数仓规划概述

使用DataWorks进行数据建模时,数仓架构师或者模型小组成员可以在数仓规划页面对数据分层、业务分类、数据域、业务过程、数据集市、主题域进行设计。完成设计后,模型设计师在建模过程中可以依赖数仓规划中的数据分层、业务分类、数据域、...

Cassandra数据建模

本文介绍Cassandra数据建模的概念、建模建议。Cassandra是款分布式、去中心化、高可用的列存储(Wide Column Store)的No SQL数据库。分布式层面主要依靠一致性Hash算法把数据分布在整个集群中,单机主要实现了基于LSM-Tree的引擎。集群...

数据导入概览

从阿里云对象存储OSS导入数据至图数据库GDB实例 图数据库GDB服务端集成有数据导入模块,可以获取您提供的.csv格式的OSS数据文件,并将其解析为图中的点数据和边数据,然后将点数据和边数据导入至图数据库GDB实例。步骤 步骤说明 ① 将需要...

数据资产等级定义

本文为您介绍数据资产等级的定义,以及如何定义生产链路上的相关数据的资产等级。数据资产等级定义 根据数据质量不满足完整性、准确性、一致性、及时性时,对业务的影响程度划分数据的资产等级。通常,划分为5性质的等级:毁灭性质:数据...

TableTunnel

TableTunnel是访问MaxCompute Tunnel服务的入口类,仅支持表数据(非视图)的上传和下载。TableTunnel接口定义及说明 TableTunnel接口定义如下,详情请参见 Java-sdk-doc。public class TableTunnel { public DownloadSession ...

配置安全规则

数据库添加到数据库审计系统后,您可以为数据库配置安全规则(即审计规则),当数据库的审计记录命中审计规则时,数据库审计系统会触发告警。本文介绍如何配置审计规则。背景信息 审计规则支持内置规则和自定义规则。内置规则即数据库...

数据存储

本文介绍 云数据库 SelectDB 版 在数据存储方面的关键设计和特性,帮助客户充分发挥SelectDB的潜力。表 在云数据库SelectDB中,表(Table)是存储结构化数据种特殊形式。一张表由行(Row)和列(Column)组成,其中行表示数据,列...

如何对JSON类型进行高效分析

PolarDB 列存索引(In Memory Column Index,IMCI)功能推出了完备的虚拟列与列式JSON功能等,可以快速处理大数据和多种数据类型(包括结构化数据与半结构化数据等),并提供高效的数据分析、查询与流计算能力,适用于数据分析、数据仓库与...

Quick BI连接MaxCompute

背景信息 智能分析套件Quick BI是一个专为云上用户量身打造的易上手、性能强的大数据分析及可视化平台,可以让每人都能成为数据分析师。Quick BI不仅是业务人员查看数据的工具,更是数据化运营的助推器。更多Quick BI信息,请参见 Quick ...

同步方案概览

数据同步功能帮助您实现数据源之间的数据实时同步,适用于数据异地多活、数据异地灾备、本地数据灾备、跨境数据同步、云BI及实时数据仓库等多种业务场景。本文将介绍数据同步功能支持的数据库、同步类型和同步拓扑。说明 数据同步在某些...

从Amazon RDS for PostgreSQL全量迁移至阿里云

注意事项 DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,...

从Amazon RDS for PostgreSQL增量迁移至阿里云

注意事项 DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,...

从Amazon RDS for PostgreSQL全量迁移至阿里云

注意事项 DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,...

从Amazon RDS for PostgreSQL增量迁移至阿里云

注意事项 DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,...

外部数据

不管使用什么外部数据包装器,本数据库会要求外部数据包装器从外部数据源获取数据,或者在更新命令的情况下传送数据到外部数据源。访问远程数据可能需要在外部数据源的授权。这些信息通过一个用户映射提供,它基于当前的本数据库角色提供了...

MapReduce

Map Worker在输出数据时,需要为每条输出数据指定一个Key,这Key值决定了这条数据将会被发送给哪一个Reduce Worker。Key值和Reduce Worker是多对的关系,具有相同Key的数据会被发送给同一个Reduce Worker,单个Reduce Worker有可能会...

使用MaxCompute控制台(离线)

MaxCompute控制台提供数据上传功能,支持您将本地文件或阿里云对象存储服务OSS中的文件数据离线(非实时)上传至MaxCompute进行分析处理及相关管理操作。使用限制 仅支持基于 本地文件 或 阿里云对象存储OSS 上传数据,具体如下。本地文件...

外部表概述

但这两种方法都有不足之处:第种方法需要在MaxCompute系统外部做一次中转,如果OSS数据量太,还需要考虑如何并发来加速,无法充分利用MaxCompute的规模计算能力。第二种方法通常需要申请UDF网络访问权限,还需要开发者自己控制作业...

数据库管理

Database都有若干时序数据表,结合 名词解释 的描述,我们可以对时序引擎的数据层级归纳为下图所示:如果一个Lindorm时序引擎实例计划包含不相关的项目数据,在很程度上,彼此之间是隔离的。那么在这种情况下,建议将它们放到单独的...

简单上传示例

强烈建议每次写入64 MB以上的数据(同Block支持写入100 GB以内的数据)。如果创建一个Session后仅上传少量数据,不仅会造成小文件、空目录等问题,还会严重影响上传性能(创建Session耗时数秒,而真正数据上传可能仅花费十几毫秒)。...

常见问题

1.售前咨询渠道 尊敬的“准”大数据专家服务用户您好:如果您准备购买阿里云大数据专家服务,但是遇到如服务范围、规格、服务选择等售前方面的问题,您可以通过钉钉与我们联系,您将“当面”获得阿里云大数据专家咨询专家的建议。...

受众与核心能力

产品定位 DataWorks致力于为数据开发者、数据分析师、数据资产管理者,打造一个具备开放自主开发与全栈数据研发能力的站式、标准化、可视化、透明化的智能大数据全生命周期云研发平台。DataWorks赋予用户仅通过单一平台,即可实现数据...

CREATE DATABASE

带有行“不能初始化数据库目录”的错误部分与在数据目录上权限不足、磁盘满或其他文件系统问题有关。使用 DROP DATABASE 移除一个数据库。程序 createdb 是这命令的一个包装器程序,为了使用方便而提供。数据库层面的配置参数(参见 ...

数据传输规格说明

表对象:表示数据迁移或数据同步项目建议迁移或同步的最大表数量,以每张表对象最多 50 字段数量计算。规格说明 OceanBase 数据传输服务根据迁移或同步的性能上限,定义了五种规格:MICRO、SMALL、MEDIUM、LARGE 和 XLARGE。当满足以下...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用