大数据用什么技术

_相关内容

数据服务

DataWorks数据服务模块是一个灵活轻量、安全稳定的数据API构建平台,作为数据库和数据应用之间的“桥梁”,DataWorks数据服务旨在为个人、团队和企业提供全面的数据服务和共享能力,帮助用户统一管理面向内外部的API服务。例如,您可以将...

SQL查询(旧版)

如果需要快速地对数据进行查询与分析,您可以使用SQL语句查询MaxCompute、EMR Hive、Hologres等数据源。本文为您介绍如何通过SQL语句查询数据源。重要 DataWorks推荐您体验 新版数据分析,以获得最新功能和更好体验。支持的数据源 SQL查询...

数据服务概述

DataWorks数据服务模块是一个灵活轻量、安全稳定的数据API构建平台,作为数据库和数据应用之间的“桥梁”,DataWorks数据服务旨在为个人、团队和企业提供全面的数据服务和共享能力,帮助用户统一管理面向内外部的API服务。例如,您可以将...

DataWorks On Hologres使用说明

数据地图概述 安全中心 数据保护伞 审批中心 安全中心是集数据资产分级分类、敏感数据识别、数据授权管理、敏感数据脱敏、敏感数据访问审计、风险识别与响应于一体的一站式数据安全治理界面,帮助用户落地数据安全治理事项。安全中心概述 ...

创建Teradata数据

通过创建Teradata数据源能够实现Dataphin读取Teradata的业务数据或向Teradata写入数据。本文为您介绍如何创建Teradata数据源。背景信息 Teradata是一款大型数据仓库系统。如果您使用的是Teradata,在对接Dataphin进行数据开发或导出...

配置数据库的列加密

数据安全中心 DSC(Data Security Center)支持对RDS MySQL、RDS PostgreSQL、PolarDB MySQL、PolarDB PostgreSQL、PolarDB PostgreSQL(兼容Oracle)、PolarDB-X 2.0等数据库类型的数据列进行加密配置,确保数据库中敏感列数据加密后存储...

数据源管理

使用Dataphin前,您可将需要引入Dataphin的数据源接入到Dataphin中,已接入的数据源可用于读取原始数据和写入到已接入的数据源中。Dataphin具备丰富的数据源类型接入,支持对接如MaxCompute、Hive等数据仓库,也支持对接企业传统数据库,...

数据源管理

使用Dataphin前,您可将需要引入Dataphin的数据源接入到Dataphin中,已接入的数据源可用于读取原始数据和写入到已接入的数据源中。Dataphin具备丰富的数据源类型接入,支持对接如MaxCompute、Hive等数据仓库,也支持对接企业传统数据库,...

Dataphin支持的数据

背景信息 Dataphin支持对接的数据源包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型说明如下:如果您需要在Dataphin中连接某数据源,则需要先在数据源管理中创建该数据源。...

数据灾备(原DBS)

数据量:介绍在数据库备份场景下的四个概念:数据库磁盘空间、数据文件空间、备份数据量、存储数据量。内置存储与用户OSS:从安全性、可靠性、成本、易用性、增值服务等方面介绍 数据灾备 内置存储和用户OSS的情况。产品计费 备份费用:...

创建Teradata数据

通过创建Teradata数据源能够实现Dataphin读取Teradata的业务数据或向Teradata写入数据。本文为您介绍如何创建Teradata数据源。背景信息 Teradata是一款大型数据仓库系统。如果您使用的是Teradata,在对接Dataphin进行数据开发或导出...

Dataphin支持的数据

背景信息 Dataphin支持对接的数据源包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型说明如下:如果您需要在Dataphin中连接某数据源,则需要先在数据源管理中创建该数据源。...

配置跨库Spark SQL节点

任务编排中的跨库Spark SQL节点,主要针对各类跨库数据同步和数据加工场景,您可以通过编写Spark SQL,完成各种复杂的数据同步或数据加工的任务开发。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、...

数据导入

如果单表的数据量特别,或者需要做为全局数据字典来精确去重可以考虑使用 Spark Load。实时数据导入:日志数据和业务数据库的Binlog同步到Kafka后,优先推荐通过 Routine Load 导入StarRocks。如果导入过程中有复杂的多表关联和ETL预处理...

DLF Catalog数据管理

查看移除 DLF Catalog数据目录 如需后续无需使用DLF Catalog数据目录,可查看移除对应DLF Catalog数据目录。查看数据目录。将实例添加到DLF Catalog数据目录后,您可单击DLF Catalog数据目录左侧的 图标,查看已添加的DLF Catalog。将鼠标...

轨迹层

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

使用数据

在节点(Shell节点、Python节点、Notebook节点)中使用数据集,以便在数据开发过程中读写NAS或OSS存储中的数据。也可以在创建个人开发环境时,将数据集作为个人开发环境实例的存储。重要 建议优先阅读 管理数据集,了解如何创建数据集。...

MapReduce

MapReduce处理数据的完整流程如下:输入数据:在正式执行Map前,需要对输入数据进行分片(即将输入数据切分为大小相等的数据块),将每片内的数据作为单个Map Worker的输入,以便多个Map Worker同时工作。Map阶段:每个Map Worker读取数据...

离线同步任务运维

若您的任务配置为增量同步,且需要同步历史数据至目标表对应分区中,您可以使用数据功能,调度参数将根据补数据配置的业务日期自动替换为具体的值,关于补数据功能使用,请参见 执行补数据并查看补数据实例(新版)。任务状态监控 您可以...

通用配置:添加白名单

云原生大数据计算服务MaxCompute设置白名单 RDS MySQL数据库设置白名单 云原生数据仓库AnalyticDB MySQL版设置白名单 云原生数据仓库AnalyticDB PostgreSQL版设置白名单 云数据库OceanBase 版设置白名单 云数据库ClickHouse设置白名单 云...

散点层

重要 该配置项为一个数组,配合数据分级使用,从类型1到类型n为递增的设置,例:类型1设置为10,则表示value值为0~10的数据将展示为10的大小,类型2设置为20,则表示value值为11~20的数据将展示为20的大小,如果数据分级配置项设置为3级,...

云原生通用数据库

其他数据类型的操作可参考下述文档:自建数据库 云原生MongoDB数据库 非结构化数据OSS 非结构化数据SLS 大数据 前提条件 已开通数据安全中心免费版实例或已购买数据安全中心付费版实例。具体操作,请参见 数据安全中心免费版服务 或 购买...

散点层

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

同步数据

本教程提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据,并且只支持在数据集成模块读取数据。进入数据开发 登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据...

同步数据

本教程提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据,并且只支持在数据集成模块读取数据。进入数据开发 登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据...

管理元数据

元数据管理功能主要展示当前实例的所有数据库、数据表、分区及各种任务等信息,同时支持创建数据库和数据表,并定义其列及相关属性。前提条件 已创建StarRocks实例,详情请参见 创建实例。使用限制 普通用户无法查看数据库大小、缓存数据...

数据导入性能优化

云原生数据仓库 AnalyticDB MySQL 版 提供的多种数据导入方法,满足不同场景下的数据导入需求。然而数据导入性能依然受各种各样的因素影响,如表的建模不合理导致长尾、导入配置低无法有效利用资源等。本文介绍不同场景下的数据导入调优...

数据导入性能优化

云原生数据仓库 AnalyticDB MySQL 版 提供的多种数据导入方法,满足不同场景下的数据导入需求。然而数据导入性能依然受各种各样的因素影响,如表的建模不合理导致长尾、导入配置低无法有效利用资源等。本文介绍不同场景下的数据导入调优...

数据清理

背景信息 ODC 支持在源数据库中的数据归档到目标数据库后,删除源数据库中的数据,以提高数据库查询性能,降低在线存储成本。本文档以新建数据清理为例,介绍如何在 ODC 中清理数据库 test2 中的表 employee。说明 文中所使用的均为示例...

数据推送节点

数据推送节点可将Data Studio业务流程中其他节点产生的数据查询结果,通过新建数据推送目标,将数据推送至钉钉群、飞书群、企业微信群、Teams以及邮件,便于团队成员及时接收和关注最新数据情况。原理介绍 数据推送节点,可以通过 节点上...

数据推送节点

数据推送节点可将Data Studio业务流程中其他节点产生的数据查询结果,通过新建数据推送目标,将数据推送至钉钉群、飞书群、企业微信群、Teams以及邮件,便于团队成员及时接收和关注最新数据情况。背景信息 数据推送节点可以通过 节点上下文...

数据服务入门

步骤一:创建数据源并配置网络连通性 使用数据服务创建API前,您需将数据库或数据仓库添加为DataWorks的数据源,并保障数据服务资源组与您的目标数据源网络连通,以便调用API时DataWorks可成功访问数据源。本文示例新建名为 rds_workshop_...

外部数据

不管使用什么外部数据包装器,本数据库会要求外部数据包装器从外部数据源获取数据,或者在更新命令的情况下传送数据到外部数据源。访问远程数据可能需要在外部数据源的授权。这些信息通过一个用户映射提供,它基于当前的本数据库角色提供了...

Append Delta Table数据组织优化

Append Delta Table在复杂业务场景上表现优秀,显著的效能提升也反映出数据存储格式的技术优化在大数据分析场景下的核心价值。其技术价值及性能优化总结如下:数据自治:通过Merge、Compaction、Reclustering等后台任务,实现存储效率与...

数据源管理

开发环境数据源和生产环境数据源有什么用?您可以为开发环境和生产环境分别配置独立的数据源。开发环境数据源仅用于节点的开发与调试,而生产环境数据源则专用于已发布节点的周期性调度,两者严格分离,可有效防止测试操作影响生产数据。为...

快速体验

技术选型 数据建模:数据开发治理平台 DataWorks数据建模(可选),标准版及以上版本可使用,需要单独购买。原始数据存储:云数据库 RDS MySQL(必选),本实验中DataWorks为您提供了阿里云RDS MySQL用于测试,包含了测试数据,无需您...

数据常见问题

说明 推荐您优先阅读使用指南 执行补数据并查看补数据实例(新版)。补数据功能说明 为什么小时分钟任务补数据选择了分组运行但实际不生效?为什么数据选择业务时间后不运行,实例显示黄色,实例状态显示等待时间?为什么数据选择业务...

概览

为了更好地指导您使用数据管理DMS(Data Management),DMS推出解决方案系列文档,旨在通过最佳实践(Step by Step)的形式向您介绍DMS研发流程、数据安全、数据开发的解决方案。研发流程解决方案 DMS为在线流程化系统,可统一管理企业内...

数据实例运维

数据可通过补历史或未来一段时间的数据,将写入数据至对应时间分区。代码中的 调度参数,将根据补数据选择的业务时间自动替换为具体值,并结合业务代码将对应时间数据写入指定分区。具体写入的分区与执行的代码逻辑,与任务定义的代码...

计算设置

设置Dataphin实例的计算引擎为TDH或ArgoDB 星环TDH 6.x Transwarp Data Hub(TDH)是星环大数据平台 StarRocks StarRocks 是一款高性能分析型数据仓库,使用向量化、MPP 架构、CBO、智能物化视图、可实时更新的列式存储引擎等技术实现多维、...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用