集团财务大数据

_相关内容

数据迁移同步

使用场景 数据源 文档链接 从Kafka同步 Kafka 从Kafka同步数据 从Flink导入 Flink 使用JDBC Connector导入 从Flink SQL导入 从大数据导入/同步 DataWorks 使用DataWorks同步数据 MaxCompute 从MaxCompute外表导入(19.15.2.2)从MaxCompute...

大数据AI公共数据集分析

本教程通过DataWorks,联合云原生大数据计算服务MaxCompute,使用大数据AI公共数据集(淘宝、飞猪、阿里音乐、Github、TPC等公共数据),指导您如何快速进行大数据分析,快速熟悉DataWorks的操作界面与最基础的数据分析能力。DataWorks的更...

产品生态

DM(达梦)数据源 Milvus数据源 TiDB数据源 DRDS(PolarDB-X 1.0)数据源 MongoDB数据源 TSDB数据源 Elasticsearch数据源 MySQL数据源 Vertica数据源 FTP数据源 OpenSearch数据源 TOS数据源 GBase8a数据源 Oracle数据源 HBase数据源 Graph ...

研发规范

大数据时代,规范地进行数据资产管理已成为推动互联网、大数据、人工智能和实体经济深度融合的必要条件。贴近业务属性、兼顾研发各阶段要点的研发规范,可以切实提高研发效率,保障数据研发工作有条不紊地运作。而不完善的研发流程,会...

应用场景

大数据场景 云数据库HBase支持海量全量数据的低成本存储、快速批量导入和实时访问,具备高效的增量及全量数据通道,可轻松与Spark、MaxCompute等大数据平台集成,完成数据规模离线分析。优势如下:低成本:高压缩比,数据冷热分离,...

核心能力

数据资源平台提供了一站式数据资产定义、生产、管理与服务平台,提供企业级数据资产构建能力和一致性使用体验,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。...

产品简介

什么是AnalyticDB AnalyticDB是阿里云自研的云原生实时数据仓库,支持从OLTP数据库和日志文件中实时写入数据,并秒级完成PB级数据分析。AnalyticDB采用云原生存算分离的架构,存储按量付费,计算弹性伸缩,同时具备离线处理与在线分析资源...

应用场景

数据库MongoDB版支持单节点、副本集和分片集群三种部署架构,具备安全审计、时间点备份等多项企业能力。在互联网、物联网、游戏、金融等...大数据应用:使用云数据库MongoDB作为大数据的云存储系统,随时进行数据提取分析,掌握行业动态。

JindoCache

大数据分析(Hive/Spark 报表):减少报表生成时间,优化计算集群成本。湖仓一体:减少请求费用,优化数据目录(catalog)的响应延迟。AI:加速训练等场景,降低AI集群使用成本,提供更全面的能力支持。缓存策略 JindoCache支持数据缓存...

什么是数据安全中心

数据安全中心DSC(Data Security Center)涵盖敏感数据识别与分类、配置风险检测、安全事件告警、图片脱敏、数据库列加密以及审计日志等功能。满足等保2.0及《数据安全法》《个人信息保护法》等合规要求,适用于合规审计与企业级数据安全...

云消息队列 Kafka 版数据迁移至MaxCompute

本文介绍如何使用DataWorks数据同步功能,将 云消息队列 Kafka 版 集群上的数据迁移至阿里云大数据计算服务MaxCompute,便于分析加工离线数据。前提条件 在开始本教程前,确保您在同一地域中已完成以下操作:云消息队列 Kafka 版 购买并...

数据导入

从阿里云对象存储OSS导入数据至图数据库GDB实例 图数据库GDB服务端集成有数据导入模块,可以获取您提供的.csv格式的OSS数据文件,并将其解析为图中的点数据和边数据,然后将点数据和边数据导入至图数据库GDB实例。步骤 步骤说明 ① 将需要...

DataWorks产品安全能力介绍

为充分契合数据安全治理的核心理念与通用思路,DataWorks针对资产梳理、技术体系/运营体系建设提供了一系列全面的数据安全产品能力,基于“I(Identify)P(Protect)D(Detect)R(Respond)”理论框架,从资产识别、安全防护、行为检测、...

数据集成支持的数据

创建MySQL数据源 创建Oracle数据源 创建Microsoft SQL Server数据源 创建OceanBase数据源 创建IBM DB2数据源 创建MaxCompute数据源 创建FTP数据源 创建TDengine数据源 创建PostgreSQL数据源 创建达梦(DM)数据源 创建Amazon Redshift数据...

数据集成操作指导

支持的源和目标数据数据集成支持的源数据库和目标数据库与数据迁移支持的数据库相同。数据集成的基本步骤 您可以通过以下步骤来创建和管理数据集成任务。步骤 说明 设置网络环境 在使用DTS进行数据集成之前,您必须确保DTS服务器可以...

基于Delta lake的一站式数据湖构建与分析实战

数据湖作为一个集中化的数据存储仓库,支持的数据类型具有多样性,包括结构化、半结构化以及非结构化的数据数据来源上包含数据数据、binglog 增量数据、日志数据以及已有数仓上的存量数据等。数据湖能够将这些不同来源、不同格式的数据...

DataWorks模块使用指引

DataWorks 是阿里云提供的一站式大数据开发与治理平台,旨在帮助用户解决从数据接入、处理、治理到服务化的全链路数据问题。它通过一系列高度协同的功能模块,将复杂的数据工程流程化、可视化,显著降低了大数据开发的门槛。本文将为您逐一...

用户价值

数据资源平台为用户提供了一站式数据资产定义、生产、管理与服务平台,提供企业级数据资产构建能力和一致性使用体验,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。...

近实时数仓

背景信息 企业依赖大数据平台快速地从海量数据中获得洞察从而更及时和有效地决策的同时,也对处理数据的新鲜度和处理本身的实时性要求越来越高。大数据平台普遍采用离线、实时、流三种引擎组合的方式以满足用户实时性和高性价比的需求。...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

应用场景

解决方案 DataWorks 联合 MaxCompute、Hologres 等云原生大数据引擎,提供一套 湖仓一体、流批融合 的一站式智能数据平台解决方案,帮助企业打破数据处理的时效壁垒。统一的数据接入与分层 通过 DataWorks 数据集成(Data Integration),...

DeltaLake

Delta Lake以数据为中心,围绕数据流走向(数据从流入数据湖、数据组织管理和数据查询到流出数据湖)推出了一系列功能特性,协助您搭配第三方上下游工具,搭建快捷、易用和安全的数据湖。背景信息 通常的数据湖方案是选取大数据存储引擎...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

节点开发

DataWorks的Data Studio模块提供多种节点以满足不同数据处理需求:数据集成节点用于同步,引擎计算节点(如MaxCompute SQL、Hologres SQL、EMR Hive)用于数据清洗,通用节点(如虚拟节点和do-while循环节点)用于复杂逻辑处理。...

数据集成

5分钟快速了解 背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效地配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错、...

使用公开数据集进行数据查询、分析和可视化

公开数据集列表 类型 数据数据来源及说明 数据类型 数字商业 阿里电商数据集 本数据集来源天池阿里移动推荐算法挑战赛,基于阿里巴巴100万条脱敏的商品数据,可以基于各类商品、操作、时间等字段,体验阿里云大数据分析能力。静态数据 ...

数据质量

典型工作流程如下:功能介绍 DataWorks 数据质量支持对常见大数据存储(MaxCompute、E-MapReduce、Hologres、AnalyticDB 等)进行质量校验,从完整性、准确性、一致性等多个维度配置监控规则,并与调度任务关联,实现自动化校验与问题告警...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多详情请参见 Apache Hudi官网。权限说明 仅支持具备 新建数据源权限点 的自定义...

数据

数据源负责从各种数据存储系统中提取数据,包括数据库(如MySQL、PostgreSQL)、大数据存储(如TableStore)、API、文件等。本文为您介绍DataV-Board支持的所有数据源,并提供数据源的选型指导。使用限制 数据源支持情况因不同版本而异,...

数据源白名单配置

产品名称 操作说明 云原生大数据计算服务MaxCompute 设置白名单 实时数仓Hologres IP白名单 云数据库ClickHouse 设置白名单 消息队列Kafka版 配置白名单 云原生分布式数据库PolarDB-X 设置白名单 云原生分布式数据库PolarDB-X(2.0)设置白...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多详情请参见 Apache Hudi官网。权限说明 仅支持具备 新建数据源权限点 的自定义...

数据集成支持的数据

创建MySQL数据源 创建Oracle数据源 创建Microsoft SQL Server数据源 创建OceanBase数据源 创建IBM DB2数据源 创建MaxCompute数据源 创建FTP数据源 创建TDengine数据源 创建Hive数据源 创建PostgreSQL数据源 创建达梦(DM)数据源 创建...

支持的数据

类别 数据源 导入方式 文档链接 消息队列 Kafka 数据同步 通过数据同步功能同步Kafka数据(推荐)日志类数据 日志服务(SLS)数据同步 通过数据同步功能同步SLS数据(推荐)大数据 Hive 数据迁移 Hive数据导入 存储 OSS 元数据发现 通过...

典型场景

ETL离线数据处理 面对复杂SQL优化和海量数据大规模聚合分析等挑战,云原生数据仓库AnalyticDB PostgreSQL版 具有如下技术优势:支持标准SQL、OLAP窗口函数和存储过程。ORCA分布式SQL优化器,复杂查询免调优。MPP多节点全并行计算,PB级数据...

使用老版DataWorks

通过本教程,您可以了解如何使用DataWorks和EMR Serverless Spark产品组合进行大数据开发和分析,并通过用户画像分析案例体验DataWorks在数据集成、数据开发和运维中心模块方面的相关能力。案例介绍 为了更好地制定企业经营策略,现需要从...

使用新版DataWorks

通过本教程,您可以了解如何使用DataWorks和EMR Serverless Spark产品组合进行大数据开发和分析,并通过用户画像分析案例体验DataWorks在数据集成、数据开发和运维中心模块方面的相关能力。案例介绍 为了更好地制定企业经营策略,现需要从...

数据导入方式介绍

为满足多样化的数据导入需求,AnalyticDB for MySQL 提供了多种数据导入方式,包括:通过外表导入数据、通过DataWorks导入数据、通过DTS导入数据以及使用JDBC通过程序导入数据等。您可以通过本文了解各导入方式的特性及适用场景,帮助您...

OSS数据安全保护方案

智能化:运用大数据和机器学习能力,通过智能化的算法,对敏感数据和高风险活动,例如数据异常访问和潜在的泄露风险进行有效识别和监控,并提供修复建议。提供定制化的敏感数据识别能力,便于客户自定义识别标准,实现精准识别和高效防护。...

使用旧版数据开发体验

通过本教程,您可以了解如何使用DataWorks和Spark产品组合进行大数据开发和分析,并通过用户画像分析案例体验DataWorks在数据集成、数据开发和运维中心模块方面的相关能力。案例介绍 为了更好地制定企业经营策略,现需要从用户网站行为中...

JindoFS实战演示

使用Checksum迁移HDFS数据到OSS 使用Checksum迁移HDFS数据到OSS 2021-05-11 通过Checksum算法,你可以在大数据迁移场景中校验数据的完整性、对比数据差异并实现增量迁移。本视频为您介绍如何使用Jindo Distcp迁移HDFS数据到OSS,以及在迁移...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用