大数据教学软件

_相关内容

使用公开数据集进行数据查询、分析和可视化

公开数据集列表 类型 数据数据来源及说明 数据类型 数字商业 阿里电商数据集 本数据集来源天池阿里移动推荐算法挑战赛,基于阿里巴巴100万条脱敏的商品数据,可以基于各类商品、操作、时间等字段,体验阿里云大数据分析能力。静态数据 ...

应用场景

解决方案 DataWorks 联合 MaxCompute、Hologres 等云原生大数据引擎,提供一套 湖仓一体、流批融合 的一站式智能数据平台解决方案,帮助企业打破数据处理的时效壁垒。统一的数据接入与分层 通过 DataWorks 数据集成(Data Integration),...

近实时数仓

背景信息 企业依赖大数据平台快速地从海量数据中获得洞察从而更及时和有效地决策的同时,也对处理数据的新鲜度和处理本身的实时性要求越来越高。大数据平台普遍采用离线、实时、流三种引擎组合的方式以满足用户实时性和高性价比的需求。...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

数据集成

5分钟快速了解 背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效地配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错、...

数据迁移最佳实践

本文介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大时,...

节点开发

DataWorks的Data Studio模块提供多种节点以满足不同数据处理需求:数据集成节点用于同步,引擎计算节点(如MaxCompute SQL、Hologres SQL、EMR Hive)用于数据清洗,通用节点(如虚拟节点和do-while循环节点)用于复杂逻辑处理。...

数据

数据源负责从各种数据存储系统中提取数据,包括数据库(如MySQL、PostgreSQL)、大数据存储(如TableStore)、API、文件等。本文为您介绍DataV-Board支持的所有数据源,并提供数据源的选型指导。使用限制 数据源支持情况因不同版本而异,...

基础:购房群体简单分析

创建并绑定MaxCompute计算资源 本教程需要创建MaxCompute项目并将其绑定为DataWorks计算资源,用于后续接收数据并进行大数据分析。前往 DataWorks工作空间列表 页,切换至 华东2(上海)地域,找到已创建的工作空间,单击工作空间名称,...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多详情请参见 Apache Hudi官网。权限说明 仅支持具备 新建数据源权限点 的自定义...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多详情请参见 Apache Hudi官网。权限说明 仅支持具备 新建数据源权限点 的自定义...

数据质量

典型工作流程如下:功能介绍 DataWorks 数据质量支持对常见大数据存储(MaxCompute、E-MapReduce、Hologres、AnalyticDB 等)进行质量校验,从完整性、准确性、一致性等多个维度配置监控规则,并与调度任务关联,实现自动化校验与问题告警...

数据集成支持的数据

创建MySQL数据源 创建Oracle数据源 创建Microsoft SQL Server数据源 创建OceanBase数据源 创建IBM DB2数据源 创建MaxCompute数据源 创建FTP数据源 创建TDengine数据源 创建Hive数据源 创建PostgreSQL数据源 创建达梦(DM)数据源 创建...

准备环境

教程提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据,并且只支持在数据集成模块读取数据。在 私有OSS环境准备 步骤中创建的OSS对象存储的 Bucket 将用于接收MySQL数据源的用户信息数据与...

数据源白名单配置

产品名称 操作说明 云原生大数据计算服务MaxCompute 设置白名单 实时数仓Hologres IP白名单 云数据库ClickHouse 设置白名单 消息队列Kafka版 配置白名单 云原生分布式数据库PolarDB-X 设置白名单 云原生分布式数据库PolarDB-X(2.0)设置白...

准备环境

教程提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据,并且只支持在数据集成模块读取数据。在 私有OSS环境准备 步骤中创建的OSS对象存储的 Bucket 将用于接收MySQL数据源的用户信息数据与...

支持的数据

类别 数据源 导入方式 文档链接 消息队列 Kafka 数据同步 通过数据同步功能同步Kafka数据(推荐)日志类数据 日志服务(SLS)数据同步 通过数据同步功能同步SLS数据(推荐)大数据 Hive 数据迁移 Hive数据导入 存储 OSS 元数据发现 通过...

典型场景

典型场景 数据仓库服务 您可以通过数据传输服务(DTS)或数据集成服务(DataX),将云数据库(例如RDS、PolarDB)或自建数据库批量同步到 云原生数据仓库AnalyticDB PostgreSQL版。云原生数据仓库PostgreSQL版支持对海量数据的复杂ETL进行...

数据迁移最佳实践

本文介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大时,...

阶段一:基础防护建设

在该阶段,DataWorks为您提供了数据分类分级、规范数据开发流程、企业级身份认证、开源身份隔离等多个场景的最佳实践,帮助企业做好数据安全治理的相关基础防护工作。场景一:数据分级分类 无论在任何行业,数据分级分类都是监管首要检查的...

数据导入方式介绍

为满足多样化的数据导入需求,AnalyticDB for MySQL 提供了多种数据导入方式,包括:通过外表导入数据、通过DataWorks导入数据、通过DTS导入数据以及使用JDBC通过程序导入数据等。您可以通过本文了解各导入方式的特性及适用场景,帮助您...

数据变更最佳实践

批量和实时导入数据 批量导入:适用于大数据量导入的场景,导入过程中可以查询旧数据,导入操作完成后一键切换新数据。导入失败时,支持回滚新数据,不影响查询旧数据。例如,从MaxCompute、OSS中导入数据到 AnalyticDB MySQL版 时,推荐...

JindoFS实战演示

使用Checksum迁移HDFS数据到OSS 使用Checksum迁移HDFS数据到OSS 2021-05-11 通过Checksum算法,你可以在大数据迁移场景中校验数据的完整性、对比数据差异并实现增量迁移。本视频为您介绍如何使用Jindo Distcp迁移HDFS数据到OSS,以及在迁移...

进阶:商品订单畅销类目分析

DataWorks基于MaxCompute、Hologres、EMR、AnalyticDB、CDP等大数据引擎,为数据仓库、数据湖、湖仓一体等解决方案提供统一的全链路大数据开发治理平台。本文以DataWorks的部分核心功能为例,指导您使用DataWorks接入数据并进行业务处理、...

创建Greenplum数据

通过创建Greenplum数据源能够实现Dataphin读取Greenplum的业务数据或向Greenplum写入数据。本文为您介绍如何创建Greenplum数据源。背景信息 Greenplum是一款大数据分析引擎,适用于分析、机器学习和AI等领域。其架构主要针对管理规模分析...

副本数据管理CDM(Copy Data Management)

背景信息 在海量数据场景下,传统数据库备份服务面临两越来越严重的困难:存储成本:为了保障数据恢复点目标(Recovery Point Objective,RPO),周期性的全量和增量备份产生大量重复数据,导致存储成本过高。使用成本:您必须待数据完成...

数据

数据库备份场景下,有4个概念:数据库磁盘空间、数据文件空间、备份数据量、存储数据量。数据量 说明 数据库磁盘空间 由数据库的数据文件空间、数据库的日志文件空间、操作系统文件空间和空闲空间组成。说明 RDS中为:购买时选择的存储...

准备环境

本案例提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据。本教程使用 数据开发(DataStudio)(旧版)进行数据加工。MaxCompute环境准备 一、开通MaxCompute产品 本教程基于MaxCompute实现,请...

功能特性

DataWorks 提供一站式大数据开发与治理平台,涵盖数据集成、开发、建模、分析、质量、服务、地图及开放能力,支持全链路数据处理与企业级数据中台建设。本文为您介绍DataWorks的核心功能特性。数据集成:全领域数据汇聚 DataWorks的数据...

准备环境

本案例提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据。本教程使用 数据开发(DataStudio)(旧版)进行数据加工。MaxCompute环境准备 一、开通MaxCompute产品 本教程基于MaxCompute实现,请...

创建Greenplum数据

通过创建Greenplum数据源能够实现Dataphin读取Greenplum的业务数据或向Greenplum写入数据。本文为您介绍如何创建Greenplum数据源。背景信息 Greenplum是一款大数据分析引擎,适用于分析、机器学习和AI等领域。其架构主要针对管理规模分析...

准备环境

教程提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据。本教程使用 数据开发(Data Studio)(新版)进行数据加工。OSS对象存储环境准备 本教程需要您创建一个OSS Bucket,后续会将用户信息...

创建IMPALA数据

通过创建Impala数据源能够实现Dataphin读取Impala的业务数据或向Impala写入数据。本文为您介绍如何创建Impala数据源。背景信息 Impala是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至...

创建数据库

对于非ONLINE状态的同名数据库,根据不同场景解决:场景1:OSS备份数据恢复上云时选择不打开数据库 产生原因 在使用 OSS备份数据恢复到RDS SQL Server 时如果选择了 不打开数据库(还有差异备份或日志文件)选项,数据库会处于非ONLINE状态...

数据开发概述

Data Studio介绍 Data Studio是智能湖仓一体数据开发平台,内置阿里巴巴15年大数据建设方法论,深度适配阿里云MaxCompute、E-MapReduce、Hologres、Flink、PAI等数十种大数据和AI计算服务,为数据仓库、数据湖、OpenLake湖仓一体数据架构...

准备环境

教程提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据。本教程使用 数据开发(Data Studio)(新版)进行数据加工。MaxCompute环境准备 一、开通MaxCompute产品 本教程基于MaxCompute实现,...

准备环境

教程提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据。本教程使用 数据开发(Data Studio)(新版)进行数据加工。MaxCompute环境准备 一、开通MaxCompute产品 本教程基于MaxCompute实现,...

数据开发(Data Studio)(新版)

Data Studio介绍 Data Studio是智能湖仓一体数据开发平台,内置阿里巴巴15年大数据建设方法论,深度适配阿里云MaxCompute、E-MapReduce、Hologres、Flink、PAI等数十种大数据和AI计算服务,为数据仓库、数据湖、OpenLake湖仓一体数据架构...

新榜案例

开源数据集 原始文件 Lindorm HBase MySQL MongoDB MongoDB(ZSTD)订单数据(TPC-H)1.76 GB 639 MB 1.23 GB 2.10 GB 1.63 GB 1.32 GB 车联网数据(NGSIM 2)1.54 GB 818 MB 1.72 GB 1.72 GB 1.88 GB 1.50 GB 日志数据(Web Logs 3)3.51 ...

订阅方案概览

数据订阅功能可以帮助您获取数据库的实时增量数据,您可以根据自身业务需求自由消费增量数据,并写入目标端,实现各类业务场景,例如缓存更新、业务异步解耦、异构数据数据实时同步及含复杂ETL的多种业务场景。源库限制 限制项 说明 网络...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用