免费大数据网站

_相关内容

数据迁移同步

使用场景 数据源 文档链接 从Kafka同步 Kafka 从Kafka同步数据 从Flink导入 Flink 使用JDBC Connector导入 从Flink SQL导入 从大数据导入/同步 DataWorks 使用DataWorks同步数据 MaxCompute 从MaxCompute外表导入(19.15.2.2)从MaxCompute...

数据库节点

SelectDB SelectDB是基于Apache Doris打造的新一代多云原生实时数据仓库,聚焦于满足企业级大数据实时分析需求,为您提供极致性价比、简单易用的数据分析服务。更多介绍,请参见 SelectDB。Redshift Amazon Redshift是云平台的一种完全托管...

研发规范

大数据时代,规范地进行数据资产管理已成为推动互联网、大数据、人工智能和实体经济深度融合的必要条件。贴近业务属性、兼顾研发各阶段要点的研发规范,可以切实提高研发效率,保障数据研发工作有条不紊地运作。而不完善的研发流程,会...

应用场景

大数据场景 云数据库HBase支持海量全量数据的低成本存储、快速批量导入和实时访问,具备高效的增量及全量数据通道,可轻松与Spark、MaxCompute等大数据平台集成,完成数据的大规模离线分析。优势如下:低成本:高压缩比,数据冷热分离,...

核心能力

数据资源平台提供了一站式数据资产定义、生产、管理与服务平台,提供企业级数据资产构建能力和一致性使用体验,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。...

产品简介

企业专属知识库 GIS 时空大数据分析 离在线一体数据分析 其他云数据仓库业务迁移(Greenplum、Redshift、Synapse、Snowflake、BigQuery等)客户行业 游戏、零售、汽车 零售、电商、教育 节省成本 共同点 按实际数据量收取数据存储费用 冷热...

应用场景

云数据库MongoDB版支持单节点、副本集和分片集群三种部署架构,具备安全审计、时间点备份等多项企业能力。在互联网、物联网、游戏、金融等...大数据应用:使用云数据库MongoDB作为大数据的云存储系统,随时进行数据提取分析,掌握行业动态。

JindoCache

大数据分析(Hive/Spark 报表):减少报表生成时间,优化计算集群成本。湖仓一体:减少请求费用,优化数据目录(catalog)的响应延迟。AI:加速训练等场景,降低AI集群使用成本,提供更全面的能力支持。缓存策略 JindoCache支持数据缓存...

数据导入

使用DataWorks数据集成同步数据到GDB DataWorks 是阿里云上的一站式大数据智能云研发平台,其中数据集成服务支持导出数据到GDB,您也可以使用平台完成数据计算、筛选、转换等处理再同步到GDB。DataWorks的GDB数据源底层由GdbWriter插件提供...

云消息队列 Kafka 版数据迁移至MaxCompute

本文介绍如何使用DataWorks数据同步功能,将 云消息队列 Kafka 版 集群上的数据迁移至阿里云大数据计算服务MaxCompute,便于分析加工离线数据。前提条件 在开始本教程前,确保您在同一地域中已完成以下操作:云消息队列 Kafka 版 购买并...

数据集成支持的数据

离线集成支持的数据源 数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hologres 支持 支持 IMPALA 支持 支持 TDH Inceptor 支持 支持 StarRocks 支持 不支持 Hudi 支持 支持 Doris 支持 不支持 GreenPlum 支持 支持 TDengine ...

DataWorks产品安全能力介绍

备份与恢复:云原生底层存储天然支持三份副本备份,同时,大数据计算服务MaxCompute提供数据备份与恢复功能,您可对保留周期内的数据进行快速恢复,避免因错误操作丢失数据。安全销毁:阿里云上落盘的数据一经删除,永久不可恢复;同时,...

数据集成操作指导

支持的源和目标数据数据集成支持的源数据库和目标数据库与数据迁移支持的数据库相同。数据集成的基本步骤 您可以通过以下步骤来创建和管理数据集成任务。步骤 说明 设置网络环境 在使用DTS进行数据集成之前,您必须确保DTS服务器可以...

什么是MaxCompute

云原生大数据计算服务MaxCompute(原名ODPS)是阿里云自主研发的集 高性价比、多模计算、企业级安全 和 AI驱动 于一体的 企业级SaaS化智能云数据仓库(AI-Native Datawarehouse)。视频简介 产品简介 MaxCompute是面向分析的 企业级 SaaS ...

基于Delta lake的一站式数据湖构建与分析实战

数据湖计算与分析 相比于数据仓库,数据湖以更开放的方式对接多种不同的计算引擎,如传统开源大数据计算引擎Hive、Spark、Presto、Flink等,同时也支持云厂商自研的大数据引擎,如阿里云MaxCompute、Hologres等。在数据湖存储与计算引擎...

冷热分层

背景信息 在海量大数据场景下,随着业务和数据量的不断增长,性能和成本的权衡成为大数据系统设计面临的关键挑战。Delta Lake是新型数据湖方案,推出了数据流入、数据组织管理、数据查询和数据流出等特性,同时提供了数据的ACID和CRUD操作...

用户价值

数据资源平台为用户提供了一站式数据资产定义、生产、管理与服务平台,提供企业级数据资产构建能力和一致性使用体验,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。...

整体架构

AnalyticDB for MySQL 是基于数据库大数据一体化的理念和趋势,在工程上深度打磨出的云原生数据仓库。技术架构 AnalyticDB for MySQL 采用云原生架构,计算存储分离、冷热数据分离,支持高吞吐实时写入和数据强一致,兼顾高并发查询和大...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

DeltaLake

背景信息 通常的数据湖方案是选取大数据存储引擎构建数据湖(例如,阿里云对象存储OSS产品或云下HDFS),然后将产生的各种类型数据存储在该存储引擎中。在使用数据时,通过Spark或Presto对接数据分析引擎并进行数据解析。但该套方案存在...

近实时数仓

背景信息 企业依赖大数据平台快速地从海量数据中获得洞察从而更及时和有效地决策的同时,也对处理数据的新鲜度和处理本身的实时性要求越来越高。大数据平台普遍采用离线、实时、流三种引擎组合的方式以满足用户实时性和高性价比的需求。...

应用场景

解决方案 DataWorks 联合 MaxCompute、Hologres 等云原生大数据引擎,提供一套 湖仓一体、流批融合 的一站式智能数据平台解决方案,帮助企业打破数据处理的时效壁垒。统一的数据接入与分层 通过 DataWorks 数据集成(Data Integration),...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

数据集成

5分钟快速了解 背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效地配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错、...

节点开发

2012 FLINK_SQL_STREAM Flink SQL Batch 能够使用标准SQL语句定义和执行数据处理任务,适用于大数据集的分析与转换,包括数据清洗和聚合。该节点支持可视化配置,提供高效且灵活的大规模数据批处理方案。2011 FLINK_SQL_BATCH EMR EMR Hive...

使用公开数据集进行数据查询、分析和可视化

公开数据集列表 类型 数据集 数据来源及说明 数据类型 数字商业 阿里电商数据集 本数据集来源天池阿里移动推荐算法挑战赛,基于阿里巴巴100万条脱敏的商品数据,可以基于各类商品、操作、时间等字段,体验阿里云大数据分析能力。...

数据

数据源负责从各种数据存储系统中提取数据,包括数据库(如MySQL、PostgreSQL)、大数据存储(如TableStore)、API、文件等。本文为您介绍DataV-Board支持的所有数据源,并提供数据源的选型指导。使用限制 数据源支持情况因不同版本而异,...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多详情请参见 Apache Hudi官网。权限说明 仅支持具备 新建数据源权限点 的自定义...

数据质量

典型工作流程如下:功能介绍 DataWorks 数据质量支持对常见大数据存储(MaxCompute、E-MapReduce、Hologres、AnalyticDB 等)进行质量校验,从完整性、准确性、一致性等多个维度配置监控规则,并与调度任务关联,实现自动化校验与问题告警...

数据源白名单配置

产品名称 操作说明 云原生大数据计算服务MaxCompute 设置白名单 实时数仓Hologres IP白名单 云数据库ClickHouse 设置白名单 消息队列Kafka版 配置白名单 云原生分布式数据库PolarDB-X 设置白名单 云原生分布式数据库PolarDB-X(2.0)设置白...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多详情请参见 Apache Hudi官网。权限说明 仅支持具备 新建数据源权限点 的自定义...

数据集成支持的数据

离线集成支持的数据源 数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hive 支持 支持 Hologres 支持 支持 IMPALA 支持 支持 TDH Inceptor 支持 支持 Kudu 支持 支持 StarRocks 支持 支持 Hudi 支持 支持 Doris 支持 支持 ...

支持的数据

类别 数据源 导入方式 文档链接 消息队列 Kafka 数据同步 通过数据同步功能同步Kafka数据(推荐)日志类数据 日志服务(SLS)数据同步 通过数据同步功能同步SLS数据(推荐)大数据 Hive 数据迁移 Hive数据导入 存储 OSS 元数据发现 通过...

典型场景

大数据分析平台 对于MaxCompute、Hadoop和Spark中保存的海量数据,可通过采用数据集成服务(DataX)或通过对象存储服务(OSS),快速批量导入到 云原生数据仓库AnalyticDB PostgreSQL版,帮助您实现高性能分析处理和在线数据探索。...

数据导入方式介绍

为满足多样化的数据导入需求,AnalyticDB for MySQL 提供了多种数据导入方式,包括:通过外表导入数据、通过DataWorks导入数据、通过DTS导入数据以及使用JDBC通过程序导入数据等。您可以通过本文了解各导入方式的特性及适用场景,帮助您...

数据迁移最佳实践

本文介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将...MaxCompute处理业务数据和日志数据后,可以通过Quick BI快速地以可视化方式展现数据处理结果,详情请参见 基于MaxCompute的大数据BI分析。

数据迁移最佳实践

本文介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将...MaxCompute处理业务数据和日志数据后,可以通过Quick BI快速地以可视化方式展现数据处理结果,详情请参见 基于MaxCompute的大数据BI分析。

JindoFS实战演示

使用Checksum迁移HDFS数据到OSS 使用Checksum迁移HDFS数据到OSS 2021-05-11 通过Checksum算法,你可以在大数据迁移场景中校验数据的完整性、对比数据差异并实现增量迁移。本视频为您介绍如何使用Jindo Distcp迁移HDFS数据到OSS,以及在迁移...

阶段一:基础防护建设

例如:《金融数据安全分级指南 JR/T 0197-2020》《网络安全标准实践指南——网络数据分类分级指引》《信息安全技术个人信息安全规范 GB/T 35273—2020》《信息技术大数据数据分类指南 GB/T 38667-2020》《基础电信企业数据分类分级方法 YD/...

副本数据管理CDM(Copy Data Management)

相比现有基于大数据平台的历史数据离线分析方案,沙箱功能提供原始数据库SQL接口,不需要开发人员编写离线分析脚本,并由于使用快照存储机制,存储成本也更低。费用说明 更多信息,请参见 沙箱费用。相关操作 RDS MySQL应急恢复 自建MySQL...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用