大数据与软件工程

_相关内容

SQL查询(新版)

对象存储OSS:将查询结果以指定格式(如CSV、Parquet)导出至阿里云对象存储OSS(Object Storage Service)空间,适用于大数据量归档或其他云产品集成的场景。首次使用时,您需要为DataWorks进行授权,以允许其访问您的OSS资源。请在 ...

计算设置

华为 FusionInsight 8.x Hadoop 华为推出的基于Apache开源社区软件进行功能增强的企业级大数据存储、查询和分析的大数据平台。亚信DP5.3 Hadoop 基于开源生态,依托电信级技术能力构建的大数据生产运营一体化支撑平台。星环ArgoDB ...

常见问题

1.售前咨询渠道 尊敬的“准”大数据专家服务用户您好:如果您准备购买阿里云大数据专家服务,但是遇到如服务范围、规格、服务选择等售前方面的问题,您可以通过钉钉我们联系,您将“当面”获得阿里云大数据专家咨询专家的建议。...

产品简介

DLF多个阿里云大数据计算引擎无缝对接,打破数据孤岛,帮助用户快速实现云原生数据湖及OpenLake解决方案的构建管理。该平台能够实现元数据的统一、湖表格式的统一以及数据存储的统一,显著简化客户在数据湖构建和管理过程中的运维工作...

计算设置概述

华为 FusionInsight 8.x Hadoop 华为推出的基于Apache开源社区软件进行功能增强的企业级大数据存储、查询和分析的大数据平台。亚信DP5.3 Hadoop 基于开源生态,依托电信级技术能力构建的大数据生产运营一体化支撑平台。星环ArgoDB ...

Vertica数据

Vertica是一款基于列存储的MPP架构的数据库,Vertica数据源为您提供读取和写入Vertica双向通道的功能,本文为您介绍DataWorks的Vertica数据同步的能力支持情况。支持的版本 Vertica Reader通过Vertica数据库驱动访问Vertica,您需要确认...

东软案例

目前,东软在物联网、互联网等新场景下面临的IT系统运维主要问题挑战有:多模型数据融合分析困难,面向海量数据采集终端同时写入数据的并发能力弱,数据且价值密度低导致存储成本高,基于开源软件自建数据存储集群稳定性低运维成本...

行业趋势挑战

生产处理实时化 从数据的3V特性(体积,速度和变化)来看,大数据强调数据量,PB级以上,是静态数据;而Fast Data在数据量的基础上,意味着速度和变化,客户可以更加实时、快速地进行数据处理。IDC在新发布的一份白皮书中表示,随着全球...

数据恢复

数据恢复至云数据库MongoDB实例 重要 将数据恢复至新实例时,请注意以下事项:新实例的数据版本需原实例相同。您需要根据原实例的数据库版本选择支持部署的可用区。不同数据库版本的实例,支持部署的可用区不同。关于不同数据库版本...

ApsaraDB For OceanBase数据

ApsaraDB for OceanBase数据源提供读取和写入ApsaraDB for OceanBase数据的双向功能,您可以使用ApsaraDB for OceanBase数据源配置同步任务同步数据。本文为您介绍DataWorks的ApsaraDB for OceanBase数据同步能力支持情况。支持的版本 离线...

功能特性

安全性 OceanBase 数据库在调研了大量企业对于数据软件的安全需求,并参考了各种安全标准之后,实现了企业需要的绝部分安全功能,支持完备的权限角色体系,支持 SSL、数据透明加密、审计、Label Security、IP 白名单等功能,并通过了...

安全白皮书概述

Dataphin面向各行各业大数据建设、管理及应用诉求,一站式提供从数据接入到数据消费全链路的智能数据建设资产治理的大数据能力,包括产品、技术和方法论等,可帮助企业一站式构建生产经济、质量可靠、安全稳定、消费便捷的企业级数据资产...

图扑案例

业务要求挑战 5G、云计算、边缘计算等智能、互联技术的快速发展,推动了工业物联网IIoT场景下各种软件、硬件传感器数量激增,之对应的采集数据量和数据类型快速增长,导致数据存储、检索难度更。现有解决方案中,通常依赖自建单...

发展历程

中国数字化转型创新案例大会:年度大数据创新产品奖。国家大数据博览会十佳产品:最佳案例实践奖。2017年 TPC的benchmark适配MaxCompute,进行了全球首次基于公共云的BigBench大数据基准测试,数据规模拓展到100 TB,成为首个突破7000分...

数据集成概述

5分钟快速了解 背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效地配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错、...

大数据

购买 数据安全中心DSC(Data Security Center)实例后,在使用 DSC 检测大数据产品(包括TableStore、MaxCompute、AnalyticDB-MYSQL、AnalyticDB-PG)中存在的敏感数据或审计数据库等功能前,您需要先开启对应功能。前提条件 已开通数据...

使用场景

包含但不限于如下场景:数据迁移同步 使用DMS任务编排配置和管理数据迁移或数据同步任务,将数据从一个数据源迁移到另一个数据源,或实现同数据源、不同数据源之间的数据实时同步。数据清洗加工 DMS任务编排可以用于数据清洗和加工任务...

数据迁移同步

使用场景 数据源 文档链接 从Kafka同步 Kafka 从Kafka同步数据 从Flink导入 Flink 使用JDBC Connector导入 从Flink SQL导入 从大数据导入/同步 DataWorks 使用DataWorks同步数据 MaxCompute 从MaxCompute外表导入(19.15.2.2)从MaxCompute...

应用场景

大数据场景 云数据库HBase支持海量全量数据的低成本存储、快速批量导入和实时访问,具备高效的增量及全量数据通道,可轻松Spark、MaxCompute等大数据平台集成,完成数据规模离线分析。优势如下:低成本:高压缩比,数据冷热分离,...

数据集成支持的数据

创建MySQL数据源 创建Oracle数据源 创建Microsoft SQL Server数据源 创建OceanBase数据源 创建IBM DB2数据源 创建MaxCompute数据源 创建FTP数据源 创建TDengine数据源 创建PostgreSQL数据源 创建达梦(DM)数据源 创建Amazon Redshift数据...

查看智能问答反馈记录

前提条件 需至少开通 X-数据工程、X-编码助手、X-分析 中的一个功能才能使用对应的智能应用反馈记录。使用限制 每个智能应用最多保留最近1000条点赞和点踩反馈记录。若某条记录已经超过对话记录保留时长,则无法查看完整对话内容。X-数据...

数据导入

从阿里云对象存储OSS导入数据至图数据库GDB实例 图数据库GDB服务端集成有数据导入模块,可以获取您提供的.csv格式的OSS数据文件,并将其解析为图中的点数据和边数据,然后将点数据和边数据导入至图数据库GDB实例。步骤 步骤说明 ① 将需要...

查看智能问答反馈记录

前提条件 需至少开通 X-数据工程、X-编码助手、X-分析 中的一个功能才能使用对应的智能应用反馈记录。使用限制 每个智能应用最多保留最近1000条点赞和点踩反馈记录。若某条记录已经超过对话记录保留时长,则无法查看完整对话内容。X-数据...

数据传输迁移概述

MaxCompute提供多种渠道,以便您从业务系统或外部数据源写入数据到MaxCompute,或者从MaxCompute写出数据到外部系统或外部数据源。数据传输渠道 SDK-Tunnel渠道 外表(湖仓一体)JDBC渠道 场景数据写入MaxCompute 离线数据批量写入(数据...

数据迁移同步FAQ

本文为您列出数据迁移与数据同步的常见问题和相关解答。什么是数据迁移、数据同步?DTS的数据迁移与数据同步工作原理是什么?DTS的数据迁移与数据同步有什么区别?使用DTS遇到预检查报错,如何解决?什么是数据迁移、数据同步?数据迁移:...

冷热分层

背景信息 在海量大数据场景下,随着业务和数据量的不断增长,性能和成本的权衡成为大数据系统设计面临的关键挑战。Delta Lake是新型数据湖方案,推出了数据流入、数据组织管理、数据查询和数据流出等特性,同时提供了数据的ACID和CRUD操作...

数据

数据源负责从各种数据存储系统中提取数据,包括数据库(如MySQL、PostgreSQL)、大数据存储(如TableStore)、API、文件等。本文为您介绍DataV-Board支持的所有数据源,并提供数据源的选型指导。使用限制 数据源支持情况因不同版本而异,...

产品形态选型

支持在线业务与大数据任务混合运行,降低成本。利用 ACK 弹性与 ECI,扩缩容更快。适合已建立容器化架构的企业,但不建议作为首选方案。大数据组件(如 Spark、Presto)的稳定性更多依赖用户自管。适合具备大数据组件运维知识和能力的企业...

支持的数据

类别 数据源 导入方式 文档链接 消息队列 Kafka 数据同步 通过数据同步功能同步Kafka数据(推荐)日志类数据 日志服务(SLS)数据同步 通过数据同步功能同步SLS数据(推荐)大数据 Hive 数据迁移 Hive数据导入 存储 OSS 元数据发现 通过...

典型场景

典型场景 数据仓库服务 您可以通过数据传输服务(DTS)或数据集成服务(DataX),将云数据库(例如RDS、PolarDB)或自建数据库批量同步到 云原生数据仓库AnalyticDB PostgreSQL版。云原生数据仓库PostgreSQL版支持对海量数据的复杂ETL进行...

使用老版DataWorks

通过本教程,您可以了解如何使用DataWorks和EMR Serverless Spark产品组合进行大数据开发和分析,并通过用户画像分析案例体验DataWorks在数据集成、数据开发和运维中心模块方面的相关能力。案例介绍 为了更好地制定企业经营策略,现需要从...

使用新版DataWorks

通过本教程,您可以了解如何使用DataWorks和EMR Serverless Spark产品组合进行大数据开发和分析,并通过用户画像分析案例体验DataWorks在数据集成、数据开发和运维中心模块方面的相关能力。案例介绍 为了更好地制定企业经营策略,现需要从...

数据迁移最佳实践

本文介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大时,...

数据迁移最佳实践

本文介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大时,...

配置DataHub输出组件

配置DataHub输出组件,可以将外部数据库中读取数据写入到DataHub,或从大数据平台对接的存储系统中将数据复制推送至DataHub,进行数据整合和再加工。本文为您介绍如何配置DataHub输出组件。前提条件 已创建DataHub数据源。具体操作,请参见...

查看敏感数据识别结果

敏感数据识别任务扫描完成后,您可在数据安全中心以数据库实例、OSS Bucket、SLS Project或具体数据对象(如数据表、文件或每5分钟内存储的数据等)为单位查看敏感数据识别结果。本文介绍如何查看数据对象、数据库实例的敏感数据识别结果。...

配置ArgoDB输出组件

配置ArgoDB输出组件,可以将外部数据库中读取的数据写入到ArgoDB,或从大数据平台对接的存储系统中将数据复制推送至ArgoDB,进行数据整合和再加工。本文为您介绍如何配置ArgoDB输出组件。使用限制 ArgoDB输出组件支持写入文件格式为orc、...

支持的云服务

基于MaxCompute的数据仓库能力,您可以阿里云其他产品集成,实现可视化开发、数据存储、数据迁移、机器学习、业务决策等能力,构建满足实际业务需求的解决方案。本文为您介绍支持MaxCompute集成的各阿里云产品信息。MaxCompute支持集成...

订阅方案概览

数据订阅功能可以帮助您获取数据库的实时增量数据,您可以根据自身业务需求自由消费增量数据,并写入目标端,实现各类业务场景,例如缓存更新、业务异步解耦、异构数据数据实时同步及含复杂ETL的多种业务场景。源库限制 限制项 说明 网络...

限制说明

数据大小 云数据库 Memcache 版支持的单条缓存数据的 Key 最大不超过 1 KB,Value 最大不超过 1 MB,过数据不适合存储。事务支持 云数据库 Memcache 版不支持事务,有事务性要求的数据不适合写入,而应该直接写入数据库。使用场景 当...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用