数据传输服务DTS
阿里云数据传输服务集数据迁移、订阅及实时同步功能于一体,能够解决公共云、混合云场景下,远距离、毫秒级异步数据传输难题,支持关系型数据库、NoSQL、大数据(OLAP)等数据源,其底层基础设施采用阿里双11异地多活架构,为数千下游应用提供实时数据流,已在线上稳定运行7年之久。
可以将源端数据库数据实时同步到数据仓库,构建实时分析数仓,也可以根据调度策略的配置,定期地将源中的结构和存量数据迁移至目标中,构建更加灵活的数据仓库(例如构建T+1的周期性数仓).实时同步功能支持将并发粒度缩小到事务级别,能够并发同步同张表的更新数据,提升同步性能;支持多并发压缩传输,降低传输链路对...
来自: 云产品
数据管理与服务
数据管理与服务作为阿里云产品六大版块之一,面向不同业务场景,阿里云提供数据存储、分析、应用等全链路能力,满足企业客户全方位的数据处理需求,实现计算和存储分离、资源解耦、数据移动减化,用以满足行业快速发展的需求和趋势,利用数据重塑其业务。
伴随着用户业务的快速增长,数据的操作更加频繁,数据库数据量越来越大。对实例备份成本控制,实例恢复RTO有着更高的需求。所以RDS MySQL在全量备份的基础上,引入了增量备份,推出高频物理备份功能.RDS MySQL高频物理备份,干货十足,看这篇内容就够了!EasyNLP是阿⾥云机器学习PAI 团队基于 PyTorch 开发的易⽤且丰富的中...
来自: 云产品
数据安全解决方案
数据是企业的核心资产,如何保护企业的云上数据,是每个企业管理者都应当重视的课题。在云平台提供更为安全便捷的数据保护能力的同时,阿里云根据自身多年的经验积累,结合大量云上客户的最佳实践,提供了一套完整的数据安全解决方案,帮助企业提升云上数据风险防御能力,实现企业核心及敏感数据安全可控。
数据不再单纯存储在数据库中,各类数据仓库、中台和非结构化文件、缓存都在企业中扮演着重要角色。分散数据的统一治理和权责定义,对企业提出了要求.数据资产盘点、权责明确与分类分级标准.数据安全风险评估是企业信息系统建设的根基,从多个维度进行安全评估可以达到“事半功倍”的效果。在分析的过程中结合数据生命周期各...
来自: 解决方案
数据总线Datahub
数据总线(DataHub)服务是阿里云提供的流式数据(Streaming Data)服务,它提供流式数据的发布(Publish)和订阅(Subscribe)的功能,拥有高吞吐量、高稳定性、低成本等特点,与阿里云大数据生态系统完美打通,让您可以轻松构建基于流式数据的分析和应用。
数据总线替换传统数据库,构建实时数仓.典型应用场景.脱胎于阿里内部实时传输系统,支持历年双十一,久经考验,稳定可靠.最高支持单主题(Topic)每日T级别的数据量写入,单个分片(Shard)支持最高每日百GB级别的写入量.随开随用,按量付费,用非常低的成本完成传输任务.源于飞天系统,与阿里云大数据系统深度整合,无缝对接...
来自: 云产品
基于Flink+ClickHouse构建实时游戏数据分析
基于Flink+ClickHouse构建实时游戏<em>数据</em>分析
在互联网、游戏行业中,常常需要对用户行为日志进行分析,通过数据挖掘,来更好地支持业务运营,比如用户轨迹,热力图,登录行为分析,实时业务大屏等。当业务数据量达到千亿规模时,常常导致分析不实时,平均响应时间长达10分钟,影响业务的正常运营和发展。 本实践介绍如何快速收集海量用户行为数据,实现秒级响应的实时用户行为分析,并通过实时流计算Flink/Blink、云数据库ClickHouse等技术进行深入挖掘和分析,得到用户特征和画像,实现个性化系统推荐服务。 通过云数据库ClickHouse替换原有Presto数仓,对比开源Presto性能提升20倍。 利用云数据库ClickHouse极致分析性能,千亿级数据分析从10分钟缩短到30秒。 云数据库ClickHouse批量写入效率高,支持业务高峰每小时230亿的用户数据写入。 云数据库ClickHouse开箱即用,免运维,全球多Region部署,快速支持新游戏开服。 Flink+ClickHouse+QuickBI
关键技术选型 1.1.ClickHouse vs Presto 面对海量的数据,我们如何进行数据库的选项,这里对比了开源的两种常见分析性 据库。ClickHouse对数据采用有序存储的方式,其核心思想是充分利用了磁盘批量顺序读写 的性能要远远高于随机读写的特征,并且结合 LSM tree的设计进一步进行优化,使得 写性能达到最优(可达到 200MB/S...
来自: 最佳实践 | 相关产品:云服务器ECS,弹性公网IP,实时计算,Quick BI,消息队列 Kafka 版,云数据库 ClickHouse
DTS数据同步集成MaxCompute数仓
DTS<em>数据</em>同步集成MaxCompute数仓
场景描述 本文Step by Step介绍了通过数据传输服务 DTS实现从云数据库RDS到MaxCompute的 数据同步集成,并介绍如何使用DTS和 MaxCompute数仓联合实现数据ETL幂等和数 据生命周期快速回溯。 解决问题 1.实现大数据实时同步集成。 2.实现数据ETL幂等。 3.实现数据生命周期快速回溯。 产品列表 MaxCompute 数据传输服务DTS DataWorks 云数据库RDS MySQL 版
数据抽取不幂等或容错率低,如凌晨 0:00启动的 ETL任务因为各种原因(数据库 HA切换、网络抖动或 MAXC写入失败等)失败后,再次抽取无法获取 0:00时的 状态。2.针对不规范设计表,如没有 create_time/update_time的历史遗留表,传统 ETL需 全量抽取。3.实时性差,抽取数据+重试任务往往需要 1-3小时。另外数据库数据...
来自: 最佳实践 | 相关产品:专有网络 VPC,云数据库RDS MySQL 版,数据传输,DataWorks,大数据计算服务 MaxCompute
数据湖构建 Data Lake Formation
数据湖构建服务是阿里云上数据湖架构中的核心部分,助力用户构建数据湖系统。支持多数据源实时入湖,实现湖上元数据统一管理,提供企业级权限控制,无缝对接多种计算引擎,打破孤岛,洞察业务价值
随着用户业务的逐渐清晰与沉淀,用户面临着数据湖和数据仓库架构的融合,依托于阿里云数据仓库(MaxCompute、Hologres、ADB等产品)和数据湖构建产品,帮助用户打造湖一体的数据系统,让数据和计算在湖和之间自由流动,从而构建一个完整的有机的大数据技术生态体系.数据湖构建产品提供用户全托管服务,仅需简单点击操作...
来自: 云产品
企业标准版数据分析解决方案
企业标准版数据分析解决方案通过实时数仓+离线数仓的组合方案,实现多源数据采集、集成、计算和展现,满足客户不同维度、不同查询时效性的要求,解决企业客户普遍会遇到的数据分析瓶颈,帮助业务决策,提升销售转化。
支持流式数据实时写入并在数据仓库中开展分析,满足秒级并发查询需求.支持流式采集和近实时分析.面向分析的企业级 SaaS 模式云数据仓库,预铺设的大规模集群资源支持弹性扩展.全托管的在线数据仓库服务.实时计算 Flink 版.企业标准版数据分析解决方案.离线大数据分析最佳实践>.互联网电商行业离线大数据分析.实时大数据分析...
来自: 解决方案
数据传输解决方案
数据传输解决方案支持关系型数据库、NoSQL、大数据(OLAP)等数据源间的数据传输。 它是一种集数据迁移、数据订阅及数据实时同步于一体的数据传输服务。数据传输致力于在公共云、混合云场景下,解决远距离、毫秒级异步数据传输难题。
实时数据仓库、实时搜索、数据汇总.跨境实时同步.轻量级业务解耦.架构覆盖场景.RPO:0-亚秒级.数据传输特性.数据传输服务DTS业务架构.产品功能特性.产品规格说明.创建数据迁移任务.创建数据同步作业.创建数据订阅通道.Oracle 迁移到 RDS for MySQL.MySQL实例间的数据同步.使用Kafka客户端消费订阅数据.电商行业业务及数据库...
来自: 解决方案
云原生数据湖分析DLA
阿里云云原生数据湖分析是新一代大数据解决方案,采取计算与存储完全分离的架构,支持对象存储(OSS)、RDS(MySQL等)、NoSQL(MongoDB等)数据源的消息实时归档建仓,提供Presto和Spark引擎,满足在线交互式查询、流处理、批处理、机器学习等诉求。内置大量优化+弹性,比开源自建集群最高降低50%+的成本,最快可1分钟级拉起300个计算节点,快速满足业务资源要求。
但自建数据仓库又需投入大量的软硬件资源、研发成本及运维成本.支持RDS一键建功能,海量数据快速查询分析。通过控制台的简单配置,即可完成数据同步导入OSS,将原来占用RDS计算资源的部分业务,迁移到数据湖分析+OSS上来,降低了对RDS业务的压力.丰富的生态支持,支持Microstrategy、MySQL Workbench等多种GUI管理工具...
来自: 云产品
异地双活场景下的数据双向同步
异地双活场景下的<em>数据</em>双向同步
概述 随着客户业务规模的扩大,对系统高可用性要求越来越高,越来越多用户采用异地双活/多活架构,多活架构往往涉及业务侧做单元化改造,本方案仅模拟用户已做单元化改造后的数据双向同步,数据库采用双主架构,本地写本地读,同时又保证双库的数据一致性,为业务增加可用性和灵活性。 适用场景 数据库双向同步 数据库全局ID不冲突 双活架构的数据库建设问题 技术架构 本实践方案基于如下图所示的技术架构和主要流程编写操作步骤: 方案优势 DTS双向同步,采用独立模块避免数据同步占用系统资源。 奇偶ID涉及,避免数据冲突。 DTS多种处理冲突的方式供业务选择。 安全:原生的多租户系统,以项目进行隔离,所有计算任务在安全沙箱中运行。
随着客户业务规模的扩大,对系统高可用性要求越 数据库双向同步 来越高,越来越多用户采用异地双活/多活架构,多 数据库全局 ID不冲突 活架构往往涉及业务侧做单元化改造,本方案仅模 双活架构的数据库建设问题 拟用户已做单元化改造后的数据双向同步,数据库 采用双主架构,本地写本地读,同时又保证双 一致性,为...
来自: 最佳实践 | 相关产品:云数据库RDS MySQL 版,负载均衡 SLB,容器服务 ACK,数据传输,云企业网,容器镜像服务 ACR,云解析DNS
Databricks数据洞察
阿里云Databricks数据洞察是基于Apache Spark的全托管数据分析平台, 内核采用更高效、稳定的商业版Databricks Runtime和Delta Lake。可满足数据分析师、数据工程师和数据科学家在大数据场景下对数据湖分析、实时数仓、离线数仓、BI数据分析、AI机器学习等需求
流批一体数据仓库.流批一体数据仓库.简化机器学习生命周期,快速进行模型测试、实验、以及生产部署,并可视化结果.Spark SQL/Data Frame进行的分布式的数据预处理,EDA和特征工程.利于Spark ML、ML相关模块做特征处理,进行ML/DL模型分布式训练.分布式模型训练.封装模型到Spark ML pipeline,以PMML或Mleap方式存放于OSS,...
来自: 云产品
数据集成 Data Integration
阿里云数据集成 Data Integration是跨异构数据、低成本、弹性扩展的数据采集同步平台,为DataX的商业版,支持ETL,支持50+数据源跨网络离线(全量/增量)同步。
随着金融行业发展,传统的离线数仓已经越来越难以满足业务的实时诉求,通过DataWorks构建实时数据仓库,推动行业大数据业务化运营转型.实时客户分析及精准推荐.实时营销活动分析及监控.构建客群标签画像,直观描述群体特征.减少重复营销成本,提高ROI.实时计算Flink版.数据总线DataHub.推荐搭配使用.为了快速数智化转型,...
来自: 云产品
新版产品集合页
基于丰富的产品,将计算、存储、网络、数据库、大数据、人工智能等最新产品技术与场景深度融合,为开发者打造稳定可靠的云基础设施以及云原生的开发环境。
数据库阿里云拥有国内强大且丰富的云数据库产品家族,涵盖关系型数据库、非关系型数据库数据仓库数据库生态工具四大版块,可以为企业数据生产和集成、实时处理、分析与发现、开发与管理提供全链路生命周期的服务。关系型数据库云原生数据库 PolarDB MySQL 版免费试用PolarDB 100%兼容 MySQL,交易和分析性能最高分别是...
来自: 云产品
互联网电商行业离线大数据分析
互联网电商行业离线大<em>数据</em>分析
电商网站销售数据通过大数据分析后将业务指标数据在大屏幕上展示,如销售指标、客户指标、销售排名、订单地区分布等。大屏上销售数据可视化动态展示,效果震撼,触控大屏支持用户自助查询数据,极大地增强数据的可读性。
 大数据开发治理平台DataWorks:基于阿里云ODPS/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖一体等解决方案提供统一的全链路大数据开发治理平台。作为阿里巴巴数据中台的建设者,互联网电商行业离线大数据分析 最佳实践概述 DataWorks从2009年起不断沉淀阿里巴巴大数据建设方法论,同时与万名政务/金融/零售/互联网/...
来自: 最佳实践 | 相关产品:云服务器ECS,云数据库RDS MySQL 版,DataWorks,大数据计算服务 MaxCompute,DataV数据可视化,API网关,云速搭CADT
云上大数据仓库解决方案
阿里云云原生大数据仓库,包含离线实时一体化数仓和实时数仓解决方案,为企业提供一站式云上智能开发、调度、服务、质量、安全的全链路服务。
基于云上提供的近乎无限计算和存储资源,结合云原生数据仓库 MaxCompute、实时计算 Flink 版、实时数仓 Hologres 以及数据开发与治理 DataWorks,打造一体化的新一代数据仓库架构,同时满足离线和实时分析需求.云原生数据仓库:资源弹性伸缩,计算存储分离.实时离线一体:一份数据同时支持离线ETL+实时分析+在线服务的多种...
来自: 解决方案
智能数据建设与治理Dataphin
Dataphin遵循阿里巴巴集团多年实战沉淀的大数据建设OneData体系(OneModel、OneID、OneService),集产品、技术、方法论于一体,一站式地为您提供集数据引入、规范定义、智能建模研发、数据萃取、数据资产管理、数据服务等的全链路智能数据构建及管理服务。助您打造属于自己的标准统一、资产化、服务化和闭环自优化的智能数据体系,驱动创新。
可视化数据仓库模型构建、物理任务全托管生产,分钟级自动化代码生成.数据资产化管理,全链路数据追踪和分析,提升数据价值.数据资产管理.自动聚合主题数据,所见即所得,高度简化查询与分析.基于业务场景划分数据板块和主题域,并进行概念模型设计.创建项目,对项目信息进行编辑和项目成员的管理.配置数据构建所需数据源,...
来自: 云产品
E-MapReduce Serverless StarRocks 版
E-MapReduce Serverless StarRocks版简称EMR StarRocks,是阿里云提供的全托管服务,内核100%兼容StarRocks,性能比传统OLAP引擎提升3-10倍,助力企业高效构建湖仓分析、高并发查询及实时分析等大数据应用。
一套系统解决多维分析、万级高并发查询、实时查询分析等场景,根据业务实时性要求统一管理数据仓库和数据湖,并提供多种数据模型.OLAP 统一分析.全托管免运维,极大降低运维成本及使用的复杂度,开箱即用,提供弹性伸缩、可视化监控运维、SQL Editor 及慢 SQL 分析等能力.企业级运维及易用性.兼容 MySQL 协议,兼容多种 BI ...
来自: 云产品
AnalyticDB MySQL湖版的用户运营分析实践
本方案只需一个湖仓版实例就能完成“数据入湖+作业开发+在线分析”的一站式用户运营数据分析,提供更高效的数据处理方案与更低的数据存储成本。
方案介绍AnalyticDB MySQL湖版的用户运营分析实践本架构将Kafka数据实时同步到云原生数据仓库AnalyticDB MySQL湖版,在AnalyticDB MySQL湖版中进行数据清洗、分分表、与云数据库RDS MySQL同步到AnalyticDB MySQL湖版的用户维度表进行多表关联聚合分析。最终在Quick BI呈现可视化的用户运营分析看板。解决问题:...
来自: 解决方案
EMR集群安全认证和授权管理 
EMR集群安全认证和授权管理 
场景描述 阿里云EMR服务Kafka和Hadoop安全集群使 用Kerberos进行用户安全认证,通过Apache Ranger服务进行访问授权管理。本最佳实践中以 Apache Web服务器日志为例,演示基于Kafka 和Hadoop的生态组件构建日志大数据仓库,并 介绍在整个数据流程中,如何通过Kerberos和 Ranger进行认证和授权的相关配置。 解决问题 1.创建基于Kerberos的EMR Kafka和 Hadoop集群。 2.EMR服务的Kafka和Hadoop集群中 Kerberos相关配置和使用方法。 3.Ranger中添加Kafka、HDFS、Hive和 Hbase服务和访问策略。 4.Flume中和Kafka、HDFS相关的安全配 置。 产品列表:E-MapReduce、专有网络VPC、云服务器ECS、云数据库RDS版
详见:https://web.mit.edu/kerberos/krb5-1.4/krb5-1.4.1/doc/krb5- admin/domain_realm.html [capaths]为了执行直接(非分层)跨领域身份验证,需要一个数据库来构造领域 之间的 身份 验 证路径,本节用于定 义该 据库。详见:https://web.mit.edu/kerberos/krb5-1.4/krb5-1.4.1/doc/krb5-admin/capaths.html 文档版本...
来自: 最佳实践 | 相关产品:专有网络 VPC,云服务器ECS,云数据库RDS MySQL 版,E-MapReduce
< 1 2 3 4 ... 8 >
共有8页 跳转至: GO
产品推荐
这些文档可能帮助您

新品推荐

切换为电脑版

新人特惠 爆款特惠 最新活动 免费试用