阿里流计算平台开发实例之电商双11实时计算

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介: 阿里流计算平台开发实例 DTS DATAHUB RDS DATAV
  由于之前没写过博客之类的文章,所以这次写也是心中揣揣,也是由于这个项目间没有找到相关的一些文档,当时就想着完成后写一个出来,如果有写的不周到的地方,请联系我改正,谢谢。

一、 项目案例
用户商业模式含盖电商零售与加盟店批发零售,本次主要业务需求在于淘宝双11期间能实时计算用户所关注的一些指标数据,如:订单数、订单金额、商品SKU数、订单来源地、商品排名等等。
基于这些指标需求,除了要达到实时的要求以外,还需要具备适当的展现图设计,本次使用的是阿里云的DATAV,提供饼状图占比分析、商品与类目数据排名、国家地图热力展示等等。
二、 技术架构
由于用户的数据在云下,我们考虑的首先是迁移数据上云,再通过DTS将数据同步至DATAHUB,接着使用阿里流计算开发平台接入DATAHUB数据,并开发流计算代码,将执行结果输出至RDS MYSQL,最后DATAV引用RDS数据并开发图形展现界面。最终设计的技术架构如下图所示:

图:流计算数据逻辑设计图
11

三、 技术实现
1、 数据迁移与数据同步:由于数据不能直接到DataHub,使用阿里云DTS工具先完成数据迁移至RDS,链接:https://dts.console.aliyun.com/ 。再使用其数据同步功能,将RDS数据同步至DataHub(注:RDS收费可包月、DTS收费按小时)。在数据同步环节需要注意,根据企业数据量的大小,调整数据传输的通道大小。另外DataHub会自动创建对应同步的表的Topic,所以不需要在同步前自建Topic,建了会报错。(注意系统生成的Topic与自建的有哪些不同)
2、 StreamComputer流计算开发:其开发方式和技术要求,相比传统的开源产品,要简单许多,而且流计算平台功能比较丰富,特别是监控系统。其链接地址是:https://stream.console.aliyun.com
2.1、datahub业务表的引用:
screenshot

注解说明:
a、 在流计算引擎中建一张表,该表的名称是什么,建议和DataHub上一致
b、 要引用到该表的哪些字段,建议不需要的字段不要引用
c、 系统自建的TOPIC,该字段纪录的是该行数据是更新还是插入还是删除
d、 流计算可以引用多种数据源,这里表明数据源类型
e、 固定写法
f、 DataHub上的项目名称
g、 DataHub上的topic名称
h、 DataHub默认保留三天内的业务数据,该时间指定流计算引擎从哪个时间点取数

  2.2、维表的引用:

screenshot

注解说明:
a、 该表的主键是什么,需要指定
b、 维表的固定写法,表明维表的更新时间(默认是多久?调整更新时间怎么弄?)。
注意该表的来源是rds,后面的连接方式和正常的MYSQL连接方式没什么区别。
2.3、数据输出表的写法和维表的写法基本一致,只是没有PERIOD FOR SYSTEM_TIME,要提前在RDS上建好即可。
2.4、应用脚本开发:将引用到的业务表与维表进行关联,将数据输出至目标表
111

注解说明:
a、和标准SQL没太大区别,主要就是维表的使用方式略有不同,不过也是固定写法,照抄就行。
注意:由于原始数据有插入、删除、更新三种动作,所以DataHub上也会有三种状态的数据,这就需要分别进行处理,否则数据会不准。
3、 DataV开发:此处省略,简单归纳即:托一个图形,写一个SQL。

四、项目预案
由于流计算可能存在的风险,我们考虑以传统的计算方式开发第二套方案,当流计算出故障时,能快速切换方案,保证数据基本能正常使用,可能延迟会大一些。
通过评估,由于数据量预计不会太大,考虑使用定时调存储过程的方式计算指标到第二套输出表上,再开发第二套报表,展现和第一套一致。设计图如下:
33

图:定期调任务刷数据

通过实际测试,大部份指标能在半分钟内甚至十秒内出来,所以这些延迟勉强可以接受。由于技术实现并不复杂,此处略过。

五、项目压测
为了保障数据爆发时,平台依然能稳定的工作,我们进行了相关的一些测试。首先模拟大量的数据产生,确认数据从本地库至RDS的同步时间,RDS至DATAHUB的时间,以及流计算所处理的时间。
通过多次的测验得出:当数据量持续比较大的情况下,数据会有一些延迟,性能瓶颈主要体现在RDS以及DTS同步至DATAHUB环节,其中后一步比较明显。而平台稳定性基本上是可以的,流计算的处理效率非常令人满意。

注:非常感谢这个项目期间阿里技术人员的大力协助!
相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
|
1月前
|
存储 SQL Java
阿里Flink云服务提供了CDC(Change Data Capture)功能
【2月更文挑战第10天】阿里Flink云服务提供了CDC(Change Data Capture)功能
34 1
|
11月前
|
jstorm 运维 分布式计算
|
11月前
|
存储 运维 Kubernetes
|
11月前
|
人工智能 运维 Cloud Native
|
存储 缓存 Java
阿里二面:Flink内存管理是如何实现的?
阿里二面:Flink内存管理是如何实现的?
276 0
阿里二面:Flink内存管理是如何实现的?
|
存储 SQL Web App开发
阿里一面:Flink的类型与序列化怎么做的
阿里一面:Flink的类型与序列化怎么做的
366 0
阿里一面:Flink的类型与序列化怎么做的
|
存储 运维 Kubernetes
阿里超大规模 Flink 集群运维体系介绍
以智能和云原生为技术内核,建设实时计算运维管控产品,来解决超大规模 Flink 集群运维和应用运维碰到的稳定、成本、效率三大难题。
阿里超大规模 Flink 集群运维体系介绍
|
SQL 机器学习/深度学习 分布式计算
40亿条/秒!Flink流批一体在阿里双11首次落地的背后
今年的双11,实时计算处理的流量洪峰创纪录地达到了每秒40亿条的记录,数据体量也达到了惊人的每秒7TB,基于Flink的流批一体数据应用开始在阿里巴巴最核心的数据业务场景崭露头角,并在稳定性、性能和效率方面都经受住了严苛的生产考验。本文深度解析“流批一体”在阿里核心数据场景首次落地的实践经验,回顾“流批一体”大数据处理技术的发展历程。
40亿条/秒!Flink流批一体在阿里双11首次落地的背后
|
流计算 算法 机器学习/深度学习
阿里重磅开源全球首个批流一体机器学习平台Alink,Blink功能已全部贡献至Flink
11月28日,Flink Forward Asia 2019 在北京国家会议中心召开,阿里在会上发布Flink 1.10版本功能前瞻,同时宣布基于Flink的机器学习算法平台Alink正式开源,这也是全球首个批流一体的算法平台,旨在降低算法开发门槛,帮助开发者掌握机器学习的生命全周期。
阿里重磅开源全球首个批流一体机器学习平台Alink,Blink功能已全部贡献至Flink

热门文章

最新文章