高手如何实践HBase?不容错过的滴滴内部技巧

简介: HBase和Phoenix的优势大家众所周知,想要落地实践却问题一堆?replication的随机发送、Connection的管理是否让你头痛不已?本次分享中,滴滴以典型的应用场景带大家深入探究HBase和Phoenix,并分享内核改进措施。
摘要: HBase和Phoenix的优势大家众所周知,想要落地实践却问题一堆?replication的随机发送、Connection的管理是否让你头痛不已?本次分享中,滴滴以典型的应用场景带大家深入探究HBase和Phoenix,并分享内核改进措施。同时滴滴就如何实现稳定性与容量规划分享了众多内部技巧,不容错过!

本次直播视频精彩回顾, 戳这里! 

以下内容根据演讲嘉宾视频分享以及PPT整理而成。

本文将围绕一下几个方面进行介绍:
1. HBase特性应用与内核改进
2. Phoenix改进与实践
3. GeoMesa应用简介与展望
4. 稳定性&容量规划
 
一. HBase特性应用与内核改进
1. HBase在滴滴的典型应用场景
滴滴中有一些对HBase简单操作,例如Scan和Get。每一个操作可以应用于不同的场景,例如Scan可以衍生出时序和报表。时序可以应用到轨迹设计中,将业务ID、时间戳和轨迹位置作为整体建立时序。另外在资产管理中,将资产状态分为不同阶段,将资产ID、时间戳、资产状态等信息建立时序。Scan在报表中应用也非常广泛。其实现有多种方式,主流方法是通过phoenix,使用标准的SQL操作Hbase做联机事务处理,该方法中需要注意主键及二级索引设计。报表中会以用户历史行为、历史事件及历史订单为需求进行详细设计。
1718cd3b0d20236f3ca3e8d1adae43ade233f6c3
Get操作可以应用于HBase中存储的语音和滴滴发票等小文件中。最基本的应用方法为根据ID获取实体属性。更深入的例如可以应用于join操作,例如在实时计算中有多个数据流需要合并,此时的ID即为HBase中的rowkey。另例如业务上游存在多个数据源,需要将这多个数据源数据聚合至一个表中。
9caf27a7ba4164b19cfc789311302c3f072bfd83
此外,HBase中仍衍生出一些其他操作。互联网公司需求变化快速,介入业务方众多,可以通过动态列帮助实现这类需求。另有一些综合应用,例如图和Coprocessor。图包括用户自定义的图,可以自定义数据来源与数据分配。HBase集群中也接入了JanusGraph。Coprocessor主要应用于Phoenix和GeoMesa。
f8c79810149cf98061075b7b830c405154710eaf

2. replication 的应用与优化
假设原集群有三个主机:ReplicationSource01, ReplicationSource02, ReplicationSource03,目标集群有四个:RS01, RS02, RS03, RS04。若原集群发送replication请求,传统的逻辑会随机发送该请求。若目标集群的表存储在GROUP A中的两个主机上,但随机发送却有可能导致这两个主机接收不到replication请求,而是发送至和该业务无关的GROUP中。因此这里对此作出优化,对执行策略进行适当修改,将可能发送到其他集群的请求在原集群中进行匹配,获取目标集群GROUP的分配,使得请求可以发送至对应的GROUP主机中,防止影响其他业务。
3dd3328a82227a9c2d7cd98c52904f6c26464f1e
此外,未来希望在replication中增加table级别的信息统计,统计请求的连接错误信息,从用户角度进行优化。

3. Connection的管理与使用
基于滴滴如今的HBase版本,用户使用中会出现关于Connection的一些问题,例如建立了多个Connection后,对应的ZK也会非常多,因此需要对Connection进行管理。这里采用在RS中创建ClusterConnection来尽量减少Connection的创建。这会应用在Phoenix二级索引场景中,详情在Phoenix部分介绍。
 
4. ACL权限认证的优化 
ACL主要实现用户的用户名、密码与IP匹配的功能。此处创建了userinfo来存储用户密码信息,rowkey为用户名,CF(Column Family)为对应的密码。HBase:ACL这个表,在ZK中有/acl节点,类似的建立了userinfo节点。
a79c4d50153115ff51f899df2f50807f9f9975a9
bc84bc1c930bb7b01a1f0ea31dbd079a7e640d8f
下图所示为userinfo接入流程。最上方是用户客户端封装后的userinfo序列化信息,发送至服务器端,服务器通过AccessController进行一些操作,例如preGetOp, preDelete和prePut等。然后TableAuthManager进行权限判断。TableAuthManager类中会存储权限信息cache,当接收到新的userinfo时,首先会更新cache,供客户端访问时调用。传统cache只包含/hbase/acl信息,滴滴优化后增添了/hbase/userinfo信息。那么此时更新cache需要/acl信息和/userinfo信息进行Join()操作。
302b328d1dfad744a03bb9588cbd4b5cd425cacc
但是在使用原生/acl时也遇到一些问题,究其原因,还是需要减轻对zookeeper的依赖。
此外,滴滴还对其他方面进行了优化,包括RPC audit log, RSGroup, quota, safe drop table等。RPC audit log可以对用户请求量及错误信息进行分析。quato可以限制用户流量,例如限制用户对某个表每秒内可以执行多少次put操作。另外在drop table时,传统方式为直接清理表格内容,现优化为先存储一份快照再删除,防止误删操作。

二. Phoenix改进与实践
1. Phoenix原理与架构
Phoenix提供基于HBase的sql操作的框架,主要进行源数据的管理。在RegionServer3上存储着SYSTEM.CATALOG表,在每个RegionServer上有Coprocessor进行查询、聚合、二级索引的建立等操作。
cf4109f069ba1588c438d4fab33dc8b9b66c86e5
Phoenix client主要进行Connection管理,源数据管理,sql语法物理执行计划,并行Scan的发送与查询,对scanner进行封装。RegionServer中使用coprocessor较多。
56b2377a9986b636fd568e78761a8fa57e9e28f1

2. Phoenix重要业务支持——全量历史订单
接下来主要介绍滴滴基于一个Phoenix重要端上任务,历史订单查询,作出的优化改进。滴滴的APP端改进前可以查询三个月内的历史订单数据,如今已经达到全量历史订单数据,即理论上可以查询所有订单数据。系统稳定性可以达到SLA99.95%。除却HBase集群自身保证的监控和恢复措施外,二级索引写失败处理和业务增加二级索引问题也也作出了较好的改进。并且,滴滴对查询延迟要求也比较高,现使用JDBC客户端P99延迟已达到了30-40ms。在功能上也实现了在每个column都可以声明default值。

2.1 Index coprocessor改进
在稳定性的改进中,connection的管理至关重要。在HBase中,ZK较为脆弱,connection的数量过多会对ZK造成较大的压力。Phoenix传统写二级索引都是由Index coprocessor完成,当主表声明的Index较多时,会产生较多Region。ZK的连接数即为region数乘以index数量,这会导致可能一个表会包含几千个ZK。因此,为了解决这个问题,在RegionServer内部建立 ClusterConnection,所有Region都复用该ClusterConnection。
0351a7589963fa2f1e106e28aae28f5f23ff1a4c

2.2 TupleProjector性能优化
为了对客户端P99延迟进行优化,这里针对TupleProjector进行了改进工作。初始phoenix 进行一次Query compilePlan耗时150ms左右,这主要由于订单业务表多达130多个column,对每一个column进行get column expression都会耗时1ms,因此这总耗时对系统来说是难以容忍的消耗。对于上述类型的宽表,最有效的优化措施为配置并行处理。优化后P99可以达到35ms左右。
8db226847b47947fde96fccd1f251b2d86fe2c53

2.3 二级索引设计
Phoenix的Salting功能非常有效,但对延迟影响较大,因此若延迟要求较高,那么Salting则并不合适,所以这里在主表与索引表中不使用Salting功能,而是采用reverse将主键列散列。索引中使用Function Index和Function Index减少查询延迟。示例代码如下所示:
93666136c623d83a453fbd4e3a2866931c20c21f

2.4 Default值的坑
一般业务不会使用Default值,并且传统的Default设计存在很多bug。例如在声明Default列的二级索引中的写入错误,即试图写入新值时,真正写入的仍然是Default值。示例如下:
6bc630253cb21d4d76f136c397cb20a5bf126b72
这里有两种解决方案。一是在Index进行build之前,即在客户端时进行一些特殊处理。方法二为在生成索引表的源数据时对错误填写的值进行修改。
另一处bug例如在建立异步二级索引生成rowkey和Indexer build rowkey不一致,导致在索引查询数据时double。具体原因是PTablempl.newKey对Default值的列逻辑上存在bug。示例如下:
1c4d2e841877928d86c393ba8ed1f6cb4f860f33

2.5 性能压测
在进行上述优化后,分别通过Java-JDBC和Java-queryServer查询进行性能压测。结果如下:
5fa67aa2f5f07d6e7ac48e9650419ce815dde9cd
其他非Java语言会通过Go-queryServer查询,压测P99结果会比Java语言稍慢。

2.6 二级索引策略
在传统逻辑中,若Indexer二级索引写失败,则直接disable二级索引表,然后rebuild,但这在线上是不可用的。因此,滴滴采取关闭自动rebuild和disable进行改进。那么关闭自动rebuild和disable后如何感知写失败呢?此时需要定时查询RegionServer log实时收集的ES,然后调用异步二级索引Partial rebuild来进行修补。当主表数据量较大时,进行异步全量二级索引时可能会split大量的maptask,超出master的承受范围。因此需要改进split逻辑,对某些task进行合并。当这些改进完成,就可以提供较为稳定的支持。
ccf302c5c5776e573544b8019b1a37f922314166

2.7 集群升级对二级索引写入影响
当出现集群升级时,二级索引写入肯定会失败,该如何将该影响降至最低呢?如果将主表和索引表部署在一起,那么一台机器升级,所有机器都会出现写失败。前文中也提到,滴滴在HBase中增添了GROUP功能,那么便可以将主表和索引表分开,部署在不同GROUP中,降低集群升级的影响。如下图所示:
0620e7b4c828246baff2fa41d4cb29a32f65fe4c

三. GeoMesa应用简介与展望
1. GeoMesa架构原理
滴滴最近开始对GeoMesa展开调研,暂未取得丰富的线上经验。GeoMesa是基于分布式存储、计算系统上的大规模时空数据查询分析引擎。即在存储时可以选择存储区域,数据输入也可以包含多种形式,如spark kafka等。架构如下图所示:
5234544fe9ed54fff4c0cbe3787d4905c5236598
GeoMesa对地理时空信息进行索引有着极大的优势。以HBase为例,GeoMesa可以将二维或三维数据映射至一维存储,Geohash是较为常见的编码方式。这种索引方法属于点索引,如今使用较为广泛。具体示例如下图所示:
ea2d178c3553afd4fade026c9c8f03a4511e01c1
Geohash方法是将经纬度等高维地理时空数据进行01编码映射到一维。首先将维度置于奇数位,经度为偶数位,通过base32生成字符串,降为一维,具体过程见下图:
bb0027920d9848e16271329b3a49f3fb78c21070
Geohash的理论基础为Z-order曲线。但Z-order曲线存在突变性,即当地理位置距离非常远,但编码后的逻辑位置可能会产生连续的现象,如下图。因此,通过Geohash查询到的结果会比真正需要的结果数量差异较大,会有很多无效结果。
7905d8102e5e342bbdbe617b016a16f6fb2950c4
aabab23580cba3ca9e24bd09df98de08516d0908
这会造成上图中,某些点编码前缀相同,但实际地理位置却相差较远,而与实际地理位置较近的编码前缀并不相同。

2. GeoMesa应用
GeoMesa经常应用于热力图绘制。滴滴使用其进行行车轨迹记录,即查询某时间段某区域内经过的车辆。以及对轨迹点加工,通过矢量路径分析拥堵等。日后希望将XZ-order线和多边形索引应用至滴滴的业务场景中去。
ba2e955b90dc69279423efde2c6533dad59f6a8b
滴滴也将GeoMesa进行了可视化,具体详见视频。
833adc9e12b7aa12365aacf4cf84ca0210f5ead7

3. GeoMesa未来展望
基于上述Z-order曲线的突变性问题,未来希望可以基于希尔伯特空间填充曲线编码生成索引。因为希尔伯特空间填充曲线含有地理空间局部性特征,因此一维曲线上离得越近的点在2D空间离得越近。这个特性对Scan具有较好的适用性。此外,GeoMesa中的plan耗时较长,平均每次耗时90ms,未来希望可以进行优化。

四. 稳定性&容量规划
为了达到稳定性与容量规划,滴滴主要进行了以下工作。
首先是机器规划。其中主要从三个维度进行考虑:每秒读写量、平均流量和存储空间。每秒的读写量影响服务读写能力,平均流量会影响服务读写能力和磁盘IO,而存储空间对应其磁盘空间。若每秒读写量太大,会影响该服务的GC及网络流量等。若需要的存储空间比磁盘的总存储空间要大,那么服务也会受到影响。因此这里可以通过压力测试和DHS统计,将这三个维度进行综合比较,计算机器容量规划。同时,也可以根据上述信息,完成集群的GROUP划分规划。
  c1ca40984ba98bb6da4d854c227d106fd79c0044
其次,还对HBase的一些指标进行监控,根据监控情况判断用户服务是否处于健康状态。出现故障时,也可以根据监控排查问题。这里不再赘述,其中一监控效果如下:
902f796877a32143ff5aa6271eaa8f77488f87ae
滴滴目前的工作流程大致为,当用户接入时,先预估请求量,进行压力测试,检查后进行上线。上线后业务经常会发生变化,例如发展较好数据量增加等,此时会循环进行一些操作,如根据监控数据自动提示优化线上业务,或者人工定期检查或用户反馈来进行优化。后续工作是希望可以达到自动化模式,即利用监控数据,优化线上服务,自动发现空闲节点和可优化的GROUP。
3728baf0867e60d331cdd728c2632125e3b69f2a
同时,滴滴也建立了DHS(Didi HBase Service)平台,接入了用户需求,可以可视化信息、自动验证,帮助用户了解服务状态。如今正致力于以更少的人工计算,统计上述更细致的服务相关信息,帮助管理员了解用户使用方式。
20cea46be26f757b963e9c920570fea6d0bc078a

本文由云栖志愿小组郭雪整理,编辑不与




相关实践学习
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
1月前
|
SQL 关系型数据库 MySQL
Sqoop【付诸实践 01】Sqoop1最新版 MySQL与HDFS\Hive\HBase 核心导入导出案例分享+多个WRAN及Exception问题处理(一篇即可学会在日常工作中使用Sqoop)
【2月更文挑战第9天】Sqoop【付诸实践 01】Sqoop1最新版 MySQL与HDFS\Hive\HBase 核心导入导出案例分享+多个WRAN及Exception问题处理(一篇即可学会在日常工作中使用Sqoop)
94 7
|
分布式数据库 Hbase
|
分布式数据库 Hbase
|
NoSQL 数据挖掘 分布式数据库
《第十二届 BigData NoSQL Meetup — 快手HBase在千亿级用户特征数据分析中的应用与实践》电子版地址
第十二届 BigData NoSQL Meetup — 快手HBase在千亿级用户特征数据分析中的应用与实践
94 0
《第十二届 BigData NoSQL Meetup — 快手HBase在千亿级用户特征数据分析中的应用与实践》电子版地址
|
分布式数据库 Hbase
|
存储 分布式计算 Hadoop
大数据开发笔记(十):Hbase实践
(要求先配置好hadoop环境,版本hadoop2皆可,先启动zookeeper)
112 0
|
存储 监控 安全
HBase集群多租户实践
HBase集群多租户实践
402 0
HBase集群多租户实践
|
存储 缓存 容灾
HBase可用性分析与高可用实践
HBase可用性分析与高可用实践
256 0
HBase可用性分析与高可用实践
|
分布式计算 IDE Java
【小白视角】大数据基础实践(四) 分布式数据库HBase的常用操作
目录 1. 环境配置 2. 操作步骤: 2.1 环境搭建 2.2 Hbase Shell 2.3 Java Api 3. 结论 最后 1. 环境配置 ⚫ 操作系统:Linux(建议 Ubuntu18.04); ⚫ Hadoop 版本:3.1.3; ⚫ JDK 版本:1.8; ⚫ Java IDE:IDEA; ⚫ Hadoop 伪分布式配置 ⚫ HBase1.1.5
195 0
【小白视角】大数据基础实践(四) 分布式数据库HBase的常用操作
|
存储 分布式计算 Oracle
Hbase迎接电信TB级大数据洗礼之热点网站功能实践
在今年年初的时候联通王志军院长就Hadoop在电信行业的大数据应用谈了自己的经验,随着3G网络的发展中国联通目前运营着世界上最大的CDMA网络,流量运营是中国联通一个重要特点。中国联通3G套餐当中流量占比非常非常大,中国联通3G用户流量使用情况也是非常可观的。那么在3G网络功能中上网冲浪占了很大的比例,去研究用户感兴趣的热点网站成为了行为分析中很有特点的一项功能,联通就可以根据这些网站信息推出增值服务,古人云:大浪淘沙始到金啊!
192 0