HBase in Practice:性能、监控及问题解决

栏目: 数据库 · 发布时间: 4年前

HBase in Practice:性能、监控及问题解决

DataFun社区

大数据、算法的交流学习平台 圈内人都在关注

HBase in Practice:性能、监控及问题解决   HBase in Practice:性能、监控及问题解决

HBase in Practice:性能、监控及问题解决

本文 根据阿里巴巴高级技术专家李钰(Yu Li) 老师在中国HBase技术社区第二届MeetUp:“HBase技术解析及应用实践”中分享的《HBase in Practice-性能、监控及问题解决》编辑整理而成,在未改变原意的基础上稍做整理。

HBase in Practice:性能、监控及问题解决

李钰 (Yu Li) 老师

HBase in Practice:性能、监控及问题解决

今天分享主要从两个大的部分介绍,第一部分会讲一些性能优化的知识,针对 IO 的性能优化,不同版本值得注意的性能问题 / 优化;第二部分将监控应该关注哪些指标以及在日志里面如何做问题排查。

HBase in Practice:性能、监控及问题解决

首先讲一下针对 IO性能优化 每个厂商 IO硬件性能都不一样, 在云上应用 HBase也有很多不同的硬盘类型可以选择。 针对不同的硬件,需要利用的功能和注意的问题也不一样。如 HDD,它的IO能力比较弱,很容易打爆 HDD架设HBase要避免磁盘被打爆,HBase提供了很多方法,第一个就是 Compaction 限流,基本思想就是限制它每秒能写出的数据量,在 1.1.0版本以上才能使用,对于1.3.0版本分界线以上以下配置不同,具体配置如上图所示。你可以设置其吞吐 的上限和下限,也可以设置平峰期的限制。我们进行限流肯定一般是在高峰期,在平峰期没有必要,也或者平峰期你有没有其他的应用,有时也会跑一些其他的应用,如spark等。Flush限流是在1.3.0版本以上支持的,其实主要的IO来源就是 Compaction和Flush 配置与 Compaction比较像 值得注意的是限流不能过低 如果过低 Compaction的H F ile数就降不下来 block StoreF ile s 默认值是 20,如果超过20,flush就会delay,内存会膨胀,如果膨胀超过一定区域就会block ing  update,会出现写入延迟阻塞。因此两者限流需要依据实际限流,不能限流过低。

HBase in Practice:性能、监控及问题解决

另外一个在 HDD上比较适合是Per-CF Flush,在1.1.0版本以上就支持,默认配置是flush all stores,当main Store的大小达到设定阀值,就会将所有的CF都flush出来。但是有些CF文件比较小,会出现浪费io,另外刷出很多小文件需要compaction,对磁盘也会有影响。因此出现了 Per-CF Flush ,在 1.1.0版本以上可以用,从1.1.0-2.0实质是设置了一个下限,如果CF文件在main Store时超过16M就将其flush,没有超过就不flush。后续在社区基础上做了改变,将默认值改为flush大小除以CF的个数,这样的问题有可能出现CF过多,因此也会有下限值控制,也是16M。使用这个功能也需要注意,开启这个功能有很多数据是不flush,但是如果出现故障,replay的数据会变多,在HBase中有个参数 optionalcacheflushinterval ,可以设置过多长时间强制 flush一次,还有一个flush prechanges,就是有多少change就flush一次;一个默认值是1小时,后面是3千万。

HBase in Practice:性能、监控及问题解决

第三个方案是多盘,多盘在社区 1.0版本就有多log的功能。如果在自己的机器上,服务器都是12块硬盘,如果用一个 WAL( write ahead log) HDFS是三个副本,虽然能将吞吐打满,三个副本需要三个盘,无法使用完,IO能力没充分利用。解决方式就是用多个 WAL ,一个 region server配置4个 WAL ,测试性能会提升 20%。版本低于1.2.0:replication存在问题,   hbase.wal.provider -> multiwall , hbase.wal.regiongrouping.strategy - > bounded ,根据盘数设置 hbase.wal.regiongrouping.numgroups 。需要注意写多少 WAL 是依据你的盘确定, IO能力是否充足。

HBase in Practice:性能、监控及问题解决

SSD在HBase里面也有很好的支持,SSD对性能的优化分为两个部分,一方面是读,另一方面是写。影响写的性能就是 WAL 的写, SSD能很大的降低其响应时间,在用SSD时也可以用Multi WAL,其写入性能比单WAL提升40%以上。从读方面来说,在CF可以设置 Storage Policy, 但该功能在 2.0版本上才有。对不同的CF设置不同的 Storage Policy( ONE_ SSD, ALL_ SSD ), 设置多 CF的原因是数据的冷热程度是不一样的。Bulkload也需要支持Storage Policy配置,如果生成的文件都是HDD,会影响读取的性能。

需要注意的是如果 使用 ONE_ SSD 策略 需要允许 HDFS client优先读远程SSD上的副本,但是未合入社区版本,需要手动backport。对于 混合磁盘环境(既有 SSD又有HDD) WAL策略可以是 ONE_ SSD,对CF级别也可以是 ONE_ SSD。值得注意的是SSD也需要开启限流。

HBase in Practice:性能、监控及问题解决

不同版本有一些尤其值得注意的性能问题。比如 Merge MVCC   and   SequenceId 引发的性能问题 branch-1.0 不要使用 1.0.3 以下版本, branch-1.1 不要使用 1.1.3 以下版本。高负载下写入性能瓶颈 :   如果线上发现 大量 handler wait WALKey#get Write Entry ,建议升级到 1.4.0 以上版本 ASYNC_WAL 写入性能提升尤其明显   在读 性能 方面 ,如果用的是 Bucket Cache,在高并发读取单key 时存在 性能问题,在 1.2.0以上版本可以解决。如果远程读SSD,需要考虑网络开销, ONE _SSD 策略 + HDFS远程读 开销尤其大。

HBase in Practice:性能、监控及问题解决

HBase in Practice:性能、监控及问题解决

接下来讲一下问题排查,首先是 RPC相关监控: Server 响应时间, Server 处理时间,请求排队时间。 Total Call Time 记录的是请求到达你的 R egionServer开始到server请求完结束,不包含发送结果的时间。 如果 业务 端发现 HBase 请求 延迟 但是 server 端延迟相关监控数据看起来没问题 ,这种情况需要 业务 debug客户端 的问题,例如是否 业务程序 GC,或者客户端 是不是 网络出口存在 拥塞。 Total Call Time 等于 ProcessCall Time 加上 QueueCall Time, 请求到达 server是先进入一个队列,如果 handler 不繁忙, QueueCall Time 会很短,但是如果 server很繁忙active handler数很满, Queue C all T ime 会很长,请求是从队列出来后处理。 Active Handler 1.4.0版本以前是没有读写分离监控的。读写分离的好处就是 Handler 打满到底是读出问题还是写出问题就可以很容易监控。 RPC队列长度也可以判断机器是否出问题了,RPC连接数很高也是消耗系统资源。上图是我们监控指标图, 通过毛刺 就可以推测 哪台 机器可能 存在 问题。

请求相关指标对 debug很重要,Put请求latency,Get请求latency,Scan请求latency等这些都会监控。 需要 说明 是对 latency 监控, HBase 出问题到底是文件系统出问题了还是 R egionServer出问题了 应该是个常见问题 ,因为底层会有一个文件系统,文件系统 故障 的话 HBase 肯定会受影响,因次对于 put来说 要监控 WAL   sync   latency, 对于 get要监控 HDFS   pread   latency Scan请求 监控 HDFS  read latency。对于 HDFS   pread /read   latency 的监控指标 需要 1.4.0版本以上 才有 。如果发现 Get请求latency很高, HDFS   pread   latency 也很高,那么基本确定 HDFS 毛刺问题 。否则就必须 p 999 RegionServer 一一排查。

HBase in Practice:性能、监控及问题解决

第三个就是内存相关的指标, GC 相关的监控指标 对于排查问题作用未必很大 (是否存在 GC问题更多的是查GC日志更有效果) ,但是可以监控整体情况。 P ause Time Without GC 不是进程 GC导致的问题时,在1.4.0版本以上会发现一些日志的,这个时候需要关注一些系统的指标, 如内存整理 有可能导致 整个系统 hang住 ,或者资源瓶颈 ,比如 CPU 打满等,都会导致进 程堵塞。再一个就是对 Block Cache/MemStore  Size 的监控,如何监控 Hfile数过多,一方面可以监控block ing   update的 频率,另一方面是看 MemStore Size是否变 大了。 Block Cache 1.3.0版本以上可以区分data和meta命中率,meta block命中率一般都很高,访问频率也很高, 如果不区分开 meta和data,cache 命中率有可能是假的。 比如 从我们线上的观察来看, 真实的 data block命中率在65%,但是meta命中率基本是100%。

HBase in Practice:性能、监控及问题解决

如果看到一个 regionserver  handler 打满了,需要看 regionServer单机指标。如region大小,这个指标引起cache的命中率,get和写操作数,看topN 些请求非常高, handler打满,get时间非常高,可以查询 region访问过多,有些情况是访问值超过正常值导致的,因此可以通过表找到问题去解决。再一个就是compaction队列长度和flush队列长度。

如何发现 stale的Region Server,如果出现坏盘,请求卡在IO上一直无法返回,响应时间相关指标无法捕捉,在total call time中无法体现。还有就是你的 p 999 数值很好但是机器已经出问题,因为出问题的请求没有汇报给 server,另外如果机器资源耗尽,新的请求无法连接server,从响应时间等server metrics上也体现不出来。因此 我们 做了一个增强 health check,定期向自己发请求并设置超时时间,失败超过一定概率报警 。这个功能 暂时 还没有 贡献回社区,处于 in progress 状态 后续会完成。其实会出现一个情况就是系统资源耗尽,但是已经启动的线程可以运行,但是无法启动新的线程,就是一台机器已经不能服务,但是 master还是可以服务。

HBase in Practice:性能、监控及问题解决

接下来讲一下日志的排查,首先关于慢请求。如发现一个 server的999时间很长,第一反应是登陆该台 R egionServer查看日志,尤其是response T oo S low日志,但是老版本是不会打印任何有关processingtime row 具体信息的, 因此请关注 HBASE-16033/HBASE-16972 这两个 JIRA 会打印详细信息 前面一个 截图 是对普通请求 后面一个 截图 是对 scan 。经常会看到 scan超时等这些信息都是很重要的。branch-1.1要求1.1.8以上,branch-1.2要求1.2.5以上,或1.3.0以上版本。在自己的版本还做了一些事情,但是 暂时 没有 Upstream 到社区, 比如 对于 慢请求, 如何区分是 long process time还是long queue T ime,因为一个long process time会导致一系列的long queue T ime。如果不区分会看到很多response TooSlow,但是你并不知道出现的问题是什么。当然还需要设置阈值,超过多长时间才算慢请求,我们是超过10秒才算慢请求,这个可以自己配置。 那如果请求处理 时间很接近但未到达 10秒,比如 8秒 对于这种慢请求怎么 debug? 这时需要去 region Server上 截取 jstack ,去查看 handler线程wait在什么地方,wait的地方出现了多少。

HBase in Practice:性能、监控及问题解决

Client端也有些日志也是非常重要的, 大部分版本 对于 single请求打印 很全,但是要注意 batch 。列出的 JIRA branch-1.1要求1.1.6以上,branch-1.2要求1.2.3以上,或1.3.0以上版本) 在有慢请求时,去打印具体是哪个 region,还有目前运行在哪个server上,或者在batch请求异常时打印异常的batch栈 客户端还有其他 一些很 好的机制, 比如 hbase客户端 可以 配置 backoff policy,就是通过 R egionServer的region load判断是否需要sleep一段时间 ,这样在 server繁忙期间不会发送大量的请导致情况恶化

后续有机会可以讨论如何排查 GC 、内存泄漏等复杂问题,如何定位疯狂访问 RS 的问题客户端应用,如何规避 HDFS 故障对 HBase 的影响, 2.0 黑科技在线上应用可能踩的坑,升级 HBase 版本有哪些必须的准备以及线上升级操作有哪些注意事项。

HBase in Practice:性能、监控及问题解决

——END


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

计算机程序设计艺术(第3卷)

计算机程序设计艺术(第3卷)

Donald E.Knuth / 苏运霖 / 国防工业出版社 / 2002-9 / 98.00元

第3卷的头一次修订对经典计算机排序和查找技术做了最全面的考察。它扩充了第1卷对数据结构的处理,以将大小数据库和内外存储器一并考虑;遴选了精心核验的计算机方法,并对其效率做了定量分析。第3卷的突出特点是对“最优排序”一节的修订和对排列论与通用散列法的讨论。一起来看看 《计算机程序设计艺术(第3卷)》 这本书的介绍吧!

JSON 在线解析
JSON 在线解析

在线 JSON 格式化工具

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具