为了账号安全,请及时绑定邮箱和手机立即绑定

HBase架构核心模块

标签:
Hadoop

Hbase物理模型架构体系

 

webp

hbase工作流程

HRegionServer负责打开region,并创建HRegion实例,它会为每个表的HColumnFamily(用户创建表时定义的)创建一个Store实例,每个Store实例包含一个或多个StoreFile实例。是实际数据存储文件HFile的轻量级封装,每个Store会对应一个MemStore。写入数据时数据会先写入Hlog中成功后在写入MemStore中。Memstore中的数据因为空间有限,所以需要定期flush到文件StoreFile中,每次flush都是生成新的StoreFile。HRegionServer在处理Flush请求时,将数据写成HFile文件永久存储到HDFS上,并且存储最后写入的数据序列号。

Client 

      整合HBase集群的入口

      使用HBase RPC机制与HMaster和HRegionserver通信

      与HMaster通信进行管理类的操作

      与HRegionserver通信进行读写类操作

      包含访问hbase 的接口,client 维护着一些cache 来加快对hbase 的访问,比如regione 的位置信息

Zookeeper

       保证任何时候,集群中只有一个running master,Master与RegionServers启动时会向ZooKeeper注册默认情况下,HBase 管理ZooKeeper 实例,比如,启动或者停止ZooKeeperZookeeper的引入使得Master不再是单点故障

存贮所有Region 的寻址入口

       实时监控RegionServer 的状态,将Regionserver 的上线和下线信息,实时通知给Master

       存储Hbase的schema和table元数据

Master

        管理用户对Table的增删改查操作

        在RegionSplit后,分配新region的分配

        负责regionserver的负载均衡,调整region分布

        在RegionServer停机后,负责失效Regionserver上region的重新分配

        HMaster失效仅会导致所有元数据无法修改,表达数据读写还是可以正常运行

Region Server

        Regionserver维护region,处理对这些region的IO请求

        Regionserver负责切分在运行过程中变得过大的region

        由上图可以看出,client 访问hbase上数据的过程并不需要master 参与,寻址访问先zookeeper再regionserver,数据读写访问regioneserver。

        HRegionServer主要负责响应用户I/O请求,向HDFS文件系统中读写数据,是HBase中最核心的模块。

物理存储

 

webp

 1.table中的所有行都是按照rowkey的字典排序

      2.table在行的方向上分割为多个Region

      3.Region按大小分割,每个表开始只有一个region,随着数据增多,region不断增大,但到达阈值时,region就会分割成两个新的region,因此region会越来越多。


webp

 4.region是hbase中分布式存储和负载均衡的最小单元,不同的regioon分布到不同的regionserver上,但Region不会拆分到不同的Region Server上。

Table 在行的方向上分割为多个HRegion,一个region由[startkey,endkey)表示


Region是分布式存储的最小单元,但不是存储的最小的单元。

       1. region由一个或多个Store组成,每个Store保存一个columnfamily

       2. 每个Store又由一个memStore和0个或多个StoreFile组成

       3. memStore存储在内存中,StoreFile存储在HDFS上

Table中Region内部结构


 1.一个表会按照行(看数据量)划分为若干个region每一个region分配给一台特定的regionserver管理

       2.每一个region内部还要依据列族划分为若干个HStore

       3.每个HStore中的数据会落地到若干个HFILE文件中

       4.region体积会随着数据插入而不断增长,到一定阈值后会分裂

       5.随着region的分裂,一台regionserver上管理的region会越来越多

       6.HMASTER会根据regionserver上管理的region数做负载均衡

       7.region中的数据拥有一个内存缓存:memstore,数据的访问优先在memstore中进行

       8.memstore中的数据因为空间有限,所以需要定期flush到文件storefile中,每次flush都是生成新的storefile

9.storefile的数量随着时间也会不断增加,regionserver会定期将大量storefile进行合并(merge)

StoreFile

       

 Data Block段–保存表中的数据,这部分可以被压缩

        Meta Block段 (可选的)–保存用户自定义的kv对,可以被压缩。

        File Info段–Hfile的元信息,不被压缩,用户也可以在这一部分添加自己的元信息。

        Data Block Index段–Data Block的索引。每条索引的key是被索引的block的第一条记录的key。

        Meta Block Index段 (可选的)–Meta Block的索引。

        Trailer–这一段是定长的。保存了每一段的偏移量,读取一个HFile时,会首先读取Trailer,Trailer保存了每个段的起始位置(段的Magic Number用来做安全check),然后,DataBlock Index会被读取到内存中,这样,当检索某个key时,不需要扫描整个HFile,而只需从内存中找到key所在的block,通过一次磁盘io将整个 block读取到内存中,再找到需要的key。DataBlock Index采用LRU机制淘汰。

       HFile的Data Block,Meta Block通常采用压缩方式存储,压缩之后可以大大减少网络IO和磁盘IO,随之而来的开销当然是需要花费cpu进行压缩和解压缩。

目标Hfile的压缩支持两种方式:Gzip,Lzo。

HFile格式

 

 HFile文件长度不固定,长度固定的块只有两个:Trailer和FileInfo

Trailer中指针指向其他数据块的起始点,它是在持久化数据到文件结束时写入的,即确定为不可变的存储文件。

File Info中记录了文件的一些Meta信息,例如:AVG_KEY_LEN,AVG_VALUE_LEN, LAST_KEY, COMPARATOR, MAX_SEQ_ID_KEY等

Data Index和Meta Index块记录了每个Data块和Meta块的起始点

Data Block是HBase I/O的基本单元,为了提高效率,HRegionServer中有基于LRU的Block Cache机制。

每个Data块的大小可以在创建一个Table的时候通过参数指定,大号的Block有利于顺序Scan,小号Block利于随机查询.

每个Data块除了开头的Magic以外就是一个个KeyValue对拼接而成, Magic内容就是一些随机数字,目的是防止数据损坏。

        HFile里面的每个KeyValue对就是一个简单的byte数组。这个byte数组里面包含了很多项,并且有固定的结构。

KeyValue格式


KeyLength和ValueLength:两个固定的长度,分别代表Key长度和Value的长度,因此可以忽略键直接访问,用户可以实现在数据中跳跃。

Key部分:Row Length是固定长度的数值,表示RowKey的长度,Row 就是RowKey,Column Family Length是固定长度的数值,表示Family的长度接着就是Column Family,再接着是Qualifier,然后是两个固定长度的数值,表示Time Stamp和Key Type(Put/Delete)

Value部分没有这么复杂的结构,就是纯粹的二进制数据

Zookeeper的作用

 

webp

 1.HBase依赖ZooKeeper,默认情况下,HBase管理ZooKeeper(开启和关闭)

        2.Master与RegionServer启动时会向Zookeeper注册。

        3.Zookeeper的引入使得Master不再是单点故障。

Redion定位

 

webp

 寻找RegionServer

             1.ZooKeeper(可以找到ROOT表的位置)

             2. -ROOT-(只会存储在一个region上,从ROOT表上找到.META表的位置)

             3..META(存储了用户世实际存储的位置,如用户表)

             4.用户表

        -ROOT-

              1.表包含.META.表所在的region列表,该表只会存储在一个表中

              2.ZooKeeper中记录了-ROOT-表的location

        .META:表包含了所有用户空间region列表,以及RegionServer的服务器地址

        因此访问流程为Client访问用户数据之前需要首先访问zookeeper,然后访问-ROOT-表,接着问.META.表,最后才能找到用户数据的位置去访问。

HBase容错性

        Master容错:Zookeeper重新选择一个新的Master

             1.无Master过程中,数据读取仍照常进行;

             2.无master过程中,region切分、负载均衡等无法进行;

        RegionServer容错:定时向Zookeeper汇报心跳,如果一旦时间内未出现心跳,

             1.Master将该RegionServer上的Region重新分配到其他RegionServer上,

             2.失效服务器上“预写”日志由主服务器进行分割并派送给新的RegionServer

        Zookeeper容错:Zookeeper是一个可靠地服务,一般配置3或5个Zookeeper实例

Write-Ahead-Log 

 

webp

 Write-Ahead-Log  该机制用于数据的容错和恢复:

         每个HRegionServer中都有一个HLog对象,HLog是一个实现Write Ahead Log的类,在每次用户操作写入MemStore的同时,也会写一份数据到HLog文件中(HLog文件格式见后续),HLog文件定期会滚动出新的,并删除旧的文件(已持久化到StoreFile中的数据)。

         当HRegionServer意外终止后,HMaster会通过Zookeeper感知到,HMaster首先会处理遗留的 HLog文件,

将其中不同Region的Log数据进行拆分,分别放到相应region的目录下,然后再将失效的region重新分配,领取到这些region的HRegionServer在Load Region的过程中,会发现有历史HLog需要处理,因此会Replay HLog中的数据到MemStore中,然后flush到StoreFiles,完成数据恢复

        Write-Ahead-Log(WAL)预写日志

           1.Client向RegionServer端提交数据的时候,会优先写WAL日志(WAL),当WAL日志写入成功后,Client才会被告知提交数据成功,如果写入WAL失败,会告诉客户端提交失败。可以通过WAL日志恢复失败的数据。

           2.一个Regionserver上所有的Region都共享一个HLog,一次提交先写WAL,在写memStore。



作者:Alukar
链接:https://www.jianshu.com/p/4a1a86b738f7


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消