腾科大数据培训_Hbase为什么容量大速度快

新人帖[复制链接]
发表于 : 2019-5-6 10:34:51 最新回复:2019-05-06 10:44:35
165 1
Tog020
Tog020  

  腾科大数据培训_Hbase为什么容量大速度快

  引言

  HBase被誉为超级大型分布式的数据库,适合于存储大表数据(表的规模可以达到数十亿行以及数百万列),并且对大表数据的读、写访问可以达到实时级别。为什么HBase可以存储那么大量的数据呢,为什么Hbase这么大型的数据可以实时读取。

  Hbase介绍

  HBase是一个面向列、可伸缩、高可靠性、高性能的分布式存储系统,同时也叫做分布式的数据库。利用HBASE技术可在廉价PC Server上搭建起大规模结构化存储集群。HBASE的目标是存储并处理大型的数据,更具体来说是仅需使用普通的硬件配置,就能够处理由成千上万的行和列所组成的大型数据。

  Hbase 架构

大数据培训

  Habse写数据流程

  ① 客户端发起请求

  ② 通过ZooKeeper寻找到meta表所在RegionServer

  ③ meta表中记载着各个User Region信息(rowkey范围,所在RegionServer),通过meta表寻找所要写入的Region所在RegionServer

  ④ 请求按RegionServer和Region打包发送到Region所在RegionServer,由该RegionServer具体处理数据写入

  habse读数据流程

  ① 客户端发起请求

  ② 通过ZooKeeper寻找到meta表所在RegionServer

  ③ meta表中记载着各个User Region信息(rowkey范围,所在RegionServer),通过rowkey查找meta表,获取所要读取的Region所在RegionServer

  ④ 请求发送到该RegionServer,由其具体处理数据读取

  ⑤ 数据读取返回到客户端

  为什么HBase可以存储那么大量的数据呢

  利用Hadoop HDFS(Hadoop Distributed File System)作为其文件存储系统,提供实时读写的分布式数据库系统。

大数据培训

  从上图了解到,如果你掌握了hadoop中的hdfs分布式文件系统,就很容易理解hbase为什么能存储大量的数据。Hbase本身就是利用hadoop中的hdfs作为它的存储系统。

  为什么Hbase这么大型的数据可以实时读取

大数据培训

  很明显habse是把一个超级大的表,进行分割成一块一块的数据,然而这一块一块都会带着rowkey,把这一块一块的数据存储到hadoop中的datanode数据节点中,这样我们就保证大数表的数据被分成一个一个很小的表,从而数据库要读一个小表,那是多么简单的事情,所以超级大表实现秒级也是可能的。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?注册

x
  • x
  • 常规:

点评 回复

跳转到指定楼层
KTgaty
KTgaty   发表于 2019-5-6 10:44:35 已赞(0) 赞(0)

腾科大数据培训_Hbase为什么容量大速度快-2928677-1
  • x
  • 常规:

点评 回复

发表回复
您需要登录后才可以回帖 登录 | 注册

警告 内容安全提示:尊敬的用户您好,为了保障您、社区及第三方的合法权益,请勿发布可能给各方带来法律风险的内容,包括但不限于政治敏感内容,涉黄赌毒内容,泄露、侵犯他人商业秘密的内容,侵犯他人商标、版本、专利等知识产权的内容,侵犯个人隐私的内容等。也请勿向他人共享您的账号及密码,通过您的账号执行的所有操作,将视同您本人的行为,由您本人承担操作后果。详情请参看“隐私声明
如果附件按钮无法使用,请将Adobe Flash Player 更新到最新版本!
登录参与交流分享

登录参与交流分享

登录