-
HDFS文件的读写操作
读操作:
客户端向NameNode发送文件读取请求
NameNode查询数据,将元数据返回给客户端
客户端根据元数据找到指定的Blocks
写数据:
首先客户端将文件差分为块,通知NameNode
NameNode会查询可用的DataNode信息返回给客户端
客户端对块进行写入
进行流水线复制,将写入的块复制到不同的的DataNode上面和不同的机架上
更新元数据,告诉NameNode文件的具体地址
查看全部 -
数据管理策略
数据块的管理:每个数据块有三个副本,分布在两个机架内的三个节点,以保证数据的安全性
心跳检测:nameNode和dataNode之间存在心跳检测,dataNode会定期向NameNode发送心跳信息
二级NameNode:是对NameNOde的一个备份,当然二者会存在数据同步,以保证在NameNode故障时,节点信息不会丢失
查看全部 -
HDFS的基本概念:
块:HDFS文件按照块进行存储,默认大小为64M,块是文件存储处理的逻辑单元
NameNode:存放文件的原数据,包含文件与数据块的映射表,数据块和数据节点的映射表
DateNode:存放真正的数据块
查看全部 -
linux环境下安装jdk之后的环境变量配置
查看全部 -
Hadoop的组成
包括两个核心组成:
HDFS:分布式文件系统,存储海量的数据
MapReduce:并行处理框架,实现任务的分解和调度
查看全部 -
为什么能够用来做分布式存储和分布式计算了,因为它里面有两个重要的核心组件一各自HD M I C H D F S主要用来做分布式文件的存储,还有一个是my Prince主要用来做并行计算。查看全部
-
主要做两个事情,一个是分布式存储一个是计算。查看全部
-
开源的分布式存储和计算、硬件的可靠性,没办法保障就,使用软件来保障可靠性。阿帕奇下面的一个项目。查看全部
-
HDFS特点
查看全部 -
HDFS适用与局限
查看全部 -
二级NameNode
查看全部 -
数据块副本
查看全部 -
心跳检测-
查看全部 -
Hadoop辅助工具
查看全部 -
Hadoop核心
查看全部
举报