-
hadoop 分布式存储(HDFS)+分布式计算(MapReduce) HDFS :64MB的基础块组成的存储(数据量大时也可以128MB乃至更大) MapReduce:并行计算框架查看全部
-
HDFS写入文件的流程查看全部
-
HDFS读取文件流程: 1. 向NameNode发起请求 2. NameNode返回元数据 3. 客户端读取block查看全部
-
1. 每个数据块3个副本,分布在两个机架内的三个节点(DataNode) 2. DataNode 定期向NameNode发送心跳信息。看看是否依然active 网络是否断开 3. SecondaryNameNode(二级NameNode)定期同步元数据映像文件和修改日志,NameNode发生故障时,以供使用查看全部
-
DatNode是HDFS中的工作节点,存放数据块查看全部
-
NameNode是管理节点,存放文件元数据查看全部
-
Block: HDFS将文件按照块进行存储,固定大小64MB查看全部
-
配置任务调度器该如何访问:mapred-site.xml查看全部
-
配置hdfs-site.xml 配置文件系统中数据的存放目录查看全部
-
配置core-site.xml查看全部
-
1. 在hadoop-env.sh中配置java_home查看全部
-
需要进行配置的文件查看全部
-
HDFS 分块存储数据 64M 最小数据单元查看全部
-
Hive和HBase是工具; HBase是一个非关系形数据库查看全部
-
(c)查看全部
举报
0/150
提交
取消