-
datanode是数据节点,用来存放真正的数据块的查看全部
-
nameNode 是管理节点,存放元数据的,所谓元数据即:文件与数据块的映射表,数据快与数据节点的映射表查看全部
-
nameNode 是管理节点,用来读取元数据的 DataNode是数据节点,用来存储数据的查看全部
-
Linux常用命令查看全部
-
Linux指令命令查看全部
-
要点。查看全部
-
下载hadoop安装包命令查看全部
-
通俗易懂MapReduce!!!!!!!!!!!!! 《我是如何向老婆解释MapReduce的?》 http://blog.jobbole.com/1321/查看全部
-
1.编写WordCount.java,包含Mapper类和Reducec类 2.编译WordCount.java,java -classpath #资料下载里面有 3.打包 jar -cvf WordCount.jar classes/* 4.作业提交 hadoop jar WordCount.jar WordCount input output 提交到hadoop中运行,指定输入文件 ,指定输出文件 演示: jps #查看是否运行 1.vim WordCount.java # 资料下载里面有 2.javac -classpath /opt/hadoop-1.2.1/hadoop-core-1.2.1.jar:/opt/hadoop-1.2.1/lib//commons-cli-1.2.jar -d word_count_class/ WordCount.java #word_count_class/WordCount.java为编译的路径和编译后的文件 cd word_count_class ls #查看编译后的文件 3.jar -cvf WordCount.jar *.class #打包 4.提交文件 hadoop fs -mkdir input_wordcount #创建文件夹 hadoop fs -put input/* input_wordcount/ #把input下的文件提交到 input_wordcount文件夹 hadoop fs -cat input_wordcount/file1 #查看 hadoop jar word_count_class/wordcount.jar WordCount input_wordcount output_wordcount #对jar包中的主函数WordCount 指定参数输入input_wordcount和输出output_wordcount hadoop fs -ls output_wordount #查看运行结果 hadoop fs cat output_wordcount/part-r-00000 #查看提交的结果查看全部
-
HDFS特点查看全部
-
Hadoop组成查看全部
-
GOOGLE查看全部
-
没听懂查看全部
-
MapReduce作业执行过程查看全部
-
MapReduce原理并行计算查看全部
举报
0/150
提交
取消