-
一脸懵逼查看全部
-
hardoop源自谷歌mapreduce, 谷歌mapreduce源自目标降低成本,手段:小型pc整合与容错的解决。查看全部
-
目标,理论+实践查看全部
-
(1) start -all.sh 启动hadoop (2)rz把某某.java类放到根目录下/opt/根目录下边或者根目录下任意文件 cd / mkdir project_hadoop/ rz 类路径添加 (3)cd 新创建的文件,创建file1和file2 mkdir input vi file1 vi file2 ls project_hadoop (4)创建文件 hadoop fs -mkdir input_wordcount (5)创建目录:hadoop fs -mkdir input 查看文件: hadoop fs -ls hadoop fs -ls input_wordcount (6)把file1和file2文件放到input_wordcount 提交输入文件给hadoop hadoop fs -put 文件路径 提交后的路径 例:hadoop fs -put input/* input_wordcount/ (7)查看文件 hadoop fs -ls input_wordcount fs -cat input_wordcount/file1 fs -cat input_wordcount/file2 (8)编译java文件 javac -classpath /opt/hadoop-1.2.1/hadoop-core-1.2.1.jar:/opt/hadoop-1.2.1/lib/commons-cli-1.2.jar -d 编译后地址 编译文件 (9)打包指令 jar -cvf 打包后文件名.jar 某某.class jar -cvf wordcount.jar *.class (10)提交jar给hadoop执行 hadoop jar jar包路径 执行的主函数名(主类名,main方法所在类名) 输入目录名 输出目录名 例:hadoop jar project_hadoop/wordcount.jar WordCount input_wordcount output_wordcount (11)查看通过算法计算出单词个数的结果 fs -cat output_wordcount/part-r-00000查看全部
-
hadoop组成查看全部
-
配置文件的内容能不能讲得详细明白一点,一脸懵逼查看全部
-
MapReduce作业执行过程查看全部
-
mapred-site.xml配置查看全部
-
hdfs-site.xml配置查看全部
-
core_site.xml文件的配置查看全部
-
Hive HBase查看全部
-
hadoop是谷歌开源实现的查看全部
-
Hive Hbase查看全部
-
环境变量 /etc/profile查看全部
-
hadoop的下载地址。查看全部
举报
0/150
提交
取消