-
存储块大,吞吐量高,为存储大文件设计; 延迟高,不适合交互式访问,不支持多用户同时操作一个块。查看全部
-
HDFS特点:<br> 1、数据冗余,软件方式保证低成本硬件容错。<br> 2、流式读写(一次写入,多次读取,不可修改)。<br> 3、适合存储大文件(否则namenode消耗高,头大身小)。查看全部
-
Map reduce 的原理查看全部
-
HDFS的适用性和局限性查看全部
-
HDFS的特点查看全部
-
NAMENODE查看全部
-
MR-JOB查看全部
-
mapreduce查看全部
-
HDFS WRITE查看全部
-
namenode-datanode heartbeat查看全部
-
NAMENODE查看全部
-
mkdir examples //生成一个examples目录 cd examples //进入examples文件路径 mkdir word_count //生成word_count目录 cd word_count //进入word_count目录 mkdir input //用于存放提交的作业 mkdir word_count_class //用于存放编译好的类 vim WordCount.java // 编写好java程序后保存,资料下载里面有 javac -classpath /opt/hadoop-1.2.1/hadoop-core-1.2.1.jar:/opt/hadoop-1.2.1/lib/commons-cli-1.2.jar -d word_count_class/ WordCount.java //因为编译WordCount.java过程需要引用hadoop封装类,所以需要引用 jar -cvf wordcount.jar *.class //将当前目录下的所有class都打包进wordcount.jar文件中 cd .. //返回上级word_count目录 cd input vim file1 //编辑好file1 之后保存 ,file1里面为需要提交的作业 vim file2 // 类似 cd .. //返回到word_count目录 hadoop fs -mkdir input_wordcount //创建一个hadoop 目录,用于存放提交的作业 hadoop fs -put input/* input_wordcount //将本地的作业提交到input_wordcount目录中 hadoop fs -ls input_wordcount //查看文件是否在该目录下 hadoop jar word_count_class/wordcount.jar WordCount input_wordcount output_wordcount //提交jvm运行的jar,同时提交运行的主类,input..和out..分别用于保存提交的作业和运行结束的作业 .... .... .... 等待程序运行, ok查看全部
-
WordCount单词计数查看全部
-
hadoop的配置查看全部
-
管理整个hadoop生态集群 zookeeper查看全部
举报
0/150
提交
取消