-
Hadoop的核心组成: HDFS:分布式文件系统,存储海量的数据 MapReduce:并行处理框架,实现任务分解和调度查看全部
-
流式数据访问,写一次,读多次查看全部
-
hadoop.tmp.dir 是hadoop文件系统依赖的基础配置,很多路径都依赖它。如果hdfs-site.xml中不配 置namenode和datanode的存放位置,默认就放在这个路径中查看全部
-
记得学习查看全部
-
hdfs-site.xml 配置: <configuration> <property> <name>dfs.data.dir</name> <value>/hapoop/data</value> </property> </configuration>查看全部
-
core-site.xml 配置: <configuration> <property> <name>hapoop.tmp.dir</name> <value>hapoop</value> </property> <property> <name>dfs.name.dir</name> <value>/hapoop/name</value> </property> <property> <name>fs.default.name</name> <value>hdfs://imooc:9000</value> </property> </configuration>查看全部
-
添加本机JAVA环境变量: export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk.x86_64 export JRE_HOME=$JAVA_HOME/jre export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH wq保存退出之后,执行source /etc/profile 即时生效查看全部
-
进入hadoop下的conf目录,有四个文件需要进行配置: mapred-site.xml core-site.xml hdfs-site.xml hadoop-env.sh查看全部
-
下载hadoop: wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz查看全部
-
安装好JDK之后,设置JAVA环境变量。 但是本机环境是centos6.5,系统已经有JDK各个版本的,环境最高版本是1.7.0,而 java-1.7.0-openjdk-1.7.0.25.x86_64 java-1.7.0-openjdk-1.7.0.9.x86_64 java-1.7.0-openjdk.x86_64 java-openjdk ,不知道哪个比较合适呢?查看全部
-
zookeeper的作用: 1)监控hadoop每个节点的状态 2)管理整个集群的配置 3)维护节点间数据的一致性查看全部
-
zookeeper:动物管理员——给动物喂食查看全部
-
hadoop的小碗查看全部
-
HIVE查看全部
-
Hadoop人才需求量大: 1、开发人才 2、运维人才查看全部
举报
0/150
提交
取消