-
三个配置文件查看全部
-
hadoop安装步骤: 1、安装JDK:apt-get install openjdk-7-jdk; 2、设置环境变量:JAVA_HOME、JRE_HOME、CLASSPATH、PATH 3、下载hadoop安装包并解压到指定目录下; 4、设置环境变量:HADOOP_HOME、PATH 5、修改相关配置文件$HADOOP_HOME/conf: 1)修改hadoop-env.sh,设置JAVA_HOME; 2)修改core-site.xml,设置hadoop.tmp.dir、dfs.name.dir、fs.default.name; 3)修改mapred-site.xml,设置mapred.job.tracker; 4)修改hdfs-site.xml,设置dfs.data.dir; 6、格式化:hadoop namenode -format; 7、启动:start-all.sh 8、检查:jps查看全部
-
查看是否运行查看全部
-
etc/查看全部
-
配置4个文件查看全部
-
配置java查看全部
-
hive可以直接将sql语句转化成hadoop任务,而无需其他复杂操作查看全部
-
Hive:hadoop生态系统中的一个开源工具查看全部
-
Google 的大数据 mapreduce 做的开源 hadoop查看全部
-
hadoop生态圈查看全部
-
Hadoop核心组成查看全部
-
google大数据技术查看全部
-
课程内容查看全部
-
hadoop生态系统: 1.hdfs 2.mapreduce 3.相关开源工具: (1)hive:将简单的sql语句转化为hadoop任务,降低使用hadoop的门槛 (2)HBASE:区别于传统数据库:存储结构化数据的分布式数据库,放弃事务特性,追求更高的扩展,它提供数据的随机读写和实时访问,实现对表数据的读写功能 (3)zookeeper:监控Hadoop集群里的每个节点的状态,管理整个集群的配置,维护数据节点之间的一致性 Hadoop版本最高2.6,初学者建议1.2(ver1.2-稳定)查看全部
-
Hadoop是开源的,分布式存储,分布式计算平台。包过两个核心组成部分:HDFS--分布式文件系统,存储海量数据;MapReduce--并行处理框架,实现任务分解调度。作用是:搭建大型数据仓库,PB级数据的存储、处理、分析、统计等业务。优势:高扩展,低成本(借鉴谷歌,软件容错),成熟生态圈(Hbase、Hive).Hadoop发展方向:开发、运维。查看全部
举报
0/150
提交
取消