为了账号安全,请及时绑定邮箱和手机立即绑定

认识Hadoop--基础篇

Kit_Ren Linux系统工程师
难度初级
时长 1小时22分
学习人数
综合评分9.17
211人评价 查看评价
9.4 内容实用
9.1 简洁易懂
9.0 逻辑清晰
  • Hadoop可以用来搭建大型数据仓库,PB级数据的存储、处理、分析、统计等业务

    优势:

    • 高扩展(基于框架增加硬件实现)

    • 低成本(不依赖于高端机,只需要PC机,利用软件容错确保可靠性)

    查看全部
  • 一.安装jdk

    二.配置hadoop的配置文件

       1.mapred-site.xml 配置文件

    •  mapred.job.tracker mapred 访问路径

        2.core-site.xml 配置文件 需要修改的

    • hadoop.tmp.dir  临时工作目录

    • dfs.name.dir 原数据目录

    • fs.default.name 文件系统地址和端口号

      3.hdfs-site.xml 

    • dfs.data.dir 存放文件块的一个目录

    4.hadoop-env.sh

    • 配置java_home的安装路径

    三.格式化format

    hadoop namenode -format

    四.启动hadoop

    start-satrt-all.sh

    五.用命令jps查看进程

    • JpbTracker

    • Jps

    • SecondaryNameNode

    • NameNode

    • DataNode

    • TaskTracker




    查看全部
    1 采集 收起 来源:安装小结

    2019-03-13

  • JobTracker

    作业调度 

    分配任务、监控任务执行进度

    监控TaskTracker的状态

    TaskTrack

    执行任务

    汇报任务状态

    查看全部
  • HDFS  MapReduce  开源工具(hive)

    hive就是可以把你的sql语句转化成一个hadoop任务执行(降低了使用hadoop的门槛)

    hbase是存储结构化数据的分布式数据库(和传统的关系型数据库的区别是放弃事务特性,追求更高的扩展)(和HDFS的区别就是habse提供数据的随机读写和实时访问,实现对表数据的读写功能)

    zookeeper是监控hadoop集群的状态,管理节点间的配置,维护数据的一致性。


    查看全部
  • Hadoop是一个开源的分布式存储和分布式计算平台

    Hadoop的组成:两个核心组成,1.HDFS:分布式文件系统,存储海量数据 2.MapReduce: 并行处理框架,实现任务分解和调度

    Hadoop可以用来搭建大型数据仓库,PB级数据的存储、处理、分析、统计等业务

    Hadoop的优势:1.高扩展,在次级框架下通过硬件提升性能和容量

    2.低成本,3.成熟的生态圈,Hadoop工具组成生态圈

    查看全部
  • hadoop可以用来搭建大型数据仓库,PB级数据的存储、处理、分析、统计等业务。

    优势:1、高扩展 , 2、低成本,3、成熟的生态圈

    高可靠性。Hadoop按位存储和处理数据的能力值得人们信赖。

    高扩展性。Hadoop是在可用的计算机集簇间分配数据并完成计算任务的,这些集簇可以方便地扩展到数以千计的节点中。

    高效性。Hadoop能够在节点之间动态地移动数据,并保证各个节点的动态平衡,因此处理速度非常快。

    高容错性。Hadoop能够自动保存数据的多个副本,并且能够自动将失败的任务重新分配。

    低成本。与一体机、商用数据仓库以及QlikView、Yonghong Z-Suite等数据集市相比,hadoop是开源的,项目的软件成本因此会大大降低。


    查看全部
  • HDFS  MapReduce  开源工具(hive)

    hive就是可以把你的sql语句转化成一个hadoop任务执行(降低了使用hadoop的门槛)

    hbase是存储结构化数据的分布式数据库(和传统的关系型数据库的区别是放弃事务特性,追求更高的扩展)(和HDFS的区别就是habse提供数据的随机读写和实时访问,实现对表数据的读写功能)

    zookeeper是监控hadoop集群的状态等

    查看全部
  • 5762748500011ada01000100-40-40.jpg

    qq_为了美好的明天

    centos下有所不同

    1、下载 : yum install java-1.7.0-openjdk


    2、配置环境变量 vim /etc/profile

    export JAVA_HOME=/jdk路径

    export JRE_HOME=$JAVA_HOME/jre

    export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

    export PATH=$JAVA_HOME/lib:$JRE_HOME/lib:$PATH

    3、让配置生效source /etc/profile

    4、输入 java -version 进行测试


    查看全部
  • hdfs-site.xml配置 <property> <name>dfs.data.dir</name> <value>/opt/hadoop-1.2.1/data</value> </property>
    查看全部
  • CentOS 上安装jdk,使用方式yum 1.查看yum库中都有哪些jdk版本(暂时只发现了openjdk) [root@localhost ~]# yum search java|grep jdk 2.选择版本,进行安装 //选择1.7版本进行安装 [root@localhost ~]# yum install java-1.7.0-openjdk* //安装完之后,默认的安装目录是在: /usr/lib/jvm/ 3.设置环境变量 [root@localhost ~]# vi /etc/profile 在profile文件中添加如下内容 #set java environment JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.121-0.b13.el7_3.x86_64 PATH=$PATH:$JAVA_HOME/bin CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export JAVA_HOME CLASSPATH PATH 让修改生效 [root@localhost java]# source /etc/profile
    查看全部
  • wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz hadoop 下载地址
    查看全部
  • linux
    查看全部
  • 代码其实在hadoop的安装目录下有example,一般的目录是/hadoop/src/examples//org/apache/hadoop/examples/WordCount.jar 源代码 http://hadoop.apache.org/docs/r1.0.4/cn/mapred_tutorial.html
    查看全部
  • HDFS使用:它提供了 shell 接口,可以进行命令行操作 hadoop namenode -format #格式化namenode hadoop fs -ls / #打印 / 目录文件列表 hadoop fs -mkdir input #创建目录 input hadoop fs -put hadoop-env.sh input/ #上传文件 hadoop-env.sh 到 input 目录下 hadoop fs -get input/abc.sh hadoop-envcomp.sh #从 input 目录中下载文件 hadoop fs -cat input/hadoop-env.sh #查看文件 input/hadoop-env.sh hadoop dfsadmin -report #dfs报告
    查看全部
    1 采集 收起 来源:HDFS使用

    2017-12-16

  • hadoop安装及配置: 1.下载hdoop按照包并进行解压 2.配置hdoop-env.sh文件,目的是配置jdk,并在profile配置haddoop的安装位置 3.配置core-site.xml文件:hdoop的核心文件,里面有关于hdoop的节点端口与主机端口 4.配置hdfs-site.xml文件:hdoop的文件存储的基本信息与目录 5.配置mapred-site.xml文件:hadoop的计算节点的端口号 6.启动hadoop:start-all.sh 7.查看端口:jps,可以看到五大守护进程说明正确 8.停止hdoop:stop-all.sh ========================================================= 1、安装hadoop wget 安装包路径 wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz 2、解压hadoop压缩包 tar -zxvf 压缩包全称(包括后缀名) 3、opt目录下 conf 下 vim hadoop-env.sh修改配置: 找到#export JAVA_HOME=路径名 修改为export JAVA_HOME=安装好的JDK(配置的JAVA_HOME) 4、修改配置文件 vim core-site.xml 在<configuration>中添加配置 <property> <name>haddoop.tmp.dir</name> </property>
    查看全部

举报

0/150
提交
取消
课程须知
本课程需要童鞋们提前掌握Linux的操作以及Java开发的相关知识。对相关内容不熟悉的童鞋,可以先去《Linux达人养成计划Ⅰ》以及《Java入门第一季》进行修炼~~
老师告诉你能学到什么?
1、Google的大数据技术 2、Hadoop的架构设计 3、Hadoop的使用 4、Hadoop的配置与管理

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!