为了账号安全,请及时绑定邮箱和手机立即绑定

hadoop学习笔记——基础知识及安装

1.核心

  HDFS 分布式文件系统
    主从结构,一个namenoe和多个datanode, 分别对应独立的物理机器
      1) NameNode是主服务器,管理文件系统的命名空间和客户端对文件的访问操作。NameNode执行文件系统的命名空间操作,比如打开关闭重命名文件或者目录等,它也负责数据块到具体DataNode的映射
      2)集群中的DataNode管理存储的数据。负责处理文件系统客户端的文件读写请求,并在NameNode的统一调度下进行数据块的创建删除和复制工作。
      3)NameNode是所有HDFS元数据的管理者,用户数据永远不会经过NameNode

  MapReduce 并行计算框架
    主从结构,一个JobTracker和多个TaskTracker
      1) MapReduce是由一个单独运行在主节点上的JobTacker和运行在每个集群从节点上的TaskTracker共同组成的。JobTacker负责调度构成一个作业的所有任务,这些任务分布在不同的从节点上。总结点监控他们的执行情况,
       并且重新执行之前失败的任务;从节点仅负责由主节点指派的任务
      2) MapReduce模型原理是利用一个输入的key/value对集合来产生一个输出的key/value队集合,使用Map和Reduce函数来计算
      3) MapReduce将大数据分解为成百上千小数据集,每个数据集分别由集群中的一个节点(一般是一台计算机)并行处理生成中间结果,后然这些中间结果又由大量的节点合并,形成最终结果

  1. 基础概念

  1)hadoop集群三种模式:本地模式(单机模式),伪分布模式,全分布式模式
    单机模式:没有守护进程,所有东西运行在jvm上,使用的是本地文件系统, 没有dfs,使用开发过程中运行mapreduce程序,是使用最少的一种模式
    伪分布模式:在一台服务器上模拟集群安装环境, 即多个进程运行在一个服务器上;使用与开发和测试环境,所有 守护进程在同一台机子上
    全分布式模式:N台主机组成一个Hadoop集群,Hadoop守护进程运行在每一台主机上;分布式模式中,主节点和从节点会分开
  
  2) 网络连接方式
    host-only:宿主机(windows)与客户机(虚拟机中的客户机)单独组网,与主机当前的网络是隔离的
    bridge:宿主机和客户机网络是连接的,在同一个局域网中,可以相互访问
    NAT(network address translation): 虚拟机不占用主机所在局域网ip,通过使用主机的NAT功能访问区域网和互联网,此种方式虚拟机不用设置静态ip,只需要使用DHCP功能自动获取ip即可(绝大多数上网使用此种方式)

  3)SSH 使用ssh进行免密码登陆
      产生秘钥: ssh-keygen -t rsa  
      目录:~/.ssh
      公钥拷贝:cp id_rsa.pub authorized_keys

  1. 伪分布式安装

  准备: ----关闭防火墙(内网中,安全性问题较小)
         查看状态:service iptables status
         关闭: service iptables stop
         关闭防火墙的自动启动: chkconfig -list grep iptables(查看)
                     chkconfig iptables off(关闭)

      ----修改ip (修改后 让其生效:server network restart, 然后使用ifconfig查看)
      ----修改hostname(/etc/sysconfig/network 更改主机名; etc/hosts 将主机名与ip地址绑定; )
      ----设置ssh自动登录(查看上面章节)
        ssh-keygen -t rsa
        cp id_rsa.pub authorized_keys
        验证 ssh localhost

  1. 安装jdk -----配置环境变量(/etc/profile java_home和path)----生效(source /etc/profile)---验证(java -version)
  2. 安装hadoop(tar -zxvf hadoop-1.1.2.tar.gz)---重名名(mv hadoop-1.1.2 hadoop)----配置环境变量(hadoop_home和path)----生效(source /etc/profile)
  3. 伪分布式集群:
    修改hadoop_home/conf下配置文件 hadoop-env.sh core-site.cml hdfs-site.xml mapred-site.xml
    
1.hadoop-env.shexport JAVA_HOME=/usr/local/jdk/2.core-site.xml<configuration><property><name>fs.default.name</name><value>hdfs://hadoop:9000</value></property><property><name>hadoop.tmp.dir</name><value>/usr/local/hadoop/tmp</value></property> </configuration>3.hdfs-site.xml<configuration><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.permissions</name><value>false</value></property></configuration>4.mapred-site.xml<configuration><property><name>mapred.job.tracker</name><value>hadoop:9001</value></property></configuration>
复制代码
    
    4. 启动
      hadoop namenode -format(格式化)
      start-all.sh
      使用jps查看进程
        JobTracker、DateNode、TaskTracker、SecondaryNameNode、NameNode
      网址栏中输入 hostname:50070 查看namenode信息
          输入 hostname:50030 产看mapreduce信息
      关闭: stop-all.sh
    

    
    

    

  1. 分布式安装

  1.规划集群各节点的功能
    两台主机 主机1 hadoop0 namenode ; 主机2 hadoop1 datanode

  2. 检查如下配置(同伪分布式安装):1)防火墙是否关闭 2)ip是否设置 3)主机名是否设置 4)/etc/hosts是否配置 5)自己主机的ssh免密码登录是否设置

  3. 集群间ssh免密码登录配置
    在hadoop0上执行:ssh-copy-id -l ~/.ssh/id_rsa.pub hadoop1 (当本机已经产生rsa authorization时, 通过ssh-copy-id 可以将认证传送到宿端主机)
    在hadoop1上执行:ssh-copy-id -l ~/.ssh/id_rsa.pub hadoop0
    使用ssh hadoop1验证

  4. 配置/etc/hosts文件
   例如在hadoop0的/etc/hosts文件中添加: 192.168.1.169 hadoop0
                        192.168.1.21 hadoop1
  5. 其他节点上jdk和hadoop的安装
   在hadoop0上执行:
   scp -rq /usr/local/jdk hadoop1:/usr/local (-r递归复制整个目录, -q不显示进度条)
   scp -rq /usr/local/hadoop hadoop1:/usr/local
   scp -rq /etc/profile hadoop1:/etc
   scp -rq /etc/hosts hadoop1:/etc
   source /etc/profile

  6. 配置集群
    hadoop0下 修改hadoop_home/conf/slaves(存储datanode和tasktracker节点名称),将localhost改为hadoop1

  7. 启动集群
    在hadoop0中执行hadoop namenode -format
             start-all.sh
             (关闭: stop-all.sh)

  8. jps查看进程
   hadoop0上 NameNode 、SecondarayNameNode、JobTracker进程
   hadoop1上 DataNode、TaskTracker

  9. 常见启动错误
   unknownHostException :设置主机名错误(查看/etc/sysconfig/network)
   BindException:ip设置错误(查看/etc/hosts)
   Name Node is in safe mode 文件系统在安全模式(分布式文件系统启动时,开始会有 安全模式,出于安全模式时文件系统中的内容不允许修改和删除,直至安全模式结束,安全模式是系统启动时检查各个datanode上数据块的有效性,可以等待一会或者关闭安全模式 hadoop dfsadmin -safemode leave)

点击查看更多内容
6人点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消