为了账号安全,请及时绑定邮箱和手机立即绑定

认识Hadoop--基础篇

Kit_Ren Linux系统工程师
难度初级
时长 1小时22分
学习人数
综合评分9.17
211人评价 查看评价
9.4 内容实用
9.1 简洁易懂
9.0 逻辑清晰
  • HIVE 可将SQL语句转化为hadoop的命令,降低hadoop使用的门槛
    查看全部
  • 1.编写WordCount.java,包含Mapper类和Reducec类 2.编译WordCount.java,java -classpath #资料下载里面有 3.打包 jar -cvf WordCount.jar classes/* 4.作业提交 hadoop jar WordCount.jar WordCount input output 提交到hadoop中运行,指定输入文件 ,指定输出文件 演示: jps #查看是否运行 1.vim WordCount.java # 资料下载里面有 2.javac -classpath /opt/hadoop-1.2.1/hadoop-core-1.2.1.jar:/opt/hadoop-1.2.1/lib//commons-cli-1.2.jar -d word_count_class/ WordCount.java #word_count_class/WordCount.java为编译的路径和编译后的文件 cd word_count_class ls #查看编译后的文件 3.jar -cvf WordCount.jar *.class #打包 4.提交文件 hadoop fs -mkdir input_wordcount #创建文件夹 hadoop fs -put input/* input_wordcount/ #把input下的文件提交到 input_wordcount文件夹 hadoop fs -cat input_wordcount/file1 #查看 hadoop jar word_count_class/wordcount.jar WordCount input_wordcount output_wordcount #对jar包中的主函数WordCount 指定参数输入input_wordcount和输出output_wordcount hadoop fs -ls output_wordount #查看运行结果 hadoop fs cat output_wordcount/part-r-00000 #查看提交的结果
    查看全部
  • 很多问题其实在JDK环境配置时就有了,并且很多情况就是JAVA_HOME路径错了
    查看全部
  • hadoop提供了shell命令对hdfs系统进行操作
    查看全部
    1 采集 收起 来源:HDFS使用

    2017-09-23

  • hadoop安装及配置: 1.下载hdoop按照包并进行解压 2.配置hdoop-env.sh文件,目的是配置jdk,并在profile配置haddoop的安装位置 3.配置core-site.xml文件:hdoop的核心文件,里面有关于hdoop的节点端口与主机端口 4.配置hdfs-site.xml文件:hdoop的文件存储的基本信息与目录 5.配置mapred-site.xml文件:hadoop的计算节点的端口号 6.启动hadoop:start-all.sh 7.查看端口:jps,可以看到五大守护进程说明正确 8.停止hdoop:stop-all.sh
    查看全部
  • Linux 下下载安装JDK (centos) 1、下载 : yum install java-1.7.0-openjdk 查看可升级下载的软件包 yum search java|grep jdk 2、配置环境变量: vim /etc/profile export JAVA_HOME=/jdk路径 export JRE_HOME=$JAVA_HOME/jre export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/lib:$JRE_HOME/lib:$PATH jdk 路径可以用locate 搜索一下 located 用之前要updatedb 一下更新数据 3、让配置生效 source /etc/profile 4、测试 java -version 用yum 好像不用配置环境变量也行。。。。不过我配置了。 谁知道准确的麻烦私信我一下。。。谢谢QAQ
    查看全部
  • mapred.site.xml <configuration> <property> <name>mapred.job.tracker</name> <value>imooc:9001</value> </property> </configuration>
    查看全部
  • <!-- core-site.xml --> <property> <name>hadoop.tmp.dir</name> <value>/hadoop</value> </property> <property> <name>dfs.name.dir</name> <value>/hadoop/name</value> </property> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property>
    查看全部
  • 设置环境变量
    查看全部
    1 采集 收起 来源:安装小结

    2017-06-30

  • 1.创建目录:hadoop fs -mkdir input 2.查看文件: hadoop fs -ls hadoop fs -ls input_wordcount 3.编译java文件 javac -classpath /opt/hadoop-1.2.1/hadoop-core-1.2.1.jar:/opt/hadoop-1.2.1/lib/commons-cli-1.2.jar -d 编译后地址 编译文件 4.打包指令 jar -cvf 打包后文件名.jar 某某.class 5.提交输入文件给hadoop hadoop fs -put 文件路径 提交后的路径 例:hadoop fs -put input/* input_wordcount/ 6.提交jar给hadoop执行 hadoop jar jar包路径 执行的主函数名(主类名,main方法所在类名) 输入目录名 输出目录名 例:hadoop jar word_count_class/wordcount.jar WordCount input_wordcount output_wordcount
    查看全部
  • 下载hadoop: wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz core-site.xml -------------------------------------- <property> <name>hadoop.tmp.dir</name> <value>/hadoop</value> </property> <property> <name>dfs.name.dir</name> <value>/hadoop/name</value> </property> <property> <name>fs.default.name</name> <value>hdfs://imooc:9000</value> </property> </configuration> ~ ~ --INSERT-- hdfs-site.xml--------------------------------------------------------------- <property> <name>dfs.date.dir</name> <value>/hadoop/date</value> </property> mapred-site.xml--------------------------------------------------------------------- <configuration> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> </configuration>
    查看全部
  • vim /etc/profile 的时候一定要把Hadoop_home配置在path前面,不然变量拿不到,hadoop命令无效
    查看全部
  • HDFS写入文件的流程
    查看全部
  • HDFS读取文件流程
    查看全部
  • 读写首先都是通过namenode查询
    查看全部

举报

0/150
提交
取消
课程须知
本课程需要童鞋们提前掌握Linux的操作以及Java开发的相关知识。对相关内容不熟悉的童鞋,可以先去《Linux达人养成计划Ⅰ》以及《Java入门第一季》进行修炼~~
老师告诉你能学到什么?
1、Google的大数据技术 2、Hadoop的架构设计 3、Hadoop的使用 4、Hadoop的配置与管理

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!