为了账号安全,请及时绑定邮箱和手机立即绑定

Hadoop基础及演练

难度初级
时长 1小时 6分
学习人数
综合评分9.30
51人评价 查看评价
9.4 内容实用
9.1 简洁易懂
9.4 逻辑清晰

讲师回答 / 叁金
种一棵树最好的时间是十年前,其次是现在。与君共勉!

讲师回答 / 叁金
使用bash hdfs dfs -ls /   或者 ./hdfs dfs -ls /我视频里面能直接使用hdfs命令是因为我添加了HADOOP_HOME的环境变量,并将其bin目录添加到了PATH内。你也可以在~/.bashrc里面添加export HADOOP_HOME=xxxxexport PATH=xxx/bin:$PATH
老师讲得太好了!
python3里面,itemgetter要从operator导入
二级NameNode机制:
SecondaryNameNode定期同步NameNode的内容,当NameNode发生故障时,SecondaryNameNode转正

讲师回答 / 叁金
这跟使用场景有关系,它适用于一次写入多次读取的场景。本身的设计就是这样。

最新回答 / Eternal_Nirvana
就是从文件首部开始 读取长度为len(data)的数据
思路清晰,浅显易通,老师讲得很好,终于知道这几个是什么了,感谢

讲师回答 / 叁金
我的是ubuntu14.04    自己用习惯了  安装东西太多懒得升级。   可以选用最新的,祝顺利~

最赞回答 / 鬈崮
http://www.powerxing.com/install-hadoop/ http://www.powerxing.com/install-hadoop-cluster/ 看过的最好的教程,没有之一。两个网站一起看,都是一个人写的,但是有先后顺序。一次搭建成功。
非常清晰,作为入门课,完全可以打10分。谢谢老师
谢谢老师,继续努力
对于小文件问题,Hadoop本身也提供了几个解决方案,分别为:Hadoop Archive,Sequence file和CombineFileInputFormat
影响MapReduce的主要因素有以下几个:
硬件(或者资源)因素,如CPU时钟、磁盘I/O、网络带宽和内存大小。
底层存储系统。
输入数据、分拣(shuffle)数据以及输出数据的大小,这与作业的运行时间紧密相关。
作业算法(或者程序),如map、reduce、partition、combine和compress。有些算法很难在MapReduce中概念化,或者在MapReduce中效率可能会降低。
看来得自学python的知识了
python没有接触过
课程须知
有Linux命令使用基础,有Python编程基础
老师告诉你能学到什么?
大数据到底是个啥,大数据方向到底怎么样 Hadoop基础原理与两个核心 Hadoop的基础应用 Hadoop生态圈简介 Hadoop生态圈常用开源项目介绍

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消