为了账号安全,请及时绑定邮箱和手机立即绑定

讲师回答 / 叁金
你的python是什么版本啊?好像3.7有这个问题,不知道解决了没有。  

最赞回答 / Cybtron
一个MapReduce作业由Map阶段和Reduce阶段两部分组成,这两阶段会对数据排序,从这个意义上说,MapReduce框架本质就是一个Distributed Sort。在Map阶段,Map Task会在本地磁盘输出一个按照key排序(采用的是快速排序)的文件(中间可能产生多个文件,但最终会合并成一个),在Reduce阶段,每个Reduce Task会对收到的数据排序,这样,数据便按照Key分成了若干组,之后以组为单位交给reduce()处理。很多人的误解在Map阶段,如果不使用Combiner便不会...

讲师回答 / 叁金
种一棵树最好的时间是十年前,其次是现在。与君共勉!

讲师回答 / 叁金
使用bash hdfs dfs -ls /   或者 ./hdfs dfs -ls /我视频里面能直接使用hdfs命令是因为我添加了HADOOP_HOME的环境变量,并将其bin目录添加到了PATH内。你也可以在~/.bashrc里面添加export HADOOP_HOME=xxxxexport PATH=xxx/bin:$PATH

讲师回答 / 叁金
这跟使用场景有关系,它适用于一次写入多次读取的场景。本身的设计就是这样。

最新回答 / Eternal_Nirvana
就是从文件首部开始 读取长度为len(data)的数据

最赞回答 / 静波一世
对,分块结束后是一个块一个块的上传。一个文件只要上传成功一个块就可以了,副本集群会自动备份的。如果还有数据块4,里面还会存文件1和2嘛?这个是因为讲师说了数据块要备份成3份,所有在图例中的情况下,如果还有数据块4的话,不会保存文件1和2了。

讲师回答 / 叁金
我的是ubuntu14.04    自己用习惯了  安装东西太多懒得升级。   可以选用最新的,祝顺利~

最赞回答 / 鬈崮
http://www.powerxing.com/install-hadoop/ http://www.powerxing.com/install-hadoop-cluster/ 看过的最好的教程,没有之一。两个网站一起看,都是一个人写的,但是有先后顺序。一次搭建成功。

最赞回答 / 丞旭猿
因为namenode需要及时更新存储信息,方便记录存储各个datanode存储大小信息

讲师回答 / 叁金
上面不是有个链接了  看看有没有详细点的信息。

已采纳回答 / 慕圣7118117
2.0版本是有两个namenode的,一个是主节点,一个是备用的,主节点挂了,就激活备用的

已采纳回答 / qq_兵刃_04412779
块的大小设置原则:最小化寻址开小。 块越大寻址时间越短, 传输一个由多个块的组成的文件取决于磁盘传输速率。如寻址时间约为10ms,传输速率为100MB/S,为了使寻址时间仅占传输时间的1%,块的大小设置约为100MB,默认大小是64MB,现在在实际身缠中都是128MB了,随着新一代磁盘去东区传输速率的提升,块的大小将会被设置的更大。注意:块的大小太大的话,一个map任务处理一个块,那任务数就变少了,作业运行速度也就变慢了。
课程须知
有Linux命令使用基础,有Python编程基础
老师告诉你能学到什么?
大数据到底是个啥,大数据方向到底怎么样 Hadoop基础原理与两个核心 Hadoop的基础应用 Hadoop生态圈简介 Hadoop生态圈常用开源项目介绍

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消