为了账号安全,请及时绑定邮箱和手机立即绑定

已采纳回答 / 徐老师
我确认了一下,这两个版本的目录结构没有变化,本身这两个版本就属于一个大版本3.2.x,不会有特别大的改动的你是不是下载成源码包了  源码包里面都是以Hadoop开头的目录例如:hadoop-3.2.1.tar.gz  可以直接使用的安装包hadoop-3.2.1-src.tar.gz 这个是源码包

讲师回答 / 徐老师
如果搭建集群的那几台云服务器是在一个内网网段的话 建议使用内网ip,如果他们的内网不通的话就只能使用外网了

讲师回答 / 徐老师
可以的,使用mac就不用使用linux虚拟机了,直接在mac上安装hadoop即可,可能个别操作命令会有区别,大部分命令都是一样的例如:关闭防火墙的操作和linux中不一样
比隔壁那个博士讲得好太多
我终于知道我的问题在哪了。我哪是不会Hadoop啊,我其实是不会Java
老师讲的很细致,小白表示很受用!

讲师回答 / 徐老师
是的  针对这种获取全局topN的案例,reduce任务只能有一个,这样才是全局的?
老师讲的十分到位,注意的东西都解释的十分清楚,非常适合新手
可以试试Docker跑Hadoop,更省资源些。再跟着老师实操就完美了
hdfs前边说的是支持多个主节点(NameNode),后边在介绍Yarn的时候说Hdfs紧支持两个主节点.

已采纳回答 / 徐老师
可以有这些方案1:如果内存中存放下,可以考虑增加这个任务的内存2:或者可以考虑外部存储,例如:redis,把这些数据存放到redis中,这样针对一些需要在内存中产生很多中间临时结果的场景也是很适用的

讲师回答 / 徐老师
这里没法上传文件,我把数据格式给你发一部分哈,你可以参考这个格式?{"id":"158008900435","uid":"120010010445","nickname":"jack435","gold":445,"watchnumpv":4350,"watchnumuv":870,"hots":1305,"nofollower":435,"looktime":8700,"smlook":2175,"follower":1740,"gifter":870,"length":2610,"area":"A_U...

讲师回答 / 徐老师
恩 使用export是定义环境变量的,针对框架的安装部署一定要仔细检查各种配置哈,稍微不注意就掉坑里面了?
课程须知
学习中需要用到这些工具: —Linux —IDEA —Hadoop —MySQL —Sqoop —Echarts(图表展示) 你需要有这些基础: —熟悉Java语言和IDEA开发工具 —有一定的Linux基础和Shell编程基础 —有一定的MySQL基础
老师告诉你能学到什么?
1、Hadoop3.0集群安装部署 2、Hadoop三大核心组件(HDFS+MapReduce+Yarn)的核心原理和使用 3、使用Hadoop进行海量数据存储和分析

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消