最新回答 / Rock_feng
我认为是这样的:就好比我们在客户端执行写入数据一样,数据来源于hdfs,然后计算的结果会先保存在本地磁盘并且进行分块操作,然后再根据namenode返回回来的映射关系,将本地的临时数据写入对应的datanode,而datanode就属于hdfs的一部分;不知对不对?
2016-02-15
最新回答 / rainbow702
你是不是JobTracker之类的进程没显示?如果是的话,建议你去看看"/opt/hadoop-1.2.1/logs"目录中,“namenode”相关的日志log,看看log里有没有下面这样的错误信息:2016-01-09 15:29:12,036 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.net.BindException: Problem binding to imooc/183.207.232.253:9000 : 无法指...
2016-01-10
最新回答 / 历史与足迹
jps命令查看进程状态。如果有以下的进程,<...图片...>,然后在浏览器访问:http://localhost:50030 (mapreduce页面) 和http://localhost:50070 (hdfs页面)。如果访问成功,则说明hadoop起来了。
2016-01-10
最新回答 / bilibilistudy
我也是这个格式化的问题,不过我的提示:could not find the main class,然后运行start-all.sh的时候提示找不到该命令
2015-12-15