原因是你之前格式化过,曾经有过格式化,则已经生成了namespaceID等信息,此次再格式化没有覆盖,所以要先把之前(每个节点)生成的HDFS信息删掉后再进行格...
2016-10-30 11:20 回复了该问题你执行job的方式是什么?MR的java代码还是某个类似于Hive QL命令?
2016-10-26 19:07 回复了该问题放在Shell脚本后,该shell脚本执行时会有自己的环境变量,应该要在脚本前部分加入该加入的环境变量,例如$HAODOP_HOME之类
2016-10-26 19:06 回复了该问题需要查看DataNode没起来的那个机器的datanode启动日志,才能查明原因的。 方便的话把日志贴出来吧。
2016-10-22 09:45 回复了该问题正常。如果Spark和Hadoop在一个集群上,那么是共享资源的,而且正常情况下,你这里说的1-2分钟肯定比单纯的MR要快。否则需要查清原因。
2016-10-18 15:33 回复了该问题可以的话提供日志,可能的原因有以下几个: 1、SSH没成功 2、防火墙
2016-10-18 15:32 回复了该问题用yum安装的jdk后能找到JAVA_HOME吗?要设置环境变量的
2016-10-18 15:28 回复了该问题