snrg.net
当前位置:首页 >> hADoop配置出现问题 >>

hADoop配置出现问题

打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs...

未配置主机名到IP的映射关系,需修改文件/etc/hosts 假设三台虚拟机IP分别为ip1,ip2,ip3,则在/etc/hosts文件中加入如下内容: ip1 namenode localhost ip2 datanode1 ip3 datanode2

你没有安装或者配置JAVA_HOME,请查看你的/etc/profile、hadoop/conf/hadoop-env.sh等需要配置JDK的文件。 另外一种可能是你安装配置了JDK,但是没有source /etc/profile,或者source后没有退出当前shell并重新登录来刷新JDK配置。

你试试 sudo update-alternatives --config java 能看看你的jdk到底是什么版本 比如我的是/usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java 那么我的JAVA_HOME就是”/usr/lib/jvm/java-7-openjdk-amd64". 你的也可能是java-7-openjdk-i386也说不...

请按照截图配置 另外Host项 请根据你的hadoop集群的Ip配置

没问题呀,你是说jps命令没法使用吗? 无法使用JPS命令是因为你配置PATH变量错误,不能使用多条export PATH,会覆盖,把几个PATH写到一起就行了

你试试 sudo update-alternatives --config java 能看看你的jdk到底是什么版本 比如我的是/usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java 那么我的JAVA_HOME就是”/usr/lib/jvm/java-7-openjdk-amd64". 你的也可能是java-7-openjdk-i386也说不...

先输入stop-all.sh 如果出现Are you sure you want to continue connecting (yes/no)? 输入yes 然后在执行 start-dfs.sh就好了

打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs...

检查xml文件,有没有不符合语法的地方,或者多弄个不起眼的符号自己没发现

网站首页 | 网站地图
All rights reserved Powered by www.snrg.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com