snrg.net
当前位置:首页 >> hADoop配置出现问题 >>

hADoop配置出现问题

打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs...

安装步骤: 1、安装JDK7 2、下载hadoop2.6到指定目录并解压 3、修改hadoop配置(此步骤网上很多教程) 4、切换到hadoop目录输入格式化命令 bin/hadoop namenode -format 5、启动 sbin/start-all.sh

你看的教程是旧的,新版的hadoop启动脚本放在sbin下。start-all.sh已经逐渐被废弃,采用新的启动脚本: sbin/hadoop-daemon.sh --script hdfs start datanodesbin/hadoop-daemon.sh --script hdfs start namenodesbin/yarn-daemon.sh start reso...

你没有安装或者配置JAVA_HOME,请查看你的/etc/profile、hadoop/conf/hadoop-env.sh等需要配置JDK的文件。 另外一种可能是你安装配置了JDK,但是没有source /etc/profile,或者source后没有退出当前shell并重新登录来刷新JDK配置。

bin/hadoop-daemon.sh start DataNode,这个命令是添加节点的时候才会用到的,如果你是在添加节点,那么前提要让新添加的这台datanode和已经配置好的机器可以无密码访问,配置也要一样,比如说hadoop/conf文件下的配置,java的安装等等。然后在去...

请按照截图配置 另外Host项 请根据你的hadoop集群的Ip配置

参考这篇文章:http://blog.csdn.net/xiaolang85/article/details/7975618 试试看。顺便确定你的master文件中写的是localhost

先输入stop-all.sh 如果出现Are you sure you want to continue connecting (yes/no)? 输入yes 然后在执行 start-dfs.sh就好了

打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs...

检查xml文件,有没有不符合语法的地方,或者多弄个不起眼的符号自己没发现

网站首页 | 网站地图
All rights reserved Powered by www.snrg.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com