www.ymjm.net > 执行hADoop格式化的命令

执行hADoop格式化的命令

一个hadoop的安装目录,一个是java的安装目录.你需要进入到hadoop安装目录,然后执行格式化命令

配置文件弄错了,看看jdk路径

在Master节点上执行 hdfs namenode -format ,如果没有error和Exception 表示格式化成功,这个命令如果刚开始的话可以用,而且不能使用多次,后面最好不要用这个命令,比如我新增加一个slave节点以后,使用两次这个命令之后,发现文件系统坏掉了, 最后发现在格式化的时候,把 hdfs元数据存放的地点文件里面的版本池ID改变了, 于是我将这两个ID改为相同之后才可以用, 所以你搭建集群时用这个命令就可以了, 以后用到的话,有可能造成文件的丢失,和文件系统的异常.

1、找不到hadoop命令,是因为你没有将hadoop的bin目录加入path(只有加入path环境变量中的程序才可以直接访问).你可以 a)cd $hadoop_home(如果进行了配置)然后执行bin/hadoop.b)干脆使用全路径 c)将hadoop的bin目录加入path中.2、jps是java的工具.输入 jps显示8813 jps,表示现在没有正在运行的java程序.hadoop的安装,只需要解压即可.至少需要在conf目录中的hadoop-env.xml文件中,配置java_home才能运行.

命令启动hadoop集群,死活不见namenode节点.在解决这个问题的时候,又不断的引出了很多新的问题. 虽然这些问题在以前学习hadoop时都解决过.但,正因为以前解决过,现在遇到这些问题就更不想重复解决了.想要以最快的速度启动

如果最后你的命令,确实列出了相应的目录文件,那么这种情况确实挺少见的,有两种情况:1、你的"/"的文件太多了.2、你的网络或硬件配置太低,这种情况下的可情性不大我的反应情况挺快的,也有可能是你的配置有问题,实在解决不了的话,建议你重布一下,可参考一下我的百度博客中,写了两篇这个内容.

命令错了!应该是 hdfs namenode -format

你没有安装或者配置JAVA_HOME,请查看你的/etc/profile、hadoop/conf/hadoop-env.sh等需要配置JDK的文件.另外一种可能是你安装配置了JDK,但是没有source /etc/profile,或者source后没有退出当前shell并重新登录来刷新JDK配置.

你看看 hadoop-env.sh 里的 export java_home是不是 e/Program files/java/jdk1.7.0你java_home里面有空格,识别不了解决办法:找个目录设置一个软连接:ln -s "E:\Program Files\Java\jdk1.7.0_07" /usr/local/执行以后就可以进入/hadoop/conf 编辑hadoop-env.sh中的export java_home=/usr/local/jdk1.7.0_07就能正常使用命令了

首先,哪些服务器作为datanode,是根据你的"hadoop的安装目录/etc/conf/slaves"配置的主机的别名来决定的.其次,在第一次启动Hadoop前,必须先将HDFS格式化.使用hadoop namenode -format命令来格式化.然后执行下述命令来启动hadoop相关组件.cd hadoop的安装目录/sbin./start-all.sh 最后通过直接输入jps命令,来查看namenode、datanode是否启动成功.

网站地图

All rights reserved Powered by www.ymjm.net

copyright ©right 2010-2021。
www.ymjm.net内容来自网络,如有侵犯请联系客服。zhit325@qq.com