有时会碰到HDFS访问异常,此时可以重新初始化HDFS,但尽量不要过多次数初始化,而且初始化之前最好关闭Hadoop(stop-all.sh),不然会把之前文件都删除,还会造成从节点进程失效.
创新互联建站坚持“要么做到,要么别承诺”的工作理念,服务领域包括:网站设计、成都网站设计、企业官网、英文网站、手机端网站、网站推广等服务,满足客户于互联网时代的潞城网站设计、移动媒体设计的需求,帮助企业找到有效的互联网解决方案。努力成为您成熟可靠的网络建设合作伙伴!
1.关闭hadoop集群 ./stop-all.sh
2.hadoop初始化之前,删除文件夹 rm -rf /usr/local/src/hadoop-1.2.1/tmp
3.(可选)删除hadoop日志 rm -rf /usr/local/src/hadoop-1.2.1/logs
4.hadoop初始化 ./hadoop namenode -format
5.启动hadoop集群 ./start-all.sh
6.访问HDFS ./hadoop fs -ls /