www.pzpf.net > hADoop2.2的noDEmAnAgEr无法启动

hADoop2.2的noDEmAnAgEr无法启动

修改 /etc/hosts 文件 把里面的 127.0.0.1 hadoop 去掉

配置hbase远程调试 打开/etc/hbase/conf/hbase-env.sh,找到以下内容: # Enable remote JDWP debugging of major HBase processes. Meant for Core Developers # export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -Xdebug -Xrunjdwp:transport=dt...

这个要看看提示了什么错误 或者去安装路径下的log里面去找找datanode相关的log

具体的关系不知道!应该是比较大的改动!我是先用的2以上,然后发现2以上的好像不是很好和hbase和hive整合! 然后就换了1.几的版本了! NodeManager是用来管理下面所以节点的!

看看你配置的端口,是不是不一致

在/etc/profile下添加如下两条环境变量 export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib" source /etc/profile 再启动hadoop 如果还不行,在你按照版本的解压缩...

部署步骤 序号 操作 1 配置SSH无密码登陆 2 配置环境变量JAVA(必须),MAVEN,ANT 3 配置Hadoop环境变量 4 配置core-site.xml文件 5 配置hdfs-site.xml文件 6 配置mapred-site.xml文件 7 配置yarn-site.xml文件 8 配置slaves文件 9 分发到从机上 10...

去HADOOP_HOME/logs/里看看resourcemanager和nodemanager的log文件,看看具体的错误上下文,光凭这两句不知道具体原因。 可能的原因是配置文件没有配置对

datanode和secondNameNode以及ResourceManager没起来,查看下日志,找具体原因,记住不看日志无法知道为什么没起来,所以以后出现问题第一反应应该是查看日志

1、首先你要确定不用ha的时候你的hadoop集群是正常的,不然找错误的方向就偏离了 2、如果都正常,配置ha 需要zookeeper,先要看看是不是zookeeper没有配置好的问题 3、如果都正常,在hadoop安装目录执行sbin/hadoop-daemon.sh start zkfc,这句...

网站地图

All rights reserved Powered by www.pzpf.net

copyright ©right 2010-2021。
www.pzpf.net内容来自网络,如有侵犯请联系客服。zhit325@qq.com