分享

求助!无法找到JAVA_HOME

你好!请求帮助!centos6.8安装CDH5.9.2
4台物理机器
192.168.200.101 master
192.168.200.102 node1
192.168.200.102 node2
192.168.200.102 node3
运行到Cluster Setup
First Run的时候出现错误。
deploy service failed 每个节点都是同样问题。

help.png
help1.png

已有(7)人评论

跳转到指定楼层
einhep 发表于 2017-5-9 17:58:34
首先通过
Java -version
看下是否显示版本号,如果不显示,编辑文件
[mw_shl_code=bash,true]vim /etc/profile[/mw_shl_code] 添加下面内容
export JAVA_HOME=/usr/share/jdk1.6.0_14
/usr/share/jdk1.6.0_14 是jdk的路径
最后
[mw_shl_code=bash,true]source  /etc/profile[/mw_shl_code]

回复

使用道具 举报

youngwenhao 发表于 2017-5-10 09:14:51
einhep 发表于 2017-5-9 17:58
首先通过
Java -version
看下是否显示版本号,如果不显示,编辑文件

谢谢回复,java -version在每个节点都没问题,每个节点都改了 /etc/profile.这个有没有可能是内存不足引起的, 我用的是4台pc机。两台2G内存,两台4G内存?
回复

使用道具 举报

nextuser 发表于 2017-5-10 09:49:49
youngwenhao 发表于 2017-5-10 09:14
谢谢回复,java -version在每个节点都没问题,每个节点都改了 /etc/profile.这个有没有可能是内存不足引 ...

内存应该是够的。
/var/log下面看看详细日志
回复

使用道具 举报

youngwenhao 发表于 2017-5-11 15:33:39
nextuser 发表于 2017-5-10 09:49
内存应该是够的。
/var/log下面看看详细日志

你好,log信息就是图1的内容。我都卸载,重装了CDH了,还是出现这个错误,是不是spark安装不知当前的java版本,我用的是1.8.0_102。
+ perl -pi -e 's#{{HADOOP_CLASSPATH}}##g' /opt/cm-5.9.2/run/cloudera-scm-agent/process/ccdeploy_spark-conf_etcsparkconf.cloudera.spark_on_yarn_-2394246423393065559/spark-conf/yarn-conf/yarn-site.xml
+ replace '{{JAVA_LIBRARY_PATH}}' '' /opt/cm-5.9.2/run/cloudera-scm-agent/process/ccdeploy_spark-conf_etcsparkconf.cloudera.spark_on_yarn_-2394246423393065559/spark-conf/yarn-conf/yarn-site.xml
+ perl -pi -e 's#{{JAVA_LIBRARY_PATH}}##g' /opt/cm-5.9.2/run/cloudera-scm-agent/process/ccdeploy_spark-conf_etcsparkconf.cloudera.spark_on_yarn_-2394246423393065559/spark-conf/yarn-conf/yarn-site.xml
+ replace '{{CMF_CONF_DIR}}' /etc/spark/conf.cloudera.spark_on_yarn/yarn-conf /opt/cm-5.9.2/run/cloudera-scm-agent/process/ccdeploy_spark-conf_etcsparkconf.cloudera.spark_on_yarn_-2394246423393065559/spark-conf/yarn-conf/yarn-site.xml
+ perl -pi -e 's#{{CMF_CONF_DIR}}#/etc/spark/conf.cloudera.spark_on_yarn/yarn-conf#g' /opt/cm-5.9.2/run/cloudera-scm-agent/process/ccdeploy_spark-conf_etcsparkconf.cloudera.spark_on_yarn_-2394246423393065559/spark-conf/yarn-conf/yarn-site.xml
++ get_default_fs /opt/cm-5.9.2/run/cloudera-scm-agent/process/ccdeploy_spark-conf_etcsparkconf.cloudera.spark_on_yarn_-2394246423393065559/spark-conf/yarn-conf
++ get_hadoop_conf /opt/cm-5.9.2/run/cloudera-scm-agent/process/ccdeploy_spark-conf_etcsparkconf.cloudera.spark_on_yarn_-2394246423393065559/spark-conf/yarn-conf fs.defaultFS
++ local conf=/opt/cm-5.9.2/run/cloudera-scm-agent/process/ccdeploy_spark-conf_etcsparkconf.cloudera.spark_on_yarn_-2394246423393065559/spark-conf/yarn-conf
++ local key=fs.defaultFS
++ '[' 1 == 1 ']'
++ /opt/cloudera/parcels/CDH-5.9.2-1.cdh5.9.2.p0.3/lib/hadoop/../../bin/hdfs --config /opt/cm-5.9.2/run/cloudera-scm-agent/process/ccdeploy_spark-conf_etcsparkconf.cloudera.spark_on_yarn_-2394246423393065559/spark-conf/yarn-conf getconf -confKey fs.defaultFS
Error: JAVA_HOME is not set and could not be found.
+ DEFAULT_FS=

回复

使用道具 举报

wen3011 发表于 2017-5-11 15:43:46
出现这个问题
1)你看下你当前登录的是哪个用户,你的slaves默认的ssh连接的是哪个用户,是否一致
2)你的jdk安装路径是不是包含了空格中文一类的呀?如果包含了要加引号的
回复

使用道具 举报

youngwenhao 发表于 2017-5-11 16:01:52
回复

使用道具 举报

gyf_123 发表于 2018-5-30 16:24:46
你好 我也遇到了这个问题  
有一个网页 已经打不开了
我参照另一个网页建立了链接
ln -s /opt/envir/jdk1.8.0_171 /usr/java/defalut
没有效果 仍然报错
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条