分享

Hadoop CDH5 手动安装伪分布式模式

pig2 发表于 2014-2-12 20:32:48 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 0 30897
本帖最后由 pig2 于 2014-6-9 21:01 编辑
本文仅供安装参考,增长大家一些知识。思考:当我们遇到这个错误的时候,我们该怎么做?
1.遇到protoc: error while loading shared libraries: libprotoc.so.8: cannot open shared object file: No such file or directory,遇到这些错误的原因一般都是什么?
2.启动伪分布式模式为什么会找不到JAVA_HOME?




CDH5已经使用了Hadoop2.2.0

重新弄个虚拟机重头装一下

由于Cloudera强烈建议使用rmp包或者apt-get的方式安装,一时半刻我都没有找到手动安装的说明,在安装的遇到多个问题,稍作记录

首先环境要求

         JDK1.7_u25+

         Maven3.0.5

         protoc2.5

         cmake

         ant

         zlib1g-dev


在安装完protocbuf后无法正常运行protoc命令,报错

protoc: error while loading shared libraries: libprotoc.so.8: cannot open shared object file: No such file or directory
解决方案是在make install后再执行一句sudo ldconfig

修改配置文件

etc/hadoop/core-site.xml
  1.         <property>
  2.                 <name>fs.defaultFS</name>
  3.                 <value>hdfs://localhost</value>
  4.         </property>
复制代码
etc/hadoop/hdfs-site.xml
  1.         <property>
  2.                 <name>dfs.replication</name>
  3.                 <value>1</value>
  4.         </property>
  5.         <property>
  6.                 <name>hadoop.tmp.dir</name>
  7.                 <value>/home/username/src/cdh5/hadoop/hdfs</value>
  8.         </property>
  9.         <property>
  10.                 <name>dfs.namenode.http-address</name>
  11.                 <value>localhost:50070</value>
  12.         </property>
  13.         <property>
  14.                 <name>dfs.namenode.secondary.http-address</name>
  15.                 <value>localhost:50090</value>
  16.         </property>
复制代码
etc/hadoop/yarn-site.xml
  1.   <property>
  2.     <name>yarn.resourcemanager.hostname</name>
  3.     <value>localhost</value>
  4.   </property>
  5.   <property>
  6.     <name>yarn.nodemanager.aux-services</name>
  7.     <value>mapreduce_shuffle</value>
  8.   </property>
  9.   <property>
  10.     <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  11.     <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  12.   </property>
复制代码
然后format,启动start-all.sh
启动伪分布式模式碰到的第一个问题是找不到JAVA_HOME

原因是启动命令调用sbin/slaves.sh脚本,这个脚本中有使用ssh远程调用其他机器的命令

在这种情况下bashrc中的设置环境变量的语句没有被执行,原因是bashrc中第一句语句([ -z "$PS1" ] && return)会判断调用模式是否是交互式模式,如果是非交互式模式则直接退出,所以写在下面的语句都没有被执行,解决方法有两个

1.是把设置JAVA_HOME的语句写在bashrc文件的最前面

2.是修改etc/hadoop/hadoop-evn.sh中的export JAVA_HOME=${JAVA_HOME},不要使用系统的环境变量赋值,直接改成绝对路径

修改完后再次启动成功

使用jps会看到所有的进程

3536 ResourceManager
3116 DataNode
2900 NameNode
3378 SecondaryNameNode
3755 NodeManager
2168 Jps
使用hadoop fs -ls 查看文件系统的时候会遇到报错

WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable

原因是缺少libhadoop.so文件

在src目录或者hadoop-common子项目中重新build,命令:mvn package -DskipTests -Pdist,native,docs -Dtar

再次遇到报错[ERROR] class file for org.mortbay.component.AbstractLifeCycle not found

这次是遇到BUG了按照https://issues.apache.org/jira/browse/HADOOP-10110官方说明在hadoop-common-project/hadoop-auth/pom.xml文件中添加
  1.     <dependency>
  2.        <groupId>org.mortbay.jetty</groupId>
  3.        <artifactId>jetty-util</artifactId>
  4.        <scope>test</scope>
  5.     </dependency>
复制代码
再次编译遇到报错Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.6:run (make) on project hadoop-common:
这是没有安装zlib1g-dev的关系,这个可以 使用apt-get安装

最后把生成的.so文件全部拷贝到lib/native/目录下,再次运行hadoop fs -ls没有报错信息




来自群组: Hadoop技术组

没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条