分享

hadoop

安装jdk  和   ssh
查看SSH是否安装(检查是否装了SSH包)。
输入命令:rpm -qa | grep ssh
若没安装SSH则可输入:yum install openssh-server安装。

/etc/init.d/sshd status

若centos 6.5系统中SSH服务处于非运行状态则使用(service sshd start)命令开启SSH服务;停止SSH服务命令(service sshd stop);重启SSH服务命令(service sshd restart)。为了演示效果,我这里先停止SSH服务,然后启动SSH服务,再接着重启SSH服务。
[service sshd stop] -> [/etc/init.d/sshd status] -> [service sshd start]-> [service sshd restart] ->[重启后可输入:netstat -antp | grep sshd 查看是否启动22端口]

5.检查SSHD是否在本运行级别下设置为开机启动
输入命令:chkconfig --list sshd
如图所示centos 6.5系统中SSH服在本运行级别下已经设置为开机启动,如果没设置启动就使用如下命令[chkconfig --level 2345 sshd on]设置下即可

6.设置SSH服务为开机启动。
输入命令:chkconfig sshd on 即可。
注:若是chkconfig sshd off则禁止SSH开机启动。



------------------------------

安装   ssh  客户端
6.设置SSH服务为开机启动。
输入命令:chkconfig sshd on 即可。
yum -y install openssh-clients
chkconfig sshd on


yum install rsync
yum install xinetd
-----------------------------
mkdir /usr/java
tar -zxvf jdk-7u79-linux-x64.tar.gz

jdk1.8.0_101

vi /etc/profile

#set java environment
JAVA_HOME=/usr/java/jdk1.8.0_101
JRE_HOME=/usr/java/jdk1.8.0_101/jre
CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export JAVA_HOME JRE_HOME CLASS_PATH PATH


source /etc/profile

安装jdk
mkdir /usr/hadoop
-----------------------------------------------------
#node1   指的是主机名

以根用户登录,或者登录后切换到根用户,然后在提示符下输入hostname命令,可以看出当前系统的主机名为localhost.localdomain。


更改/etc/sysconfig下的network文件,在提示符下输入vi /etc/sysconfig/network,然后将HOSTNAME后面的值改为想要设置的主机名。


更改/etc下的hosts文件,在提示符下输入vi /etc/hosts,然后将localhost.localdomain改为想要设置的主机名。

192.168.80.50 node1
192.168.80.51 node2
192.168.80.52 node3
192.168.80.53 node4

在提示符下输入reboot命令,重新启动服务器。


重启完成后用hostname命令查询系统主机名,可以看出系统主机名已经变更为mycomputer。
----------------------------------配置namenode----------------------------------
上传hadoop
mkdir

tar -zxvf  hadoop-xxx

ln -sf /usr/hadoop/hadoop-1.2.1 /home/hadoop-1.2  创建对应的快捷方式

cd /home/hadoop-1.2

cd conf

vi core-site.xml
#配置namenode
#配置默认路径
    <configuration>
         <property>
             <name>fs.default.name</name>
             <value>hdfs://node1:9000</value>
         </property>
         <property>
             <name>hadoop.tmp.dir</name>
             <value>/opt/hadoop-1.2</value>
         </property>
    </configuration>


vi hdfs-site.xml

win7 eclipse 上连接hadoop 进行hdfs文件操作,出现以下异常:Permission denied: user=administrator, access=WRITE, inode="/":root:supergroup:drwxr-xr-x
解决方法:hadoop 的hdfs-site文件中添加以下内容,关闭权限检查 ,即解决了上述问题。

配置副本数目
    <configuration>
         <property>
             <name>dfs.replication</name>
             <value>2</value>
         </property>
        <property>  
        <name>dfs.permissions</name>
        <value>false</value>
</property>

    </configuration>
vi slaves

配置datNode

node2
node3  


vi masters

配置snd  就是 处理 edits 和 fsimage 的节点为

node2

vi hadoop-env.sh
配置 hadoop的 jdk
export JAVA_HOME=/usr/java/jdk1.8.0_101


-----------------------------------node1  无密码ssh node2  ssh node3
--执行以下两个命令

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa  
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

生成秘钥在 /.ssh/id_dsa 目录下

cd ~
cd .ssh/

scp id_dsa.pub root@node2:~
--把公钥上传到node2 虚拟机上 和 node3  虚拟机上面  
进入 node2 服务器

上传到  cd~  这个目录
cat id_dsa.pub >>  ~/.ssh/authorized_keys

并把 id_dsa.pub  追加到 node2 虚拟机的  authorized_keys 这个上面

[root@node2 .ssh]# more authorized_keys
ssh-dss AAAAB3NzaC1kc3MAAACBAIDaQaUT/SEz68fGFCdS73PjEDuqej3PGUuhcGSUkp+OVnLhdeTG
VsdG7knRVI4vxygzA4RM8DkIR7+fPwYlpLAYNhIPpWykSFKfgchATb8g5StN/92v5NM5aLm+JeSmXPlz
97ODc1FITnOYeS8k79+7HfexDr/pioHqwnfPmFU/AAAAFQCbI1oM+K4DcMyVJUQU4PiHmCc7EwAAAIBV
4ymEiZSd+a4buzfoAL1Cj5gwy4ZmE1zZobe1GmxRGp3vJ2fzBbYCsd4fTcuE18DGyu5jqX3KqQIMVQSJ
n3lCSRKTPtFgfAwlcoVzguYI6Pwjxkw4cYkT+cMJzXXg+AHTCIbWMT2mvF9LKyg3Zfx/kZf3va5hfjmT
fHMAvetBFgAAAIBLjz+lVK7E0PfSKdl7WLJjI1+RsSYFTcX/D8uWfHbsvhYsjJHjv/cXW3t3AaUxejor
NVWJsdmUyUmDWvf+UU2+EMD0al9qJHfJ3948Cf34Uxm2T+zsmMB1mMDCiPlh8slqCxvaLsnq+DB5stxU
XhIspk0LXiUzU6Ifc6UPinYTfQ== root@node2
ssh-dss AAAAB3NzaC1kc3MAAACBAN5LsfLfO/GZ5tsaRGYA27qqq96AEhhhVk8cjgO7w56qtqyj7ApY
MZAyh9M+JLIhGF2yJEcdIVZtl9fzgiqd0tgIjXWvgPPTbpg2uYDXWKf5kMCB3NUrtDpjl446q3fcoQ53
MDDuXU+tsVqwYEGwBTnb4XUuSW62zD7B8Rw9wZFvAAAAFQDf8AQMimoQBRFTnYdS9g3FKyU9wQAAAIEA
yAAGJN6YKzHZGCZT12zduAw4gRxSJoIRjOcGNJ5lyEl429m+RnQEFJltakDsrM1Q/g7RSYGLe6O6Bnwq
8oBDxSZUftB1MNWvqog4jMKbWSBiikLnbdxtIQ/pOEaEO3ndHp+K/Lm/du+llxtREaJdO05wUKezZYDC
kdFauNjGyCEAAACAFQBD5iSLszGs239g6MIwkYyfNcetecZqRRA7sdWLjMcEzE3xXMycFI3Ltzg6jQeM
kfpLebCy8FXMPXNDeJ4kVPfDGm0H5DoqnDoPicPcATMH4maks3sA0bWDJ6G0Hqqp5PMBGrW2BJtT+Nxq
ek4pfMwyEE5a8R3qixo5MgNLIiM= root@node1


---------------------------------------------------------------------------------
配置文件相同  把node1服务器上面的 conf下的所有文件 覆盖到 node2  node3


scp ./* root@node2:/home/hadoop-1.2/conf/
scp ./* root@node3:/home/hadoop-1.2/conf/


--------------------------------------------------------------------------------

./start-dfs.sh

[root@node1 bin]# ./start-dfs.sh
starting namenode, logging to /usr/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-namenode-node1.out
node2: starting datanode, logging to /usr/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-datanode-node2.out
node3: starting datanode, logging to /usr/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-datanode-node3.out
node2: starting secondarynamenode, logging to /usr/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-secondarynamenode-node2.out

jps  分别去服务器执行 jps  查看   所对应的node 是否启动


如未启动则  关闭防火墙

service iptables stop

bin/hadoop namenode -format

hadoop-1.2 dfsadmin -report


----------------------------------------------------------------------------------
C:\Windows\System32\drivers\etc\hosts
127.0.0.1 localhost
192.168.80.50 node1
192.168.80.51 node2
192.168.80.52 node3
192.168.80.53 node4
http://node1:50070


----------------------------------配置 mapreduces------

conf/mapred-site.xml

     <property>
         <name>mapred.job.tracker</name>
         <value>node1:9001</value>
     </property>
----------------------------------------------------

运行   ./hadoop jar ~/wc.jar mr.JobRun

mr.JobRun  是 main的类



没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条