实验室第N次服务器配置,简单记录以备不时之需。
Master 配置
安装 JDK
-
/etc/profilesudo vi /etc/profile,设置JAVA路径,如下图所示:
-
~/.bashrcsudo vi ~./bashrc,设置JAVA_HOME,如下图所示:
-
执行
java -version检查效果。
修改主机名
-
sudo vi /etc/hostname更改 master 节点名称,这里我将其更改为
Master。 -
sudo vi /etc/hosts修改主机名与 IP 的映射关系,内容如下图所示,master 其余五台 slave 机器的 IP 即主机名按如下方式填写:

SSH 配置
为了让 Master 节点可以无密码登录到各个 Slave 节点上,需要配置 SSH。
- 首先执行
ssh localhost生成.shh目录,然后exit退出当前 SSH 登录 -
cd ~/.ssh/ ssh-keygen -t rsa #遇到提示直接按回车即可 cat id_rsa.pub >> authorized_keys #加入授权 - 执行
ssh localhost测试是否成功授权
安装 Hadoop
- 文件
slavecd /home/bjut/hadoop-2.6.0/etc/hadoop vi slaves由于我有 5 台 Slave 节点,所以文件内容为:

- 文件
core-site.xml<property> <name>fs.defaultFS</name> <value>hdfs://Master:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/home/bjut/hadoop-2.6.0/tmp</value> <description>Abase for other temporary directories.</description> </property> -
文件
hdfs-site.xml<property> <name>dfs.namenode.secondary.http-address</name> <value>Master:50090</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/bjut/hadoop-2.6.0/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/bjut/hadoop-2.6.0/tmp/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>5</value> </property> -
文件
mapred-site.xml这个文件不存在,首先需要从模板中复制一份:
cp mapred-site.xml.template mapred-site.xml然后配置如下:
<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> - 文件
yarn-site.xml<property> <name>yarn.resourcemanager.hostname</name> <value>Master</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property>
Slave 配置
安装 JDK
同 Master 节点操作一样。
修改主机名
-
sudo vi /etc/hostnameslave节点分别命名为Slave1、Slave2、…
-
sudo vi /etc/hosts内容同Master节点一样。
SSH 配置
-
ssh localhost(为了产生.ssh文件夹) -
执行
scp ~/.ssh/id_rsa.pub bjut@SlaveN:/home/bjut/将 Master 节点下生成的id_rsa.pub文件发送到各个 Slave 节点,然后在各个 Slave 节点上将 ssh 公钥保存到相应位置,执行cat ~/id_rsa.pub >> ~/.ssh/authorized_keys -
在 Master 节点上执行
ssh SlaveN测试是否授权成功 -
安装 Hadoop
在 Master 节点上发送配置好的 hadoop 文件夹到各个 slave 节点上。
scp -r hadoop-2.6.0/ bjut@SlaveN:/home/bjut/