实验室第N次服务器配置,简单记录以备不时之需。
单机模式安装
环境配置
/etc/profile
sudo vi /etc/profile export SCALA_HOME=/home/bjut/scala-2.11.7 export PATH=$SCALA_HOME/bin:$PATH
~./bashrc
vi ~/.bashrc export HADOOP_HOME=/home/bjut/hadoop-2.6.0 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export SCALA_HOME=/home/bjut/scala-2.11.7 export SPARK_HOME=/home/bjut/software/spark-1.5.2-bin-hadoop2.6 export SPARK_LIBARY_PATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop export PATH=$PATH:$SCALA_HOME/bin:$SPARK_HOME/bin:/home/bjut/hadoop-2.6.0/bin:/home/bjut/hadoop-2.6.0/sbin
- 让配置生效
source /etc/proifle source ~/.bashrc
启动 Spark
sbin/start-all.sh
执行 jps
,有一个 Master 和 Worker 进程,说明启动成功。
分布式安装
环境配置
同单机模式操作一样。
Spark 配置
- 文件
spark-env.sh
cd spark-1.5.2-bin-hadoop2.6/conf cp spark-env.sh.template spark-env.sh vi spark-env.sh export SCALA_HOME=/home/bjut/scala-2.11.7 export JAVA_HOME=/home/bjut/jdk1.7 export SPARK_MASTER_IP=172.21.20.97 export SPARK_WORKER_INSTANCES=3 export SPARK_MASTER_PORT=8070 export SPARK_MASTER_WEBUI_PORT=8090 export SPARK_WORKER_PORT=8092 export SPARK_WORKER_MEMORY=5000m
- 文件
slaves
cp slaves.template slaves 172.21.20.97 172.21.20.119 172.21.20.94 172.21.20.167 172.21.20.221 172.21.20.127
- 启动 Spark 集群
sbin/start-all.sh
参考资料
PREVIOUSHadoop 分布式安装笔记