- 下载http://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.3.4/spark-2.3.4-bin-hadoop2.7.tgz
- 解压
- bin目录添加环境变量
修改 spark-env.sh 和 slaves
1 2
cp spark-env.sh.template spark-env.sh vim spark-env.sh
1 2 3 4 5 6
#配置如下 #hadoop的配置文件路径,spark会去读取配置文件,如果不在同一个集群,需拷贝配置文件到spark的节点,让spark能够读到 HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop #本机ip SPARK_LOCAL_IP=master JAVA_HOME=/opt/java
复制给子节点
1 2
scp -r /opt/spark root@slave1:/opt scp -r /opt/spark root@slave2:/opt
1 2 3 4 5 6 7
bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://master:7077 \ --executor-memory 1G \ --total-executor-cores 2 \ examples/jars/spark-examples_2.11-2.3.4.jar \ 20