在本节中,我们将演示如何执行Spark的安装。因此,请按照以下步骤操作。
- 下载Apache Spark tar文件。
- 解压缩下载的tar文件。
下载地址:https://www.apache.org/dyn/closer.lua/spark/spark-2.4.1/spark-2.4.1-bin-hadoop2.7.tgz
sudo tar -xzvf /home/codegyani/spark-2.4.1-bin-hadoop2.7.tgz
- 打开 bashrc 文件。
sudo nano ~/.bashrc
现在,在文件的最后加上以下内容(Spark路径)。
SPARK_HOME=/ home/codegyani /spark-2.4.1-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$PATH
更新环境变量 -
source ~/.bashrc
在命令提示符类型上测试安装 -
$ spark-shell