windows本地配置spark开发环境

目标

在windows系统本地配置spark开发环境,能够通过idea开发spark项目

实现

1. 安装JDK

不赘述,你能看到这必然已经装好了jdk并配置好了环境变量。

需要注意的是,如果jdk安装目录有空格,需要在配置环境变量的时候,把JAVA_HOME的配置地址用双引号引起来,不然后边的hadoop识别会有问题

2. 安装Spark

到官网https://spark.apache.org/downloads.html选择合适的版本下载,注意Spark与Hadoop版本选择要相对应,建议下载预编译(Pre-built)好的版本,省得麻烦

下载完成后解压到你喜欢的目录,然后配置环境变量,例如解压在C:\Users\dell\Documents\Env\spark-3.0.3-bin-hadoop3.2目录下,则环境变量如下配置

  • 配置变量名为SPARK_HOME,值为C:\Users\dell\Documents\Env\spark-3.0.3-bin-hadoop3.2
  • Path变量下新建%SPARK_HOME%\bin

3. 安装Hadoop

到官网https://hadoop.apache.org/releases.html下载与上边的Spark对应的版本

下载完成后解压到你喜欢的目录,然后配置环境变量,例如解压在C:\Users\dell\Documents\Env\hadoop-3.2.2目录下,则环境变量如下配置

  • 配置变量名为HADOOP_HOME,值为C:\Users\dell\Documents\Env\hadoop-3.2.2
  • Path变量下新建%HADOOP_HOME%\bin

到这里https://github.com/cdarlint/winutils对应版本的bin目录下载hadoop.dllwinutils.exe,复制到hadoop目录的bin目录下


windows本地配置spark开发环境
https://blog.ctftools.com/2022/01/newpost-31/
作者
Dr3@m
发布于
2022年1月18日
许可协议