windows下,IDEA中基于maven配置spark开发环境
程序员文章站
2024-02-19 15:18:16
...
前言
假设本地已经安装好了IDEA,我自己就装的是专业版,不过社区版应该也可以,且配置好了Jdk,新建了名为Demo的maven项目。
下载安装scala和sprak
下载scala及spark,配置环境变量(可选,但建议还是配置下),我的安装目录如下:
scala: D:\scala
spark: D:\spark-3.1.1-bin-hadoop2.7
设置环境变量:
在path中添加:
D:\spark-3.1.1-bin-hadoop2.7\bin
D:\scala\bin
查看是否配置成功
在Demo中配置spark和scala
安装插件scala
步骤如下图:
重启即可使插件生效。
配置spark和scala
配置spark步骤图如下:
配置scala步骤图如下:
以上,即配置好了spark的开发环境。
输出你的helloWorld
一定要选object,因为class只会参与编译过程,不会真正的执行!!