Spark本地开发环境scala版本
程序员文章站
2024-02-21 21:09:10
...
SBT-Scala
参考上篇http://blog.csdn.net/baifanwudi/article/details/78354339
配置hadoop环境变量
新建SBT项目
sbt配置
name := "SparkScalaTest"
version := "1.0"
scalaVersion := "2.11.8"
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.2.0"
libraryDependencies += "org.apache.spark" % "spark-sql_2.11" % "2.2.0"
libraryDependencies += "org.apache.spark" % "spark-sql-kafka-0-10_2.11" % "2.2.0"
libraryDependencies += "org.apache.spark" % "spark-streaming-kafka-0-10_2.11" % "2.2.0"
libraryDependencies += "org.apache.hadoop" % "hadoop-common" % "2.7.1"
测试代码
import org.apache.spark.sql.SparkSession
object Test {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder().appName("LocalTest").master("local[2]").getOrCreate();
val textFile = spark.read.textFile("README.md");
println(textFile.count());
println(textFile.first());
val linesWithSpark = textFile.filter(line => line.contains("Spark"))
val s = textFile.filter(line => line.contains("Spark")).count()
println(s)
spark.stop()
}
}
本地启动测试.
Maven-Scala
如果是maven项目,需要加上scala版本包依赖(接上篇maven项目)
新建scala目录,且标记为Source Root
然后新建scala测试类,测试代码如上面一样.
下一篇: Spring学习之第一个AOP程序
推荐阅读
-
Spark本地开发环境scala版本
-
搭建RocketMQ在本地IDEA开发调试环境教程
-
scala ide scalatest maven eclipse 开发环境配置
-
windows下,IDEA中基于maven配置spark开发环境
-
搭建RocketMQ在本地IDEA开发调试环境教程
-
小白问题:服务器是Linux系统,本地开发环境也必须是Linux吗?
-
windows - 升级win10后本地php开发环境出现很多问题
-
[4]PHP开发环境搭配之修改php版本
-
spark-windows(含eclipse配置)下本地开发环境搭建
-
Mac下安装php70+php56+nginx多版本开发环境