spark wordcount 第一个spark 程序
程序员文章站
2024-02-21 20:57:28
...
wordcount
package com.baoy.worldcount
import org.apache.spark.{SparkConf, SparkContext}
/**
* Created by cmcc-B100036 on 2016/4/1.
*/
object WordCount {
def main(args: Array[String]) {
if(args.length == 0) {
println("usage: wordcount <file>")
System.exit(1)
}
val conf = new SparkConf ().setAppName("wordcount")
val sc = new SparkContext(conf)
sc.textFile(args(0))
.flatMap(_.split(" "))
.map(x => (x, 1))
.reduceByKey(_ + _)
.foreach(println)
sc.stop()
}
}
pom
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.4.1</version>
<scope>provided</scope>
</dependency>
准备原始数据
在 /home/cloudera/baoyou/data/log
创建文件 wordcount.log
在 hdfs 上创建 /data 路径
hdfs dfs -mkdir /data
上传 wordcount.log 到data路径
hdfs dfs -put wordcount.log /data/
运行 本地 spark-submit
spark-submit --class com.baoy.worldcount.WordCount --master local /home/cloudera/baoyou/project/SparkDemo.jar /data/wordcount.log
运行结果:
捐助开发者
在兴趣的驱动下,写一个免费
的东西,有欣喜,也还有汗水,希望你喜欢我的作品,同时也能支持一下。 当然,有钱捧个钱场(右上角的爱心标志,支持支付宝和PayPal捐助),没钱捧个人场,谢谢各位。
谢谢您的赞助,我会做的更好!
下一篇: 串口数据使用DMA通道传输
推荐阅读
-
Spark Streaming小程序试验-《单词统计》
-
spark wordcount 第一个spark 程序
-
Spark应用程序第三方jar文件依赖解决方案
-
Win7 Eclipse 搭建spark java1.8环境:WordCount helloworld例子
-
PyCharm搭建Spark开发环境实现第一个pyspark程序
-
PyCharm搭建Spark开发环境实现第一个pyspark程序
-
.Net for Spark 实现 WordCount 应用及调试入坑详解
-
Win7 Eclipse 搭建spark java1.8环境:WordCount helloworld例子
-
理解Spark SQL(三)—— Spark SQL程序举例
-
SBT安装及命令行打包spark程序