spark wordcount 第一个spark 程序
程序员文章站
2022-05-25 14:51:07
...
wordcount
package com.baoy.worldcount import org.apache.spark.{SparkConf, SparkContext} /** * Created by cmcc-B100036 on 2016/4/1. */ object WordCount { def main(args: Array[String]) { if(args.length == 0) { println("usage: wordcount <file>") System.exit(1) } val conf = new SparkConf ().setAppName("wordcount") val sc = new SparkContext(conf) sc.textFile(args(0)) .flatMap(_.split(" ")) .map(x => (x, 1)) .reduceByKey(_ + _) .foreach(println) sc.stop() } }
pom
<dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.10</artifactId> <version>1.4.1</version> <scope>provided</scope> </dependency>
准备原始数据
在 /home/cloudera/baoyou/data/log
创建文件 wordcount.log
在 hdfs 上创建 /data 路径
hdfs dfs -mkdir /data
上传 wordcount.log 到data路径
hdfs dfs -put wordcount.log /data/
运行 本地 spark-submit
spark-submit --class com.baoy.worldcount.WordCount --master local /home/cloudera/baoyou/project/SparkDemo.jar /data/wordcount.log
运行结果:
捐助开发者
在兴趣的驱动下,写一个免费
的东西,有欣喜,也还有汗水,希望你喜欢我的作品,同时也能支持一下。 当然,有钱捧个钱场(右上角的爱心标志,支持支付宝和PayPal捐助),没钱捧个人场,谢谢各位。
谢谢您的赞助,我会做的更好!
上一篇: 文件夹复制 (win&linux皆可)
推荐阅读
-
.Net for Spark 实现 WordCount 应用及调试入坑详解
-
Win7 Eclipse 搭建spark java1.8环境:WordCount helloworld例子
-
理解Spark SQL(三)—— Spark SQL程序举例
-
SBT安装及命令行打包spark程序
-
Spark程序运行报错:JVM申请的memory不足解决办法
-
spark 程序 org.apache.spark.SparkException: Task not serializable
-
基于spark开发wordcount案例
-
python、scala、java分别实现在spark上实现WordCount
-
MapReduce编程 一步步地教你开启 第一个程序wordcount
-
第一个在Python 环境中开发的Spark应用示例