spark Streaming实时处理流式数据
程序员文章站
2022-07-14 19:41:15
...
1、创建SparkContext
val conf:SparkConf = new SparkConf().setAppName("streamwc")
.setMaster("local[2]")
val sc:SparkContext = new SparkContext(conf)
2、创建StreamingContext
val ssc:StreamingContext = new StreamingContext(sc,Milliseconds(2000))
3、创建Dstream,接入数据源
val datas: ReceiverInputDStream[String] =
ssc.socketTextStream("192.168.252.121",7788)
4、进行计算
val rd:Dstream[(String,Int)]datas.flatMap(_.split(" ")),map(_,1).reduceByKey(_+_)
5、打印结果
rd.print()
6、启动sparkStreaming程序
ssc.start()
ssc.awaitTermination()
在服务器端linux安装nc
nc -lk 7788
输入数据就可以实时计算
推荐阅读
-
Spark 实战, 第 2 部分:使用 Kafka 和 Spark Streaming 构建实时数据处理系统
-
Spark Streaming实时处理本地数据流
-
spark Streaming实时处理流式数据
-
流式大数据实时处理—技术、平台及应用
-
16.Spark Streaming源码解读之数据清理机制解析 sparkSpark Streaming源码解析RDD数据清理
-
16.Spark Streaming源码解读之数据清理机制解析 sparkSpark Streaming源码解析RDD数据清理
-
第12课:Spark Streaming源码解读之Executor容错安全性 spark Streaming数据安全KafkaExecutorReceiver
-
10.Spark Streaming源码分析:Receiver数据接收全过程详解
-
10.Spark Streaming源码分析:Receiver数据接收全过程详解
-
Spark Streaming实时处理TCP Sockets数据流