apache spark
基本介绍
特点
性能特点
-
更快的速度
计算时间比较
-
易用性
-
通用性
-
支持多种资源管理器
spark的体系架构
spark的安装部署:
安装部署
准备工作:安装linux、jdk等等
解压:tar -zxvf spark-2.1.0-bin-hadoop2.7.tgz -c ~/training/
由于spark的脚本命令和hadoop有冲突,只设置一个即可(不能同时设置)配置文件:/root/training/spark-2.1.0-bin-hadoop2.7/conf/spark-env.sh
=============伪分布: hadoop153============
修改配置文件:spark-env.sh
export java_home=/root/training/jdk1.8.0_144
export spark_master_host=hadoop153
export spark_master_port=7077
slaves
hadoop153
启动:sbin/start-all.sh
spark web console(内置tomcat:8080) http://ip:8080
==============================================
执行spark demo程序(hadoop153:伪分布上)
1、执行spark任务的工具
(1)spark-submit: 相当于 hadoop jar 命令 ---> 提交mapreduce任务(jar文件 )
提交spark的任务(jar文件 )
spark提供example例子:/root/training/spark-2.1.0-bin-hadoop2.7/examples/spark-examples_2.11-2.1.0.jar
执行如下命令:
示例:蒙特卡罗求pi(3.1415926******)
>bin/spark-submit --master spark://hadoop153:7077 --class org.apache.spark.examples.sparkpi examples/jars/spark-examples_2.11-2.1.0.jar 200
得到结果:
=============全分布:三台================
master节点: bigdata112
worker从节点:bigdata113 bigdata114
修改配置文件:spark-env.sh
export java_home=/root/training/jdk1.8.0_144
export spark_master_host=bigdata112
export spark_master_port=7077
slaves
bigdata113
bigdata114
复制到从节点上
scp -r spark-2.1.0-bin-hadoop2.7/ root@bigdata113:/root/training
scp -r spark-2.1.0-bin-hadoop2.7/ root@bigdata114:/root/training
在主节点上启动: sbin/start-all.sh
上一篇: android的布局 (如何实现空心圆效果的布局)
下一篇: Hadoop伪分布安装搭建