apache spark
基本介绍
特点
性能特点
-
更快的速度
计算时间比较
-
易用性
-
通用性
-
支持多种资源管理器
spark的体系架构
spark的安装部署:
安装部署
准备工作:安装linux、jdk等等
解压:tar -zxvf spark-2.1.0-bin-hadoop2.7.tgz -c ~/training/
由于spark的脚本命令和hadoop有冲突,只设置一个即可(不能同时设置)配置文件:/root/training/spark-2.1.0-bin-hadoop2.7/conf/spark-env.sh
=============伪分布: hadoop153============
修改配置文件:spark-env.sh
export java_home=/root/training/jdk1.8.0_144
export spark_master_host=hadoop153
export spark_master_port=7077
slaves
hadoop153
启动:sbin/start-all.sh
spark web console(内置tomcat:8080) http://ip:8080
==============================================
执行spark demo程序(hadoop153:伪分布上)
1、执行spark任务的工具
(1)spark-submit: 相当于 hadoop jar 命令 ---> 提交mapreduce任务(jar文件 )
提交spark的任务(jar文件 )
spark提供example例子:/root/training/spark-2.1.0-bin-hadoop2.7/examples/spark-examples_2.11-2.1.0.jar
执行如下命令:
示例:蒙特卡罗求pi(3.1415926******)
>bin/spark-submit --master spark://hadoop153:7077 --class org.apache.spark.examples.sparkpi examples/jars/spark-examples_2.11-2.1.0.jar 200
得到结果:
=============全分布:三台================
master节点: bigdata112
worker从节点:bigdata113 bigdata114
修改配置文件:spark-env.sh
export java_home=/root/training/jdk1.8.0_144
export spark_master_host=bigdata112
export spark_master_port=7077
slaves
bigdata113
bigdata114
复制到从节点上
scp -r spark-2.1.0-bin-hadoop2.7/ root@bigdata113:/root/training
scp -r spark-2.1.0-bin-hadoop2.7/ root@bigdata114:/root/training
在主节点上启动: sbin/start-all.sh
上一篇: hive之大数据仓库
下一篇: Hadoop伪分布安装搭建
推荐阅读
-
php在apache环境下实现gzip配置方法_PHP
-
PHP安装全攻略:APACHE_PHP
-
Apache2.4 authz_core_module模块使用,authzcoreerror_PHP教程
-
安装php5.3之后发现php文件夹下没有php5apache2.dll,于是安装php5.2,发现也没有,该如何解决
-
apache+php完美解决301重定向的两种方法
-
phpmyadmin 下载 MAC OS X环境下配置APACHE+PHP+MYSQL+PHPMYADMIN
-
php Apache 配置后访问出现Bad Request (400)
-
Apache启动提示错误undefined symbol: libiconv_open解决方法
-
CentOS下与Apache连接的PHP多版本共存方案实现详解,_PHP教程
-
PHP开发Apache服务器配置_PHP