01-Hadoop概述及基础环境搭建
程序员文章站
2023-11-09 22:53:46
1 hadoop概述 1.1 为什么会有大数据处理 1 hadoop概述 1.1 为什么会有大数据处理 传统模式已经满足不了大数据的增长 1)存储问题 传统数据库:存储亿级别的数据,需要高性能的服务器;并且解决不了本质问题;只能存结构化数据 大数据存储:通过分布式存储,将数据存到一台机器的同时,还可 ......
1 hadoop概述
1.1 为什么会有大数据处理
传统模式已经满足不了大数据的增长
1)存储问题
- 传统数据库:存储亿级别的数据,需要高性能的服务器;并且解决不了本质问题;只能存结构化数据
- 大数据存储:通过分布式存储,将数据存到一台机器的同时,还可以备份到其他机器上,这样当某台机器挂掉了或磁盘坏掉了,在其他机器上可以拿到该数据,数据不会丢失(可备份)
- 磁盘不够挂磁盘,机器不够加机器(可横行扩展)
2)分析数据问题
- 传统数据库: 当数据库存储亿级别的数据后,查询效率也下降的很快,查询不能秒级返回
- 大数据分析:分布式计算。也可以横行扩展
mapreduce:(批处理)多次与磁盘进行交互,运行比较慢
运算的数据是有范围的,运算完一次,就代表该批次处理完成
实时计算: (流处理)对时间的要求很高,基本可以快速处理完成
实时计算的数据,没有范围的,会根据某个时间的范围进行计算。spark streaming ,storm, flink
1.2 什么是hadoop?
hadoop项目是以可靠、可扩展和分布式计算为目的而发展的开源软件
hadoop 是apache的*项目
apache:apache软件基金会,支持apache的开源软件社区项目,为公众提供好的软件产品
项目主页:
大数据的主要特点(4v)
- 数据容量大(volume)。从tb级别,跃升到pb级别
- 数据类型繁多(variety)。包括网络日志、音频、视频、图片、地理位置信息等,这些多类型的数据对数据的处理能力提出了更高要求
- 商业价值高(value)。客户群体细分,提供定制化服务;发掘新的需求同时提高投资的回报率;降低服务成本
- 处理速度快(velocity)。这是大数据区分于传统数据挖掘的最显著特征。预计到2020年,全球数据使用量将达到35.2zb。在如此海量的数据面前,处理数据的效率就是企业的生命
hadoop的历史起源
创始人: doug cutting 和 mike cafarella
2002开始,两位创始人开发开源搜索引擎解决方案: nutch
2004年受google lab 开发的 map/reduce 和 google file system(gfs) 的启发,ndfs( nutch distributed file system )引入nutch
2006年 在yahoo!工作的doug cutting将这套大数据处理软件命名为hadoop
hadoop核心组件
用于解决两个核心问题:存储和计算
核心组件
1)hadoop common:一组分布式文件系统和通用i/o的组件与接口(序列化、java rpc和持久化数据结构)
2)hadoop distributed filesystem(hadoop分布式文件系统hdfs)
分布式存储, 有备份, 可扩展
3)hadoop mapreduce(分布式计算框架)
分布式计算,多台机器同时计算一部分,得到部分结果,再将部分结果汇总,得到总体的结果(可扩展)
4)hadoop yarn(分布式资源管理器)
mapreduce任务计算的时候,运行在yarn上,yarn提供资源
hadoop的框架演变
hadoop1.0 的 mapreduce(mr1):集资源管理和任务调用、计算功能绑在一起,扩展性较差,不支持多计算框架
hadoop2.0 的yarn(mrv2):将资源管理和任务调用两个功能分开,提高扩展性,并支持多计算框架
hadoop生态圈
1)hdfs(hadoop分布式文件系统)
hdfs是一种数据分布式保存机制,数据被保存在计算机集群上。数据写入一次,读取多次。hdfs 为hive、hbase等工具提供了基础
2)mapreduce(分布式计算框架)
mapreduce是一种分布式计算模型,用以进行大数据量的计算,是一种离线计算框架
这个 mapreduce 的计算过程简而言之,就是将大数据集分解为成若干个小数据集,每个(或若干个)数据集分别由集群中的一个结点(一般就是一台主机)进行处理并生成中间结果,然后将每个结点的中间结果进行合并, 形成最终结果
3)hbase(分布式列存数据库)
hbase是一个建立在hdfs之上,面向列的nosql数据库,用于快速读/写大量数据。hbase使用zookeeper进行管理,确保所有组件都正常运行
4)sqoop(数据etl/同步工具)
sqoop是sql-to-hadoop的缩写,主要用于传统数据库和hadoop之间传输数据
5)flume(分布式日志收集系统)
flume是一个分布式、可靠、和高可用的海量日志聚合的系统,如日志数据从各种网站服务器上汇集起来存储到hdfs,hbase等集中存储器中
6)storm(流示计算、实时计算)
storm是一个免费开源、分布式、高容错的实时计算系统。storm令持续不断的流计算变得容易,弥补了hadoop批处理所不能满足的实时要求。storm经常用于在实时分析、在线机器学习、持续计算、分布式远程调用和etl等领域
7)zookeeper(分布式协作服务)
hadoop的许多组件依赖于zookeeper,它运行在计算机集群上面,用于管理hadoop操作
作用:解决分布式环境下的数据管理问题:统一命名,状态同步,集群管理,配置同步等
8)pig(ad-hoc脚本)
pig定义了一种数据流语言—pig latin,它是mapreduce编程的复杂性的抽象,pig平台包括运行环境和用于分析hadoop数据集的脚本语言(pig latin)
其编译器将pig latin 翻译成mapreduce 程序序列将脚本转换为mapreduce任务在hadoop上执行。通常用于进行离线分析
9)hive(数据仓库)
hive定义了一种类似sql的查询语言(hql),将sql转化为mapreduce任务在hadoop上执行。通常用于离线分析
hql用于运行存储在hadoop上的查询语句,hive让不熟悉mapreduce开发人员也能编写数据查询语句,然后这些语句被翻译为hadoop上面的mapreduce任务
10)spark(内存计算模型)
spark提供了一个更快、更通用的数据处理平台。和hadoop相比,spark可以让你的程序在内存中运行时速度提升100倍,或者在磁盘上运行时速度提升10倍。
11)oozie(工作流调度器)
oozi可以把多个map/reduce作业组合到一个逻辑工作单元中,从而完成更大型的任务
12)mahout(数据挖掘算法库)
mahout的主要目标是创建一些可扩展的机器学习领域经典算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序
13)hadoop yarn(分布式资源管理器)
yarn是下一代mapreduce,即mrv2,是在第一代mapreduce基础上演变而来的,主要是为了解决原始hadoop扩展性较差,不支持多计算框架而提出的
其核心思想:
将mr1中jobtracker的资源管理和作业调用两个功能分开,分别由resourcemanager和applicationmaster进程来实现
1)resourcemanager:负责整个集群的资源管理和调度
2)applicationmaster:负责应用程序相关事务,比如任务调度、任务监控和容错等
14)tez(dag计算模型)
一个运行在yarn之上支持dag(有向无环图)作业的计算框架
tez的目的就是帮助hadoop处理这些mapreduce处理不了的用例场景,如机器学习
什么是集群,集群和服务的关系。
集群规划:
一个主节点:nn1.hadoop,
一个从节点:nn2.hadoop,
三个工作节点:s1.hadoop、s2.hadoop、s3.hadoop
网络规划:
nn1.hadoop 192.168.174.160
nn2.hadoop 192.168.174.161
s1.hadoop 192.168.174.162
s2.hadoop 192.168.174.163
s3.hadoop 192.168.174.164
在企业里还应有操作机(跳板机)
2 基础环境搭建
配置网络
1 // 查看网卡配置文件是否一致 2 vim /etc/sysconfig/network-scripts/ifcfg-ens33 3 4 // 文件配置如下: 5 type="ethernet" 6 bootproto=static 7 defroute="yes" 8 ipv4_failure_fatal="no" 9 ipv6init="yes" 10 ipv6_autoconf="yes" 11 ipv6_defroute="yes" 12 ipv6_failure_fatal="no" 13 name="eno16777736" 14 uuid="cb7a79a9-8114-482b-93f0-fce73bcef88b" 15 device="eno16777736" 16 onboot="yes" 17 ipaddr=192.168.142.200 18 prefix=24 19 gateway=192.168.142.2 20 dns1=192.168.142.2 21 dns2=8.8.8.8 22 23 // 重启网络 24 systemctl restart network.service 或 service network restart 25 // ping 百度,测试网络是否正常 26 ping www.baidu.com
2.1 配置阿里云 yum 源
1)安装sz rz工具,用于以后用rz sz上传下载文件
yum install -y lrzsz
2)下载 repo 文件
3)用 rz 将下载的 centos-7.repo 文件上传到linux系统的某个目录下
4)备份并替换系统的repo文件
1 mv centos-7.repo /etc/yum.repos.d/ 2 cd /etc/yum.repos.d/ 3 mv centos-base.repo centos-base.repo.bak 4 mv centos-7.repo centos-base.repo
5)执行yum源更新命令
yum clean all
# 服务器的包信息下载到本地电脑缓存起来
yum makecache
yum update -y
配置完毕。
2.2 安装常用软件
1 yum install -y openssh-server vim gcc gcc-c++ glibc-headers bzip2-devel lzo-devel curl wget openssh-clients zlib-devel autoconf automake cmake libtool openssl-devel fuse-devel snappy-devel telnet unzip zip net-tools.x86_64 firewalld systemd
2.3 关闭防火墙
查看防火墙状态:firewall-cmd --state
关闭防火墙:systemctl stop firewalld.service
禁止防火墙开机启动: systemctl disable firewalld.service
查看服务是否开机启动: systemctl is-enabled firewalld.service
2.4 关闭selinux
查看关闭状态
/usr/sbin/sestatus -v
关闭方法
vim /etc/selinux/config
把文件里的selinux=disabled
重启服务器
reboot
启动之后用
/usr/sbin/sestatus -v 查看selinux的修改状态
2.5 安装jdk
1)jdk 下载地址
地址: http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
2)安装jdk
用 rz 命令将安装文件上传linux 系统
rpm -ivh jdk-8u144-linux-x64.rpm
3)配置jdk 环境变量
修改系统环境变量文件 /etc/profile,在文件尾部追加以下内容
1 export java_home=/usr/java/jdk1.8.0_144 2 export jre_home=$java_home/jre 3 export path=$path:$java_home/bin 4 export classpath=.:$java_home/lib/dt.jar:$java_home/lib/tools.jar
export
设置或显示环境变量
用export修饰一个变量,a脚本中调用b脚本,b脚本也能拿到这个变量
4)使修改生效,并配置jdk
1 #使修改生效 2 source /etc/profile 3 #查看系统变量值 4 env | grep path 5 #检查jdk 配置情况 6 env | grep java_home
2.6 修改主安装常用软件主机名
1 hostnamectl set-hostname nn1.hadoop 2 #修改完后用hostname可查看当前主机名 3 hostname
2.7 创建hadoop 用户并设置 hadoop 用户密码
1 #创建hadoop用户 2 useradd hadoop 3 4 #给hadoop用户设置密码 5 hadoop000
2.8 给hadoop用户,配置ssh密钥
配置ssh密钥的目的:使得多台机器间可以免密登录。
实现原理:
使用ssh-keygen在linux01 上生成private和public密钥,将生成的public密钥拷贝到远程机器linux02 上后,就可以使用ssh命令无需密码登录到另外一台机器linux02上。如果想互相登录,则要把公钥私钥都拷贝到远程机器linux02 上。
实现步骤:
1 #切换到hadoop用户 2 su – hadoop 3 #创建.ssh目录 4 mkdir ~/.ssh 5 #生成ssh公私钥 6 ssh-keygen -t rsa -f ~/.ssh/id_rsa -p '' 7 #输出公钥文件内容并且重新输入到~/.ssh/authorized_keys文件中 8 cat ~/.ssh/id_rsa.pub > ~/.ssh/authorized_keys 9 #给~/.ssh文件加上700权限 10 chmod 700 ~/.ssh 11 #给~/.ssh/authorized_keys加上600权限 12 chmod 600 ~/.ssh/authorized_keys
2.9 禁止非 whell 组用户切换到root,配置免密切换root
通常情况下,一般用户通过执行“su -”命令、输入正确的root密码,可以登录为root用户来对系统进行管理员级别的配置。
但是,为了更进一步加强系统的安全性,有必要建立一个管理员的组,只允许这个组的用户来执行 “su -” 命令登录为 root 用户,而让其他组的用户即使执行 “su -” 、输入了正确的 root 密码,也无法登录为 root 用户。在unix和linux下,这个组的名称通常为 “wheel” 。
回到root用户
1)修改/etc/pam.d/su配置
su 时要求用户加入到wheel组
修改/etc/pam.d/su文件,将“#auth required pam_wheel.so”替换成“auth required pam_wheel.so”
修改/etc/pam.d/su文件,将“#auth sufficient pam_wheel.so”替换成“auth sufficient pam_wheel.so”
2)修改/etc/login.defs文件
只有wheel组可以su 到root
cp /etc/login.defs /etc/login.defs_back 先做个备份
tail /etc/login.defs 从文件底部查看
3) 添加用户到管理员,禁止普通用户su 到 root
1 #把hadoop用户加到wheel组里 2 [root@nn1 ~]# gpasswd -a hadoop wheel 3 #查看wheel组里是否有hadoop用户 4 [root@nn1 ~]# cat /etc/group | grep wheel
4)用 hadoop 用户验证一下,由于 hadoop 没有在wheel 组里,所以没有 su - root 权限。
5)修改/etc/pam.d/su文件(上面已经配好)
将字符串“#auth sufficient pam_wheel.so”替换成“auth sufficient pam_wheel.so”
2.10 配置hosts 文件
在克隆机器前,配置nn1 机器的 /etc/hosts 文件,文件内需要配置nn1、nn2、s1、s2、s3 所有机器的ip 和 主机名。
修改/etc/hosts文件,追加以下内容。vim /etc/hosts
1 192.168.174.160 nn1.hadoop 2 192.168.174.161 nn2.hadoop 3 192.168.174.162 s1.hadoop 4 192.168.174.163 s2.hadoop 5 192.168.174.164 s3.hadoop
2.11 克隆4台机器
执行完上面的命令,一个基础的linux系统就配置好了。然后再根据这个虚拟机克隆出 4个linux系统
其中:nn2.hadoop: 从节点
s1.hadoop、s2.hadoop、s3.hadoop:三个工作节点
并用hadoop用户,测试彼此之间是否能进行ssh通信
1) 虚拟机克隆
右键 nn1 机器→ 管理 → 克隆。
克隆完成后,需要给克隆的虚拟机配置静态ip。
2)配置静态ip
1)查看网卡硬件名称和基本信息 ip add
虚拟机会给每个克隆的虚拟机创建新网卡,如上面的 ens33 。
如果网卡设备信息中没有显示ip,则需要配置配置文件
cd /etc/sysconfig/network-scripts/
vim ifcfg-ens33
service network restart
ifcfg-xxx 中的xxx 与网卡名相同后,配置ifcfg-xxx 文件
1 type="ethernet" 2 bootproto="static" 3 defroute="yes" 4 peerdns="yes" 5 peerroutes="yes" 6 ipv4_failure_fatal="no" 7 ipv6init="yes" 8 ipv6_autoconf="yes" 9 ipv6_defroute="yes" 10 ipv6_peerdns="yes" 11 ipv6_peerroutes="yes" 12 ipv6_failure_fatal="no" 13 name="ens33" 14 uuid="d15377eb-6ffa-44c9-a06d-f7eb00f49f44" 15 device="ens33" 16 onboot="yes" 17 ipaddr=192.168.142.133 18 prefix=24 19 gateway=192.168.142.2 20 dns1=192.168.142.2 21 dns2=8.8.8.8
需要修改的内容,配置完的网卡文件
配置完后,用systemctl restart network.service重启网络服务,当前的ssh就连接不上了,是因为网络ip被改变成你自己设置的静态ip。
用 ip add 查看网卡信息
用 ping 看是否能连接外网。
1 hostnamectl set-hostname nn1.hadoop 2 #修改完后用hostname可查看当前主机名 3 hostname
如果上不了网执行以下操作
3)配置 /etc/resolv.conf 的 nameserver
cat /etc/resolv.conf 查看nameserver是否被设置正确
vim /etc/resolv.conf 修改文件,如果不存在nameserver就在文件下面添加,如果存在就修改,把nameserver 设置成自己对应的dns。
4)停止掉networkmanager服务
五台一起执行
1 // 停止networkmanager服务 2 systemctl stop networkmanager.service 3 // 并设置成开机不启动 4 systemctl disable networkmanager.service 5 // 之后重启网络服务 6 systemctl restart network.service
5)修改每个机器的主机名
1 hostnamectl set-hostname nn2.hadoop 2 hostnamectl set-hostname s1.hadoop 3 hostnamectl set-hostname s2.hadoop 4 hostnamectl set-hostname s3.hadoop
3 批量脚本说明及使用
3.1 批量脚本说明
执行脚本要给脚本加上可执行权限
1 chmod -r +x ~/hadoop_op
exe.sh : 执行su 命令,与ssh_root.sh 配套使用
ips :用于存放要操作的主机列表,用回车或空格隔开
scp_all.sh :用hadoop用户拷贝当前机器的文件到其他操作机
ssh_all.sh :用hadoop 用户可登陆其他操作机执行相应操作
ssh_root.sh : 用hadoop 用户登录其他操作机,并su 到 root 用户,以root 用户执行相应操作,与exe.sh 配套使用
1)ips
2)ssh_all.sh
3)ssh_root.sh
4)exe.sh
5)scp_all.sh
3.2 批量脚本的使用
1)将批量脚本上传到机器上
把hadoop_op.zip文件用 rz 命令上传到 nn1.hadoop 机器上
2)解压批量脚本,并修改批量脚本权限
一般先切换到当前使用用户的home目录下
解压: unzip hadoop_op.zip
修改权限:chmod -r 775 ./hadoop_op
3)测试批量ssh命令
./ssh_all.sh hostname
4)测试批量传文件
如果想将nn1.hadoop 机器上/root下的s1 文件,分发到其他机器的/root/dir/ 目录下,该如何操作?
1)nn1.hadoop:将/root/s1 文件拷贝到hadoop家目录下
2)多机分发脚本,将s1文件分发到其他机器的hadoop家目录
这步一般的是分发到/tmp 临时目录下,这个目录linux会定期删除
3)执行ssh_root.sh 在root家目录下创建dir目录
4)执行ssh_root.sh 将每台机器的hadoop用户家目录下的s1文件拷贝到/root/dir目录下
上一篇: 基于OpenCV的PHP图像人脸识别技术
下一篇: PHP SEO优化之URL优化方法