hadoop菜鸟教程(hadoop零基础入门)
一、hadoop概述
1.1hadoop是什么
- hadoop是一个由apache基金会所开发的分布式系统基础架构。
- 主要解决,海量数据的存储和海量数据的分析计算问题。
- 广义上来说,hadoop通常是指一个更广泛的概念——hadoop生态圈。
- google是hadoop的思想之源(google在大数据方面的三篇论文,gfs —>hdfs, map-reduce —>mr, bigtable —>hbase)
- hadoop 三大发行版本:apache、cloudera、hortonworks。
1.2 hadoop的优势
- 高可靠性:hadoop底层维护多个数据副本,所以即使hadoop某个计算元 素或存储出现故障,也不会导致数据的丢失。
- 高扩展性:在集群间分配任务数据,可方便的扩展数以千计的节点。
- 高效性:在mapreduce的思想下,hadoop是并行工作的,以加快任务处 理速度。
- 高容错性:能够自动将失败的任务重新分配。
1.3 hadoop组成(面试重点)
- 在 hadoop1.x 时 代:hadoop 由hdfs、mapreduce组成,mapreduce同 时处理业务逻辑运算和资 源的调度,耦合性较大
- 在hadoop2.x时 代,增 加 了yarn,yarn只负责 资 源 的 调 度 , mapreduce 只负责运算
hadoop3.x在组成上没 有变化。
1.3.1 hdfs 架构概述
hadoop distributed file system,简称 hdfs,是一个分布式文件系统。
- namenode(nn):存储文件的元数据,如文件名,文件目录结构,文件属性(生成时间、副本数、 文件权限),以及每个文件的块列表和块所在的datanode等。
- datanode(dn):在本地文件系统存储文件块数据,以及块数据的校验和。
- secondary namenode(2nn):每隔一段时间对namenode元数据备份。
1.3.2 yarn 架构概述
yet another resource negotiator 简称 yarn ,另一种资源协调者,是 hadoop 的资源管理器。
yarn架构概述
- resourcemanager(rm):整个集群资源(内存、cpu等)的老大
- nodemanager(n m):单个节点服务器资源老大
- applicationmaster(am):单个任务运行的老大
- container:容器,相当一*立的服务器,里面封装了 任务运行所需要的资源,如内存、cpu、磁盘、网络等。
说明:客户端可以有多个,集群上可以运行多个applicationmaster,每个nodemanager上可以有多个container
1.3.3 mapreduce 架构概述
mapreduce 将计算过程分为两个阶段:map 和 reduce ,map 阶段并行处理输入数据,reduce 阶段对 map 结果进行汇总
mapreduce架构概述
待分析数据10t => map阶段 => (集群) => reduce阶段 ==> 汇总处理数据
hdfs、yarn、mapreduce 三者关系
1.4 大数据技术生态体系
- sqoop:sqoop 是一款开源的工具,主要用于在 hadoop、hive 与传统的数据库(mysql) 间进行数据的传递,可以将一个关系型数据库(例如 :mysql,oracle 等)中的数据导进 到 hadoop 的 hdfs 中,也可以将 hdfs 的数据导进到关系型数据库中。
- flume:flume 是一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统, flume 支持在日志系统中定制各类数据发送方,用于收集数据;
- kafka:kafka 是一种高吞吐量的分布式发布订阅消息系统;
- spark:spark 是当前最流行的开源大数据内存计算框架。可以基于 hadoop 上存储的大数 据进行计算。
- flink:flink 是当前最流行的开源大数据内存计算框架。用于实时计算的场景较多。
- oozie:oozie 是一个管理 hadoop 作业(job)的工作流程调度管理系统。
- hbase:hbase 是一个分布式的、面向列的开源数据库。hbase 不同于一般的关系数据库, 它是一个适合于非结构化数据存储的数据库。
- hive:hive 是基于 hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张 数据库表,并提供简单的 sql 查询功能,可以将 sql 语句转换为 mapreduce 任务进行运 行。其优点是学习成本低,可以通过类 sql 语句快速实现简单的 mapreduce 统计,不必开 发专门的 mapreduce 应用,十分适合数据仓库的统计分析。
- zookeeper:它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、 名字服务、分布式同步、组服务等
1.5 推荐系统框架图
二、hadoop安装
2.1 准备
克隆三台虚拟机:hadoop102 hadoop103 hadoop104,
- 修改克隆虚拟机的静态 ip:vim /etc/sysconfig/network-scripts/ifcfgens33
- 修改主机名称 vim /etc/hostname
- 配置 linux 克隆机主机名称映射 hosts 文件:vim /etc/hosts
- reboot
- 安装 jdk 前,一定确保提前删除了虚拟机自带的 jdk
- 解压、配置 jdk 环境变量,测试:java -version
- hadoop 下载地址:https://archive.apache.org/dist/hadoop/common/hadoop-3.1.3/
- 解压、将 hadoop 添加到环境变量
2.2 hadoop 重要目录
- bin 目录:存放对 hadoop 相关服务(hdfs,yarn,mapred)进行操作的脚本
- etc 目录:hadoop 的配置文件目录,存放 hadoop 的配置文件
- lib 目录:存放 hadoop 的本地库(对数据进行压缩解压缩功能)
- sbin 目录:存放启动或停止 hadoop 相关服务的脚本
- share 目录:存放 hadoop 的依赖 jar 包、文档、和官方案例
2.3 hadoop运行模式
hadoop 运行模式包括:本地模式、伪分布式模式以及完全分布式模式
- 本地模式:单机运行,只是用来演示一下官方案例。生产环境不用。
- 伪分布式模式:也是单机运行,但是具备 hadoop 集群的所有功能,一台服务器模 拟一个分布式的环境。个别缺钱的公司用来测试,生产环境不用。
- 完全分布式模式:多台服务器组成分布式环境。生产环境使用。
完全分布式运行模式(开发重点) 分析:1)准备 3 台客户机(关闭防火墙、静态 ip、主机名称) 2)安装 jdk 3)配置环境变量 4)安装 hadoop 5)配置环境变量 6)配置集群 7)单点启动 8)配置 ssh 9)群起并测试集群
编写集群分发脚本 xsync
scp安全拷贝语法:
scp -r $pdir/$fname $user@$host:$pdir/$fname
命令 递归 要拷贝的文件路径/名称 目的地用户@主机:目的地路径/名称
rsync 远程同步工具语法:
rsync -av $pdir/$fname $user@$host:$pdir/$fname
命令 选项参数 要拷贝的文件路径/名称 目的地用户@主机:目的地路径/名称
rsync 和 scp 区别:用 rsync 做文件的复制要比 scp 的速度快,rsync 只对差异文件做更 新。scp 是把所有文件都复制过去。
rsync 主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
ssh 无密登录配置
命令:ssh-keygen -t rsa
然后敲(三个回车),就会生成两个文件 id_rsa(私钥)、id_rsa.pub(公钥)
将公钥拷贝到要免密登录的目标机器上:ssh-copy-id hadoop102
2.4 集群安装
注意
- namenode 和 secondarynamenode 不要安装在同一台服务器
- resourcemanager 也很消耗内存,不要和 namenode、secondarynamenode 配置在 同一台机器上。
hadoop 配置文件分两类:默认配置文件和自定义配置文件,只有用户想修改某一默认 配置值时,才需要修改自定义配置文件,更改相应属性值
自定义配置文件:core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml 四个配置文件存放在 $hadoop_home/etc/hadoop 这个路径上,用户可以根据项目需求重新进行修改配置
命令详见:
https://blog.csdn.net/qq_44779847/article/details/116500272
常用端口号说明