ELK搭建与使用详解
程序员文章站
2022-09-03 22:58:43
1.环境部署 | 安装软件 | 主机名 |IP地址|内存需求| | | | | | | Elasticsearch | mes |192.168.13.142|至少3G| |Logstash|log|192.168.13.143|至少2G| |head,Kibana|head kib|192.168 ......
1.环境部署
安装软件 | 主机名 | ip地址 | 内存需求 |
---|---|---|---|
elasticsearch | mes | 192.168.13.142 | 至少3g |
logstash | log | 192.168.13.143 | 至少2g |
head,kibana | head-kib | 192.168.13.139 | 至少2g |
地址与版本
elasticsearch: 6.5.4 #https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.5.4.tar.gz logstash: 6.5.4 #https://artifacts.elastic.co/downloads/logstash/logstash-6.5.4.tar.gz kibana: 6.5.4 #https://artifacts.elastic.co/downloads/kibana/kibana-6.5.4-linux-x86_64.tar.gz kafka: 2.11-2.1 #https://archive.apache.org/dist/kafka/2.1.0/kafka_2.11-2.1.0.tgz filebeat: 6.5.4 相应的版本最好下载对应的插件
相关地址:
2.elasticsearch部署
系统类型:centos7.5 节点ip:172.16.13.142 软件版本:jdk-8u211-linux-x64.tar.gz、elasticsearch-6.5.4.tar.gz
1.安装配置jdk
[root@mes ~]# tar xzf jdk-8u211-linux-x64.tar.gz -c /usr/local/ #解压 [root@mes ~]# cd /usr/local/ [root@mes local]# mv jdk1.8.0_211/ java [root@mes local]# echo ' java_home=/usr/local/java path=$java_home/bin:$path export java_home path ' >>/etc/profile [root@mes local]# source /etc/profile [root@mes local]# java -version #出现版本号就代表jdk配置成功 java version "1.8.0_211" java(tm) se runtime environment (build 1.8.0_211-b12) java hotspot(tm) 64-bit server vm (build 25.211-b12, mixed mode)
2.安装配置es
[root@mes ~]# useradd elsearch #创建运行用户 [root@mes ~]# echo "123456" | passwd --stdin "elsearch" #设置密码 [root@mes ~]# tar xzf elasticsearch-6.5.4.tar.gz -c /usr/local/ [root@mes ~]# cd /usr/local/elasticsearch-6.5.4/config/ [root@mes config]# cp elasticsearch.yml elasticsearch.yml.bak #备份 [root@mes config]# vim elasticsearch.yml # 在最后一行添加如下内容 cluster.name: elk node.name: elkyjssjm node.master: true node.data: true path.data: /data/elasticsearch/data path.logs: /data/elasticsearch/logs bootstrap.memory_lock: false bootstrap.system_call_filter: false network.host: 0.0.0.0 http.port: 9200 http.cors.enabled: true http.cors.allow-origin: "*" #discovery.zen.ping.unicast.hosts: ["192.168.246.234", "192.168.246.231","192.168.246.235"] #discovery.zen.minimum_master_nodes: 2 #discovery.zen.ping_timeout: 150s #discovery.zen.fd.ping_retries: 10 #client.transport.ping_timeout: 60s
参数详解
cluster.name 集群名称,各节点配成相同的集群名称。 node.name 节点名称,各节点配置不同。 node.master 指示某个节点是否符合成为主节点的条件。 node.data 指示节点是否为数据节点。数据节点包含并管理索引的一部分。 path.data 数据存储目录。 path.logs 日志存储目录。 bootstrap.memory_lock 内存锁定,是否禁用交换。 bootstrap.system_call_filter 系统调用过滤器。 network.host 绑定节点ip。 http.port 端口。 discovery.zen.ping.unicast.hosts 提供其他 elasticsearch 服务节点的单点广播发现功能。 discovery.zen.minimum_master_nodes 集群中可工作的具有master节点资格的最小数量,官方的推荐值是(n/2)+1,其中n是具有master资格的节点的数量。 discovery.zen.ping_timeout 节点在发现过程中的等待时间。 discovery.zen.fd.ping_retries 节点发现重试次数。 http.cors.enabled 是否允许跨源 rest 请求,表示支持所有域名,用于允许head插件访问es。 http.cors.allow-origin 允许的源地址。
设置jvm堆大小,一般设置为内存的一半,但最少2g [root@mes ~]# sed -i 's/-xms1g/-xms2g/' /usr/local/elasticsearch-6.5.4/config/jvm.options [root@mes ~]# sed -i 's/-xmx1g/-xmx2g/' /usr/local/elasticsearch-6.5.4/config/jvm.options 创建es数据及日志存储目录并修改属主和属组,与上面配置文件中的路径一一对应 [root@mes ~]# mkdir -p /data/elasticsearch/data [root@mes ~]# mkdir -p /data/elasticsearch/logs [root@mes ~]# chown -r elsearch:elsearch /data/elasticsearch #给刚刚创建的目录修改属主和属组 [root@mes ~]# chown -r elsearch:elsearch /usr/local/elasticsearch-6.5.4
系统优化: 1.增加最大进程数 [root@mes ~]# vim /etc/security/limits.conf #在文件最后面添加如下内容 * soft nofile 65536 * hard nofile 131072 * soft nproc 2048 * hard nproc 4096 ================================================================ 解释: soft xxx : 代表警告的设定,可以超过这个设定值,但是超过后会有警告。 hard xxx : 代表严格的设定,不允许超过这个设定的值。 nofile : 是每个进程可以打开的文件数的限制 nproc : 是操作系统级别对每个用户创建的进程数的限制 ================================================================ 2.增加最大内存映射数 [root@mes ~]# vim /etc/sysctl.conf #添加如下 vm.max_map_count=262144 #elasticsearch用户拥有的内存权限太小,至少需要262144; vm.swappiness=0 #表示最大限度使用物理内存,在内存不足的情况下,然后才是swap空间
[root@mes ~]# su - elsearch last login: sat aug 3 19:48:59 cst 2019 on pts/0 [root@mes ~]$ cd /usr/local/elasticsearch-6.5.4/ [root@mes elasticsearch-6.5.4]$ ./bin/elasticsearch #先启动看看报错不,需要多等一会 终止之后(等cpu降下来再终止) [root@mes elasticsearch-6.5.4]$ nohup ./bin/elasticsearch & #放后台启动 [1] 11462 nohup: ignoring input and appending output to ‘nohup.out’ [root@mes elasticsearch-6.5.4]$ tail -f nohup.out #看一下是否启动 或者: su - elsearch -c "cd /usr/local/elasticsearch-6.5.4 && nohup bin/elasticsearch &"
测试:访问http://192.168.13.142:9200/ 记得加端口9200
3.head,kibana安装配置
系统类型:centos7.5 节点ip:172.16.13.139 软件版本:node-v4.4.7-linux-x64.tar.gz、elasticsearch-head-master.zip、phantomjs-2.1.1-linux-x86_64.tar.bz2、kibana-6.5.4-linux-x86_64.tar.gz
1.head及其插件的安装配置
1.安装node [root@head-kib ~]# wget https://npm.taobao.org/mirrors/node/latest-v4.x/node-v4.4.7-linux-x64.tar.gz [root@head-kib ~]# tar -zxf node-v4.4.7-linux-x64.tar.gz –c /usr/local [root@head-kib ~]# vim /etc/profile #在最后添加如下变量 node_home=/usr/local/node-v4.4.7-linux-x64 path=$node_home/bin:$path export node_home path [root@head-kib ~]# source /etc/profile [root@head-kib ~]# node --version #检查node版本号 v4.4.7 2.下载head插件grunt [root@head-kib ~]# wget https://github.com/mobz/elasticsearch-head/archive/master.zip [root@head-kib ~]# cp elasticsearch-head-master.zip /usr/local/ [root@head-kib ~]# yum -y install unzip [root@head-kib local]# cd /usr/local [root@head-kib local]# unzip elasticsearch-head-master.zip [root@head-kib local]# cd elasticsearch-head-master/ [root@head-kib elasticsearch-head-master]# npm config set registry https://registry.npm.taobao.org #改源地址,要不然下面的安装时间会特别长 [root@head-kib elasticsearch-head-master]# npm install -g grunt-cli #安装grunt [root@head-kib elasticsearch-head-master]# grunt --version #检查grunt版本号 grunt-cli v1.3.2
[root@head-kib elasticsearch-head-master]# vim /usr/local/elasticsearch-head-master/gruntfile.js #在95行左右
[root@head-kib elasticsearch-head-master]# vim /usr/local/elasticsearch-head-master/_site/app.js #在4374行左右
3.下载head必要的文件 [root@head-kib ~]# wget https://github.com/medium/phantomjs/releases/download/v2.1.1/phantomjs-2.1.1-linux-x86_64.tar.bz2 [root@head-kib ~]# yum -y install bzip2 [root@head-kib ~]# tar -jxf phantomjs-2.1.1-linux-x86_64.tar.bz2 -c /tmp/ #解压 4.运行head [root@head-kib ~]# cd /usr/local/elasticsearch-head-master/ [root@head-kib elasticsearch-head-master]# npm config set registry https://registry.npm.taobao.org [root@head-kib elasticsearch-head-master]# npm install ... grunt-contrib-jasmine@1.0.3 node_modules/grunt-contrib-jasmine ├── sprintf-js@1.0.3 ├── lodash@2.4.2 ├── es5-shim@4.5.13 ├── chalk@1.1.3 (escape-string-regexp@1.0.5, supports-color@2.0.0, ansi-styles@2.2.1, strip-ansi@3.0.1, has-ansi@2.0.0) ├── jasmine-core@2.99.1 ├── rimraf@2.6.3 (glob@7.1.4) └── grunt-lib-phantomjs@1.1.0 (eventemitter2@0.4.14, semver@5.7.0, temporary@0.0.8, phan [root@head-kib elasticsearch-head-master]# nohup grunt server & [root@head-kib elasticsearch-head-master]# tail -f nohup.out running "connect:server" (connect) task waiting forever... started connect web server on http://localhost:9100
测试:访问http://192.168.13.139:9100/
2.kibana部署
1.安装和配置 [root@head-kib ~]# tar zvxf kibana-6.5.4-linux-x86_64.tar.gz -c /usr/local/ [root@head-kib ~]# cd /usr/local/kibana-6.5.4-linux-x86_64/config/ [root@head-kib config]# vim kibana.yml #在末尾添加以下内容 server.port: 5601 server.host: "192.168.13.139" #本机 elasticsearch.url: "http://192.168.13.142:9200" #es节点 kibana.index: ".kibana" ==================================================================================== server.port kibana 服务端口,默认5601 server.host kibana 主机ip地址,默认localhost elasticsearch.url 用来做查询的es节点的url,默认http://localhost:9200 kibana.index kibana在elasticsearch中使用索引来存储保存的searches, visualizations和dashboards,默认.kibana ===================================================================================== 2.启动 [root@head-kib config]# cd .. [root@head-kib kibana-6.5.4-linux-x86_64]# nohup ./bin/kibana & [1] 12054 [root@head-kib kibana-6.5.4-linux-x86_64]# nohup: ignoring input and appending output to ‘nohup.out’
我们可以用nginx进行反向代理,不至于显示出我们真正的ip和端口号
我是在这一台上面部署了nginx,在任意一台部署都可以
[root@head-kib ~]# rpm -ivh http://nginx.org/packages/centos/7/noarch/rpms/nginx-release-centos-7-0.el7.ngx.noarch.rpm #下载源 [root@head-kib ~]# yum -y install nginx #安装 [root@head-kib ~]# cd /etc/nginx/conf.d/ [root@head-kib conf.d]# cp default.conf default.conf.bak #备份 [root@head-kib conf.d]# vim default.conf #清空并添加以下内容 server { listen 80; server_name 192.168.13.139; #你的nginx所在的机器 #charset koi8-r; # access_log /var/log/nginx/host.access.log main; # access_log off; location / { proxy_pass http://192.168.13.139:5601; #kibana所在的机器 proxy_set_header host $host:5601; proxy_set_header x-real-ip $remote_addr; proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for; proxy_set_header via "nginx"; } location /status { stub_status on; #开启网站监控状态 access_log /var/log/nginx/kibana_status.log; #监控日志 auth_basic "nginxstatus"; } location /head/{ proxy_pass http://192.168.246.13.139:9100; #head所在的机器 proxy_set_header host $host:9100; proxy_set_header x-real-ip $remote_addr; proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for; proxy_set_header via "nginx"; } } root@head-kib ~]# systemctl start nginx #启动nginx
测试:访问
刚开始没数据,会提示你创建新的数据
4.logstash部署
系统类型:centos7.5 节点ip:192.168.13.143 软件版本:jdk-8u121-linux-x64.tar.gz、logstash-6.5.4.tar.gz
logstash运行同样依赖jdk,本次为节省资源,故将logstash安装在了kafka244.231节点。
你想收集哪台机器上的信息就将logstash安装到哪台上。
1.安装配置jdk [root@log ~]# tar xzf jdk-8u211-linux-x64.tar.gz -c /usr/local/ #解压 [root@log ~]# cd /usr/local/ [root@log local]# mv jdk1.8.0_211/ java [root@log local]# echo ' java_home=/usr/local/java path=$java_home/bin:$path export java_home path ' >>/etc/profile [root@log local]# source /etc/profile [root@log local]# java -version #出现版本号就代表jdk配置成功 java version "1.8.0_211" java(tm) se runtime environment (build 1.8.0_211-b12) java hotspot(tm) 64-bit server vm (build 25.211-b12, mixed mode)
2.安装配置logstash [root@log ~]# tar xvzf logstash-6.5.4.tar.gz -c /usr/local/ #安装 创建目录,将输入输出都放在该目录里面 [root@log ~]# mkdir -p /usr/local/logstash-6.5.4/etc/conf.d [root@log ~]# cd /usr/local/logstash-6.5.4/etc/conf.d/ [root@log conf.d]# vim input.conf #在下面添加 input{ #让logstash可以读取特定的事件源。 file{ #从文件读取 path => ["/var/log/nginx/access_json.log"] #要输入的文件路径 # code => "json" #定义编码,用什么格式输入和输出,由于日志就是json格式,这里不用再写 type => "nginx" #定义一个类型,通用选项. 用于激活过滤器 } } output{ #输出插件,将事件发送到特定目标 elasticsearch { #输出到es hosts => ["192.168.13.142:9200"] #指定es服务的ip加端口 index => ["%{type}-%{+yyyy.mm.dd}"] #引用input中的type名称,定义输出的格式 } }
我们这里以nginx的日志为例 [root@log ~]# cd [root@log ~]# rpm -ivh http://nginx.org/packages/centos/7/noarch/rpms/nginx-release-centos-7-0.el7.ngx.noarch.rpm [root@log ~]# yum install -y nginx 将原来的日志格式注释掉定义成json格式: [root@log conf.d]# vim /etc/nginx/nginx.conf # 在http模块里面添加 log_format json '{"@timestamp":"$time_iso8601",' '"@version":"1",' '"client":"$remote_addr",' '"url":"$uri",' '"status":"$status",' '"domain":"$host",' '"host":"$server_addr",' '"size":$body_bytes_sent,' '"responsetime":$request_time,' '"referer": "$http_referer",' '"ua": "$http_user_agent"' '}'; access_log /var/log/nginx/access_json.log json; #引用定义的json格式的日志:
启动nginx [root@log ~]# systemctl start nginx [root@log ~]# systemctl enable nginx 启动logstash [root@log ~]# cd /usr/local/logstash-6.5.4/ [root@log logstash-6.5.4]# nohup bin/logstash -f etc/conf.d/ --config.reload.automatic &
访问http://192.168.13.143/ 多刷新几次效果更明显
然后去head插件页面查看是否有nginx索引出现
发现之后,去配置kibanna添加索引
然后你就能看见nginx日志的可视化界面了。
你们的评论和点赞是我写文章的最大动力,蟹蟹。
上一篇: Liunx环境搭建,打通网络和图形化
下一篇: Linux查看命令或配置文件的帮助信息