引言
一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。
一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,可以提高定位问题的效率。
一个完整的集中式日志系统,需要包含以下几个主要特点:
- 收集-能够采集多种来源的日志数据
- 传输-能够稳定的把日志数据传输到中央系统
- 存储-如何存储日志数据
- 分析-可以支持 UI 分析
- 警告-能够提供错误报告,监控机制
ELK提供了一整套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用。目前主流的一种日志系统。
简述
Elasticsearch: 是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。
Logstash: 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为c/s架构,client端安装在需要收集日志的主机上,server端负责将收到的各节点日志进行过滤、修改等操作在一并发往elasticsearch上去。
Kibana: 一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。
部署
1. 创建安装目录
/elk_cluster/node/es1/data/ /elk_cluster/node/es2/data/ /elk_cluster/logstash/ /elk_cluster/plugins/
|
2. 在logstash目录下创建logstash.conf
http.host: "0.0.0.0" xpack.monitoring.elasticsearch.hosts: [ "http://{服务器ip}:9200","http://{服务器ip}:9201" ]
|
3.在logstash目录下创建logstash-springboot.conf
input { tcp { mode => "server" host => "0.0.0.0" port => 4560 codec => json_lines } } output { elasticsearch { hosts => [ "http://{服务器ip}:9200","http://{服务器ip}:9201" ] index => "springboot-logstash-%{+YYYY.MM.dd}" } }
|
4.在es1目录,es2目录下创建elasticsearch.yml
# es1 cluster.name: elasticsearch-cluster node.name: es-node1 network.bind_host: 0.0.0.0 network.publish_host: _eth0_ http.port: 9200 transport.tcp.port: 9300 http.cors.enabled: true http.cors.allow-origin: "*" node.master: true node.data: true discovery.seed_hosts: ["ES01:9300","ES02:9301"] cluster.initial_master_nodes: ["es-node1","es-node2"] discovery.zen.minimum_master_nodes: 1
|
#es2 cluster.name: elasticsearch-cluster node.name: es-node2 network.bind_host: 0.0.0.0 network.publish_host: _eth0_ http.port: 9200 transport.tcp.port: 9300 http.cors.enabled: true http.cors.allow-origin: "*" node.master: true node.data: true discovery.seed_hosts: ["ES01:9300","ES02:9301"] cluster.initial_master_nodes: ["es-node1","es-node2"] discovery.zen.minimum_master_nodes: 1
|
5.配置docker-compose.yml文件
在/elk_cluster/下创建docker-compose.yml文件,内容如下
version: '3.7' services: es1: image: elasticsearch:7.17.4 container_name: ES01 environment: ES_JAVA_OPTS: -Xms512m -Xmx512m ports: - "9200:9200" - "9300:9300" volumes: - "./node/es1/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml" - "./node/es1/data:/usr/share/elasticsearch/data" networks: - es-net es2: image: elasticsearch:7.17.4 container_name: ES02 environment: ES_JAVA_OPTS: -Xms512m -Xmx512m ports: - "9201:9200" - "9301:9300" volumes: - "./node/es2/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml" - "./node/es2/data:/usr/share/elasticsearch/data" networks: - es-net es-head: image: aichenk/elasticsearch-head:5-alpine ports: - "9100:9100" kibana: image: kibana:7.17.4 container_name: kibana volumes: - "./kibana.yml:/opt/kibana/config/kibana.yml" environment: - SERVER_NAME=kibana - XPACK_MONITORING_ENABLED=true ports: - 5601:5601 networks: - es-net depends_on: - es1 external_links: - es1
logstash: image: logstash:7.17.4 container_name: logstash restart: always volumes: - "./logstash/logstash-springboot.conf:/usr/share/logstash/pipeline/logstash.conf" - "./logstash/logstash.yml:/usr/share/logstash/config/logstash.yml" ports: - "4560:4560" depends_on: - es1 networks: es-net: driver: bridge
|
6.配置kibana汉化
在docker-compose.yml文件同级目录创建kibana.yml文件
# # ** THIS IS AN AUTO-GENERATED FILE ** #
# Default Kibana configuration for docker target server.publicBaseUrl: "http://{服务器ip}:5601" # 这里地址改为你访问kibana的地址,不能以 / 结尾 server.name: kibana server.host: "0.0.0.0" server.shutdownTimeout: "5s" elasticsearch.hosts: [ "http://{服务器ip}:9200","http://{服务器ip}:9201" ] monitoring.ui.container.elasticsearch.enabled: true # 汉化 i18n.locale: zh-CN
|
7.启动docker-compose
进入docker-compose.yml同级目录,执行docker-compose up -d,启动服务
Springboot项目集成
1.添加Logstash依赖
<dependency> <groupId>net.logstash.logback</groupId> <artifactId>logstash-logback-encoder</artifactId> <version>5.3</version> </dependency>
|
2.配置logback-spring.xml
<springProperty name="APP_NAME" scope="context" source="spring.application.name" defaultValue="wechat-person"/> <appender name="STASH" class="net.logstash.logback.appender.LogstashTcpSocketAppender"> <destination>{服务器ip}:4560</destination> <encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder"> <providers> <timestamp> <timeZone>UTC</timeZone> </timestamp> <pattern> <pattern> { "app": "${APP_NAME}", "level": "%level", "pid": "${PID:-}", "thread": "%thread", "class": "%logger{40}", "message": "%message", "stack_trace": "%exception{10}" } </pattern> </pattern> </providers> </encoder> </appender>
|
3.在kibana中配置索引模式
然后进入Discover,即可看到日志数据