Spring Cloud 实现分布式实时日志分析采集的三种方案

ELK 已经成为目前最流行的集中式日志解决方案,它主要是由Beats、Logstash、Elasticsearch、Kibana等组件组成,来共同完成实时日志的收集 , 存储,展示等一站式的解决方案 。本文将会介绍ELK常见的架构以及相关问题解决 。

  1. Filebeat:Filebeat是一款轻量级,占用服务资源非常少的数据收集引擎 , 它是ELK家族的新成员,可以代替Logstash作为在应用服务器端的日志收集引擎,支持将收集到的数据输出到Kafka,redis等队列 。
  2. Logstash:数据收集引擎,相较于Filebeat比较重量级,但它集成了大量的插件,支持丰富的数据源收集,对收集的数据可以过滤,分析,格式化日志格式 。
  3. Elasticsearch:分布式数据搜索引擎,基于Apache Lucene实现,可集群,提供数据的集中式存储,分析,以及强大的数据搜索和聚合功能 。
  4. Kibana:数据的可视化平台,通过该web平台可以实时的查看 Elasticsearch 中的相关数据,并提供了丰富的图表统计功能 。
ELK常见部署架构1. Logstash作为日志收集器这种架构是比较原始的部署架构,在各应用服务器端分别部署一个Logstash组件 , 作为日志收集器 , 然后将Logstash收集到的数据过滤、分析、格式化处理后发送至Elasticsearch存储 , 最后使用Kibana进行可视化展示 。
这种架构不足的是:Logstash比较耗服务器资源,所以会增加应用服务器端的负载压力 。
Spring Cloud 实现分布式实时日志分析采集的三种方案

文章插图
2. Filebeat作为日志收集器该架构与第一种架构唯一不同的是:应用端日志收集器换成了Filebeat,Filebeat轻量,占用服务器资源少,所以使用Filebeat作为应用服务器端的日志收集器,一般Filebeat会配合Logstash一起使用,这种部署方式也是目前最常用的架构 。
Spring Cloud 实现分布式实时日志分析采集的三种方案

文章插图
3. 引入缓存队列的部署架构该架构在第二种架构的基础上引入了Kafka消息队列(还可以是其他消息队列) , 将Filebeat收集到的数据发送至Kafka , 然后在通过Logstasth读取Kafka中的数据,这种架构主要是解决大数据量下的日志收集方案,使用缓存队列主要是解决数据安全与均衡Logstash与Elasticsearch负载压力 。
Spring Cloud 实现分布式实时日志分析采集的三种方案

文章插图
4. 以上三种架构的总结第一种部署架构由于资源占用问题,现已很少使用,目前使用最多的是第二种部署架构 , 至于第三种部署架构个人觉得没有必要引入消息队列,除非有其他需求,因为在数据量较大的情况下,Filebeat 使用压力敏感协议向 Logstash 或 Elasticsearch 发送数据 。
如果 Logstash 正在繁忙地处理数据,它会告知 Filebeat 减慢读取速度 。拥塞解决后 , Filebeat 将恢复初始速度并继续发送数据 。
问题及解决方案1. 问题:如何实现日志的多行合并功能?系统应用中的日志一般都是以特定格式进行打印的,属于同一条日志的数据可能分多行进行打?。?敲丛谑褂肊LK收集日志的时候就需要将属于同一条日志的多行数据进行合并 。
解决方案:使用Filebeat或Logstash中的multiline多行合并插件来实现
在使用multiline多行合并插件的时候需要注意 , 不同的ELK部署架构可能multiline的使用方式也不同 , 如果是本文的第一种部署架构,那么multiline需要在Logstash中配置使用,如果是第二种部署架构,那么multiline需要在Filebeat中配置使用,无需再在Logstash中配置multiline 。
1)multiline在Filebeat中的配置方式:
filebeat.prospectors:-paths:- /home/project/elk/logs/test.loginput_type: logmultiline:pattern: '^['negate: truematch: afteroutput:logstash:hosts: ["localhost:5044"]
  • pattern:正则表达式
  • negate:默认为false,表示匹配pattern的行合并到上一行;true表示不匹配pattern的行合并到上一行
  • match:after表示合并到上一行的末尾 , before表示合并到上一行的行首
如:
pattern: '['negate: truematch: after该配置表示将不匹配pattern模式的行合并到上一行的末尾
2)multiline在Logstash中的配置方式
input {beats {port => 5044}}filter {multiline {pattern => "%{LOGLEVEL}s*]"negate => truewhat => "previous"}}output {elasticsearch {hosts => "localhost:9200"}}


推荐阅读