以前使用Logstash时,都是通过logstash来对日志内容做过滤解析等操作,现在6.3.0版本中,可以通过filebeat直接写数据到es中,要对日志内容做处理的话设置对应的pipeline就可以。
以gunicorn的access日志内容为例:
[10/Jul/2018:11:13:55 +0800] 10.242.169.166 "-" "Jakarta Commons-HttpClient/3.0" "POST /message/entry HTTP/1.0" 200 <13968> 0.061638
有以上内容的日志,记录请求发生的时间,发起请求的i
......上次使用ELK还是两年前,现在使用当时的方法发现不行了。
在ELK Stack最新的6.3.0版本,使用filebeat进行日志收集,统一存储到elasticsearch并用kibana展示。
filebeat \
filebeat - elasticsearch - kibana - browser
filebeat /
在统一日志存放的机器上安装elasticsearch和kibana
kibana可以使用rpm包直接安装:
rpm -ivh kibana-6.3.0-x86_64.rpm
默认配置文件在
......