(21)go-micro微服务logstash使用
一 Logstash介绍
Logstash是具有实时流水线能力的开源的数据收集引擎。Logstash可以动态统一不同来源的数据,并将数据标准化到您选择的目标输出。它提供了大量插件,可帮助我们解析,丰富,转换和缓冲任何类型的数据。
logstash常用于日志系统中做日志采集设备,最常用于ELK中作为日志收集器使用
二 Logstash作用
- 集中、转换和存储你的数据,是一个开源的服务器端数据处理管道,可以同时从多个数据源获取数据,并对其进行转换,然后将其发送到你最喜欢的存储
三 Logstash工作原理
管道(Logstash Pipeline)是Logstash中独立的运行单元,每个管道都包含两个必须的元素输入(input)和输出(output),和一个可选的元素过滤器(filter),事件处理管道负责协调它们的执行。 输入和输出支持编解码器,使您可以在数据进入或退出管道时对其进行编码或解码,而不必使用单独的过滤器。
Logstash工作原理(三个阶段: inputs→filters→outputs )
Input ( 数据输入阶段) :会把数据输入数据到logstash
Filters (数据清洗) : 数据中间处理,对数据进行操作
Outputs (数据输出) : outputs是logstash处理管道的最末端组件
Logstash-Input阶段常见的输入
file :从文件系统的文件中读取,类似于tail -f命令
syslog :在514端口上监听系统日志消息,并根据RFC3164标准进行解析
beats :从Filebeat中读取
Logstash-Filter数据中间件处理插件grok (可解析任意文本数据)
GROK基础语法如: %
SYNTAX: 代表匹配值的类型
SEMANTIC: 代表存储该值的一一个变量名称
例: %
Logstash-Output数据输出
- 输出到kafka和ES也可以输出到redis
编解码器
Codecs是基本的流过滤器,可以作为输入或输出的一部分进行操作,Codecs使你能够轻松地将消息的传输与序列化过程分开,流行的codecs包括json、msgpack和plain(text)。
json:以JSON格式对数据进行编码或解码。
multiline:将多行文本事件(如java异常和stacktrace消息)合并到单个事件中。
执行模型
Logstash事件处理管道协调输入、过滤器和输出的执行。
Logstash管道中的每个输入阶段都在自己的线程中运行,输入将事件写入位于内存(默认)或磁盘上的中央队列,每个管道工作线程从这个队列中取出一批事件,通过配置的过滤器运行事件批处理,然后通过任何输出运行过滤的事件,可以配置批处理的大小和管道工作线程的数量。
四 Logstash安装
1.拉取镜像
docker pull logstash
2.运行命令
docker run -d --name logstash -p 5044:5044 -p 5000:5000 -p 9600:9600 logstash
3.查看是否运行
docker ps
五 Logstash使用
为了方便同时使用ELK,新建一个目录
docker-elk
在docker-elk目录下新建
logstash/logstash.yml
在
logstash.yml
,输入以下代码:
---
http.host: "0.0.0.0"
xpack.monitoring.elasticsearch.hosts: [ "http://elasticsearch:9200" ]
xpack.monitoring.enabled: true
xpack.monitoring.elasticsearch.username: elastic
xpack.monitoring.elasticsearch.password: pwd
- 在docker-elk目录下新建
logstash/logstash.conf
- 在
logstash.conf
,输入以下代码:
input {
beats {
port => 5044
}
tcp {
port => 5000
}
}
output {
elasticsearch {
hosts => "elasticsearch:9200"
user => "elastic"
password => "pwd"
index => "%{[@metadata][-imooc]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
}
}
在docker-elk目录下建立一个docker-stack.yml,同时启动ELK
输入以下代码:
version: '3.3'
services:
logstash:
image: cap1573/logstash:7.9.3
ports:
- "5044:5044"
- "5000:5000"
- "9600:9600"
volumes:
- ./logstash/config/logstash.yml:/usr/share/logstash/config/logstash.yml
- ./logstash/pipeline/logstash.conf:/usr/share/logstash/pipeline/logstash.conf
environment:
LS_JAVA_OPTS: "-Xmx256m -Xms256m"
- 至此,logstash使用至此完成
六 最后
至此,go-micro微服务项目logstash使用工作就正式完成。
接下来就开始kibana使用的代码编写了,希望大家关注博主和关注专栏,第一时间获取最新内容,每篇博客都干货满满。
欢迎大家加入 夏沫の梦的学习交流群 进行学习交流经验,点击
最新文章
- CodeForces 37E Trial for Chief
- 使用百度编辑器时,报错:从客户端(";...)中检测到有潜在危险的 Request.Form 值
- 删除多余的provisioning profile
- 安装percona-xtrabackup一直提示依赖冲突的一个解决办法
- HDU 4049 Tourism Planning(动态规划)
- Hook to function
- SUID,SGID,Sticky Bit详解(转)
- honeywell D6110开发的一个工厂仓库追溯识别
- MVC View基础(转)
- TCP/IP笔记 一.综述
- Oracle ASM数据库故障数据恢复过程
- Java公开课-05.log4j
- Web API 处理机制剖析 --- 拨开迷雾看本质
- 测试开发之前端——No7.HTML5中的鼠标事件
- git checkout -b mybranch和git checkout mybranch
- 对工程测量大师App的评价
- Python中四种运行其他程序的方式
- BlockingQueue-----多线程(一)
- c#中的可选参数和命名参数的使用
- BZOJ1010_玩具装箱toy_KEY