RabbitMQ的日出输入方式有很多种:file、console 、syslog 、exchange。

在RabbitMQ中,日志级别有none(0)、critical(4)、error(8)、warning(16)、info(64)、debug(128)这5种,如果消息的级别高于日志的级别则不会被发送,比如warning级别的日志包含warning和error级别的日志,none表示不输出日志。

日志文件

RabbitMQ的日志文件默认存放在/var/log/rabbitmq文件夹内。

通过cat命令查看日志文件内容

amq.rabbitmq.log

RabbitMQ默认会创建一些交换器,如amq.rabbitmq.log(topic类型)用来收集RabbitMQ日志,所有的服务日志都会发往这个交换器中。

在我安装的3.8.2版本中并没有默认创建log这个交换器,查找官方文档在https://www.rabbitmq.com/event-exchange.html有提到,我们通过命令开启插件:

rabbitmq-plugins enable rabbitmq_event_exchange  。

开启插件会创建一个类似amq.rabbitmq.log交换器的amq.rabbitmq.event交换器,通过amq.rabbitmq.event交换器可以像应用程序公开交换器、队列等创建和删除事件。由此猜想出amq.rabbitmq.log还是支持的只不过需要我们通过一些设置开启。https://www.rabbitmq.com/logging.html文档中有提到log的一些设置,但是却没有log.exchange相关的介绍,但是在rabbitmq.conf文件中发现有log.exchange对应的配置。

通过当前节点的详情查看,Config file 对应的部分为空

说明缺少配置文件不存在(/etc/rabbitmq/rabbitmq.conf),需要手动创建rabbitmq.config。文件内容复制:https://github.com/rabbitmq/rabbitmq-server/blob/v3.8.x/deps/rabbit/docs/rabbitmq.conf.example

取消注释,重启rabbitmq(service rabbitmq-server restart)

通过web管理插件看到amq.rabbitmq.log交换器已经成功显示

创建3个日志队列queue.info、queue.warning和queue.error,分别用info、warning和error这3个路由键来绑定amq.rabbitmq.log。如果要使用一个队列来收集所有级别的日志,可以使用“#”这个路由键。

对RabbitMQ进行一系列操作,看到队列中已经接收到日志数据

代码消费info消息:

#region   日志

                using (var channel = connection.CreateModel())
{
var consumer = new RabbitMQConsumer(channel);
consumer.Received += (ch, ea) =>
{
var body = ea.Body.ToArray();
Console.WriteLine($"Received:{Encoding.UTF8.GetString(body)}");
channel.BasicAck(ea.DeliveryTag, false);
};
var consumerTag = channel.BasicConsume("queue.info", false,"Info", consumer);
Console.WriteLine(consumerTag);
Console.ReadKey();
} #endregion

运行效果:

EFK(Elasticsearch+Filebeat+Kibana)收集日志

安装

通过Docker安装Elasticsearch+Filebeat+Kibana,拉取慢的可以通过配置国内的镜像加速器

docker pull elasticsearch:7.13.2
docker pull store/elastic/filebeat:7.13.2
docker pull kibana:7.13.2

启动

运行如下命令启动es,以单节点的方式启动,指定堆内存为512m

docker run -d --name elasticsearch -p 9200:9200 -p 9300:9300 -e ES_JAVA_POTS="-Xms512m -Xmx512m" -e "discovery.type=single-node" elasticsearch:7.13.2

浏览器打开网址http://localhost:9200/,浏览器返回如下内容说明安装并启动成功

启动kibana,--link 选项,将es和kibana两个容器关联共享一个网络。

docker run -d --link elasticsearch -p 5601:5601 --name kibana kibana:7.13.2

浏览器打开网址http://localhost:5601/,成功打开说明安装并启动成功。

启动filebeat。

docker run -d --link elasticsearch --link kibana  --name filebeat a0f498c7aa02 setup -E setup.kibana.host=http://localhost:5601 \ -E output.elasticsearch.hosts=["localhost:9200"]

docker启动kibana和filebeat是通过--link 指定容器之间网络互联,已经不推荐,应该使用 network。

创建专用网络:docker network create logging

启动命令加上网络配置:--net logging

配置

通过如下命令root用户进入docker

docker exec -it --user root filebeat /bin/bash

修改filebeat.yml文件:

并通过如下命令开启rabbitmq 相关模块

./filebeat modules enable rabbitmq

修改modules.d/rabbitmq.yml 文件,取消var.paths的注释,修改路径为rabbitmq的日志路径。

docker客户端进入cli会因为权限问题无法修改filebeat.yml(只读)文件,所以改名命令方式进入docker的cli下修改文件

在kibana查看已经有filebeat对应索引生成。

正常情况下应该会有rabbitmq的日志数据。因为我RabbitMQ安装在WSL中,filebeat安装在本机Docker,不能正确设置var.paths的值,所以没有log数据。

最新文章

  1. 【数据结构】简单谈一谈二分法和二叉排序树BST查找的比较
  2. 第三章SQL编程
  3. linux 下链接无线网络
  4. 建立时间和保持时间(setup time 和 hold time)
  5. C++中的单例模式(转)
  6. [moka同学笔记]yii2.0的下拉菜单与bootstrap下拉菜单
  7. .NET设计模式(10):装饰模式(Decorator Pattern)
  8. malloc用法
  9. C语言的本质(8)——副作用与顺序点
  10. Extjs4.2 Desktop 拖动黑色和白色的桌面图标的解决方案
  11. 标准输入的原理:cin与scanf
  12. wamp的安装使用(转)
  13. LDAP协议
  14. jQuery遮罩层插件
  15. linux下配置Tomcat开机启动
  16. 你必须知道的session与cookie
  17. 从源码解读线程(Thread)和线程池(ThreadPoolExecutor)的状态
  18. Luogu3579 Solar Panels
  19. Linux 修改时区
  20. 使用pandas进行数据预处理01

热门文章

  1. [算法] O(nlogn)和O(n^2)算法性能比较
  2. Linux_yum命令详解
  3. rsync+inotify实现全网自动化数据备份
  4. kubernetes 监控(14)
  5. k8s 管理存储资源(10)
  6. 第35章-CentOS7实战
  7. Chrome版本与chromedriver版本映射表
  8. JS轮播图(网易云轮播图)
  9. 【SpringBoot基础系列】手把手实现国际化支持实例开发
  10. TVM性能评估分析(二)