近期接到ceph用户报案,说是多进程direct写ceph-fuse的单个文件,性能很低,几乎与单进程direct写文件的性能一样。关乎民生,刻不容缓,笔者立即展开侦查工作~

一、复现案情,寻踪追记

笔者通过fio工具展开测试,分别测试了单进程和多进程direct随机写ceph-fuse的单个文件的性能情况。

fio -filename=/mnt/fuse/file_1T -direct=1  -rw=randwrite -ioengine=sync -bs=4K -size=1G  -numjobs=1 -runtime=180 -group_reporting -name=test
fio -filename=/mnt/fuse/file_1T -direct=1 -rw=randwrite -ioengine=sync -bs=4K -size=1G -numjobs=16 -runtime=180 -group_reporting -name=test

结果显示,无论单进程,还是多进程,而且无论多少进程,iops结果差不多都是50左右(磁盘未开write-cache)。那么,多进程写多个文件呢,性能又是怎样的?

这里注意了,将fio的参数filename改成directory后,对于多进程,fio会为每个进程创建一个测试文件。

fio -directory=/mnt/fuse/ -direct=1  -rw=randwrite -ioengine=sync -bs=4K -size=1G -numjobs=16 -runtime=180 -group_reporting -name=test

结果显示,iops大概是800左右,正好是单进程50的16(进程数)倍,怎么这么巧?

二、分析案情,锁定可能的嫌疑人

写同一个文件,单进程和多进程具有相同的iops性能,说明多进程在io路径的某个环节变成了串行,从而导致多进程实际上也变成了单进程。

我们先来看下ceph-fuse的io链条:

用户态程序fio -> vfs -> kernel fuse -> libfuse -> ceph-fuse -> [mds] -> ceph cluster

笔者之前看过链条上一些环节的代码,但由于代码量太大,代码的细节太多,所以认知并不深入,无法直接定位到凶手。

为了帮助分析案情,这里简单描述下这条io链:
用户态程序fio通过多进程进行direct随机写,通过vfs后进入kernel fuse,kernel fuse会将io请求放入到pending队列,然后等待结果。用户态libfuse的多个进程通过/dev/fuse设备读取pending队列中请求,然后调用更底层的ceph-fuse进行处理。ceph-fuse最终将请求发送给mds或者ceph集群进行处理。

必然是上述io链条中某个环节导致了案情的发生。然而我们很难熟知于io链条中的每一环,所以我们需要根据更多已知的线索来缩小io链条的排查范围。

三、搜集线索,缩小排查范围

目前已知的线索有:

① fio多进程和单进程写同一文件性能几乎一致
② fio多进程写进程数个文件的性能 = 单进程性能 * 进程数

由于没有更多的线索,笔者开始对io链条进行排查。先从熟悉的ceph-fuse、mds和ceph cluster开始。

嫌疑人 分析
ceph cluster 对比多进程写单文件和多进程写多文件的性能,说明出现案情时,ceph cluster不是瓶颈
mds 由于fio测试是单客户端的,所以多进程的写也不会竞争fw的caps,另外fio的测试,涉及mds的请求很少,所以mds作案的可能性很小
ceph-fuse 这是笔者怀疑的重点,众所周知,ceph-fuse有把client大锁,通过阅读代码发现,ceph-fuse在发送写请求给osd后就释放了client锁,并没有持锁等待结果,这虽然对写性能有一定的影响,但不至于将多进程io串行

笔者展开更多测试,发现了一条重要的线索:

③ 16进程direct随机写16个文件时,通过kernel fuse的controlfs(/sys/fs/fuse/connections/39/waiting)看到等待的请求数一直是16,而16进程direct随机写单文件时,等待的请求数一直是1

线索③说明,在libfuse之前,多进程已经被串行化,这样可以基本排除libfuse、ceph-fuse、mds、ceph cluster的嫌疑了,笔者可以把精力放在io链条的前面了。

用户态程序fio -> vfs -> kernel fuse

静下心来,思索下...
多进程写单个文件,io被完全串行化,凭经验,要么是有文件锁,要么有inode锁。先朝这方向走一下,我们需要定位下锁在io链条的哪个环节,逐个分析下每个环节。

用户态程序fio:
通过查看fio的man page,笔者发现fio有个lockfile的参数,当lockfile设置成exclusive或者readwrite时,多进程的写会被串行化,然而该参数的默认值是none,所以可以排除用户态程序fio的嫌疑。

vfs:
vfs是内核很薄的一层,而且linux上可以通过flock和fcntl对文件进行加锁,在没有用户态程序调用的情况下,vfs显然不会私自对文件和inode加锁,并且,这个案情在kernel cephfs客户端下不存在,所以可以排除vfs的嫌疑。

排除了其他io环节,最后只剩下 kernel fuse ,是笔者熟悉程度相对比较低的模块,看来需要重点招待了。

四、搜集证据,锁定凶手

笔者重新阅读kernel fuse的io流程代码,最终拿到证据,真相是如此简单....

static ssize_t fuse_direct_write(struct file *file, const char __user *buf, size_t count, loff_t *ppos){
...
/* Don't allow parallel writes to the same file */
mutex_lock(&inode->i_mutex);
res = __fuse_direct_write(&io, &iov, 1, ppos);
if (res > 0)
fuse_write_update_size(inode, *ppos);
mutex_unlock(&inode->i_mutex);
...
}

凶手作案手法:
多进程direct写io到kernel fuse的该函数后,拿到inode锁,进行io请求,io请求发送到pending队列后,会持锁等待io请求结束,从而导致多进程的direct写io被串行化。

五、关注笔者

专注笔者公众号,阅读更多干货文章:)

最新文章

  1. python smtp 群发邮件
  2. 基于Jenkins + Git的PHP项目编译脚本
  3. Linux命令(23)grep命令的使用
  4. java 多态奇怪现象,子类还没有构造完成就开始干活了,谁来帮我解释?
  5. sequenza细胞纯度计算
  6. wechat
  7. libvirtError: no connection driver available for qemu:///system 解决办法
  8. sicily 1007 To and Fro
  9. Find out C++ Memory Usage in Code
  10. Java报表开发组件DynamicReports
  11. Hbase Region Server 启动失败
  12. Android HelloChart Demo
  13. python抽象类+抽象方法实现接口(interface)
  14. Bootstrap分页插件ajax返回数据,工具类的编写
  15. Welcom to Swift
  16. Redis Bgrewriteaof 命令
  17. 【常用命令】Linux相关命令
  18. PAT甲题题解-1129. Recommendation System (25)-排序
  19. Java通过jxl读取Excel
  20. mysql8.0+修改用户密码

热门文章

  1. pandas 学习(二)—— pandas 下的常用函数
  2. Bootstrap 屏幕类型
  3. 通通WPF随笔(4)——通通手写输入法(基于Tablet pc实现)
  4. #467 – 使用UniformGrid 均分行和列(Use a UniformGrid for Evenly Spaced Rows and Columns)
  5. vxworks下libpcap的移植
  6. SQL Server 可更新订阅中有行筛选的同步复制移除项目而不重新初始化所有订阅!
  7. Android零基础入门第30节:两分钟掌握FrameLayout帧布局
  8. iostat命令浅析
  9. 02ython基础知识(一)
  10. mstsc也要使用/admin参数