原文转载自「刘悦的技术博客」https://v3u.cn/a_id_97

最近无论是面试还是笔试,有一个高频问题始终阴魂不散,那就是给一个大文件,至少超过10g,在内存有限的情况下(低于2g),该以什么姿势读它?

所有人都知道,用python读文件有一套”标准流程“:

def retrun_count(fname):
"""计算文件有多少行
"""
count = 0
with open(fname) as file:
for line in file:
count += 1
return count

为什么这种文件读取方式会成为标准?这是因为它有两个好处:

with 上下文管理器会自动关闭打开的文件描述符
在迭代文件对象时,内容是一行一行返回的,不会占用太多内存

但这套标准做法并非没有缺点。如果被读取的文件里,根本就没有任何换行符,那么上面的第二个好处就不成立了。当代码执行到 for line in file 时,line 将会变成一个非常巨大的字符串对象,消耗掉非常可观的内存。

如果有一个 5GB 大的文件 big_file.txt,它里面装满了随机字符串。只不过它存储内容的方式稍有不同,所有的文本都被放在了同一行里

如果我们继续使用前面的 return_count 函数去统计这个大文件行数。那么在一台pc上,这个过程会足足花掉 65 秒,并在执行过程中吃掉机器 2GB 内存

为了解决这个问题,我们需要暂时把这个“标准做法”放到一边,使用更底层的 file.read() 方法。与直接循环迭代文件对象不同,每次调用 file.read(chunk_size) 会直接返回从当前位置往后读取 chunk_size 大小的文件内容,不必等待任何换行符出现。

所以,如果使用 file.read() 方法,我们的函数可以改写成这样:

def return_count_v2(fname):

    count = 0
block_size = 1024 * 8
with open(fname) as fp:
while True:
chunk = fp.read(block_size)
# 当文件没有更多内容时,read 调用将会返回空字符串 ''
if not chunk:
break
count += 1
return count

在新函数中,我们使用了一个 while 循环来读取文件内容,每次最多读取 8kb 大小,这样可以避免之前需要拼接一个巨大字符串的过程,把内存占用降低非常多。

利用生成器解耦代码

假如我们在讨论的不是 Python,而是其他编程语言。那么可以说上面的代码已经很好了。但是如果你认真分析一下 return_count_v2 函数,你会发现在循环体内部,存在着两个独立的逻辑:数据生成(read 调用与 chunk 判断) 与 数据消费。而这两个独立逻辑被耦合在了一起。

为了提升复用能力,我们可以定义一个新的 chunked_file_reader 生成器函数,由它来负责所有与“数据生成”相关的逻辑。这样 return_count_v3 里面的主循环就只需要负责计数即可。

def chunked_file_reader(fp, block_size=1024 * 8):
"""生成器函数:分块读取文件内容
"""
while True:
chunk = fp.read(block_size)
# 当文件没有更多内容时,read 调用将会返回空字符串 ''
if not chunk:
break
yield chunk def return_count_v3(fname):
count = 0
with open(fname) as fp:
for chunk in chunked_file_reader(fp):
count += 1
return count

进行到这一步,代码似乎已经没有优化的空间了,但其实不然。iter(iterable) 是一个用来构造迭代器的内建函数,但它还有一个更少人知道的用法。当我们使用 iter(callable, sentinel) 的方式调用它时,会返回一个特殊的对象,迭代它将不断产生可调用对象 callable 的调用结果,直到结果为 setinel 时,迭代终止。

def chunked_file_reader(file, block_size=1024 * 8):
"""生成器函数:分块读取文件内容,使用 iter 函数
"""
# 首先使用 partial(fp.read, block_size) 构造一个新的无需参数的函数
# 循环将不断返回 fp.read(block_size) 调用结果,直到其为 '' 时终止
for chunk in iter(partial(file.read, block_size), ''):
yield chunk

最后只需要两行代码,就构造出了一个可复用的分块读取方法,和一开始的”标准流程“按行读取 2GB 内存/耗时 65 秒 相比,使用生成器的版本只需要 7MB 内存 / 12 秒就能完成计算。效率提升了接近 4 倍,内存占用更是不到原来的 1%,简直完美。

原文转载自「刘悦的技术博客」 https://v3u.cn/a_id_97

最新文章

  1. iOS 打开本地 其他应用程序(URL Types)
  2. SubMenu的setHeaderView使用时发现的问题
  3. hibernate----(Hql)另一种查询---利用Criteria类
  4. 理解Certificate、App Id、Identifiers 和 Provisioning Profile
  5. 多备份CEO胡茂华:创业路上的五道坎
  6. opencv2对于读书笔记——二值化——thresholded功能
  7. iOS开发——pch文件创建
  8. JavaWeb之JDBC
  9. Meta http-equiv属性详解
  10. MongoDB学习(使用分组、聚合和映射-归并)
  11. msxfs.dll函数加载代码
  12. RESTful学习笔记
  13. BZOJ1283 序列(费用流)
  14. cross validation笔记
  15. Python 断言 assert 的用法
  16. 3org.springframework.beans.factory.BeanDefinitionStoreException异常
  17. 阅读The Java® Language Specification需要知道的术语
  18. CentOS7 安装 JIRA 7.2.x 教程:下载、安装、汉化、破解
  19. 设计模式 — 建造者(生成器)模式(Builder)
  20. ReentrantLock和ReentrantReadWriteLock对比

热门文章

  1. 一探 Vue 数据响应式原理
  2. vscode编写的程序中文乱码怎么办?
  3. 好客租房33-事件绑定this指向(总结)
  4. 149_1秒获取Power BI Pro帐号
  5. 一文讲透为Power Automate for Desktop (PAD) 实现自定义模块 - 附完整代码
  6. C++primer第一章
  7. Excel中把汉字转换成拼音码
  8. PostMan 快快走开, ApiFox 来了, ApiFox 强大的Api调用工具
  9. JAVA 异常 基本知识
  10. 【clickhouse专栏】对标mongodb存储类JSON数据文档统计分析