对于超大规模的csv文件,我们无法一下将其读入内存当中,只能分块一部分一部分的进行读取;

首先进行如下操作:

import pandas as pd
reader = pd.read_csv('data/servicelogs', iterator=True) 分块,每一块是一个chunk,之后将chunk进行拼接;
loop = True
chunkSize = 100000
chunks = []
while loop:
try:
chunk = reader.get_chunk(chunkSize)
chunks.append(chunk)
except StopIteration:
loop = False
print "Iteration is stopped."
df = pd.concat(chunks, ignore_index=True)

最新文章

  1. jquery鼠标右键事件
  2. js数组方法扩展
  3. CTE
  4. eclipse基础及开发插件
  5. mac mysql
  6. 黄聪: 50 个 Bootstrap 插件
  7. NVelocity的基本用法
  8. 常用vi编辑命令
  9. [转]Responsive Tables Demo
  10. i++和++i
  11. 【题解】【区间】【二分查找】【Leetcode】Insert Interval & Merge Intervals
  12. Bitbucket Pull Request和fork
  13. moodle中文API之表单API
  14. Spring3.2 HelloWorld
  15. 再谈Hibernate级联删除——JPA下的Hibernate实现一对多级联删除CascadeType.DELETE_ORPHAN
  16. glog 使用
  17. Linux centos nginx下载安装初步
  18. BatchPreparedStatementSetter,用法
  19. css之操作属性
  20. 类型重命名 typedef

热门文章

  1. jQuery实现简单购物车页面
  2. arcgis api 4.x for js 聚合效果图(附源码下载)
  3. idea上传项目到github
  4. Gemini.Workflow 双子工作流高级教程:对外API控制引擎:总述
  5. finger
  6. Hive脚本中切勿使用/**/注释
  7. Dynamics 365客户端编程示例:两个选项集字段的联动
  8. 内存取证工具-volatility、foremost
  9. synchronized到底锁住的是谁?
  10. Filter拦截器和Listen监听器