01 使用哈希表的数据结构

如果在程序中遇到大量搜索操作时,并且数据中没有重复项,则可以使用查找而不是循环。举例如下:

items = ['a', 'b',..,'100m'] #1000s of items
found = False
for i in items:
if (i == '100m'):
found = True

可以改写为

items = {'a':'a', 'b':'b:,..,'100m':'100m'} #each item is key/value
found = False
if '100m' in items:
found = True

02 矢量化取代循环

尽量使用基于C构建的Python库,例如Numpy,Scipy和Pandas,并且利用矢量化同时处理来取代程序中编写多次处理数组单个元素的循环,循环可能是程序优化最容易被拿来开刀的地方了。举例如下:在对数组中每个元素求平方时直接用数组相乘,而不是两个for循环。

import numpy as np
array = np.array([[1., 2., 3.], [4., 5., 6.]])
m_array = array*array

03 精简代码行数

在编程时,尽量使用一些python的内置函数来精简代码行数,是代码显得简洁凝练,大大提高代码运行效率。举例如下:

  newlist = []
def my_fun(a):
return a + 't'
for w in some_list:
newlist.append(my_fun(w))

可以改写为

def my_fun(a):
return a + 't'
newlist = map(my_fun, some_list)

04 使用多进程

一般计算机都是多进程的,那么在执行操作时可以使用Python中的multiproccessing。多进程可在代码中实现并行化。 当您要实例化新进程,访问共享内存时,多进程成本很高,因此如果有大量数据处理时可以考虑使用多进程。 对于少量数据,则不提倡使用多进程。举例如下:

def some_func(d):
#computations
data = [1,2,..,10000] #large data
for d in data:
some_func(d)

可以改写为

import multiprocessing
def some_func(d):
#computations
data = [1,2,..,10000] #large data
pool = multiprocessing.Pool(processes=number_of_processors)
r = pool.map(some_func, data)
pool.close()

05 使用Cpython

Cython是一个静态编译器,可以为您优化代码。加载cypthonmagic扩展并使用cython标记使用cython编译代码。

Cpython的安装:

pip install Cython 

Cpython的使用:

% load_ext cythonmagic
%%cython
def do_work():
... #computationally intensive work

06 尽量使用csv替代xlsx

在进行数据处理时, 我需要更长的时间才能将数据加载到excel文件或从excel文件保存数据。 相反,我选择了创建多个csv文件的路径,并创建了一个文件夹来对文件进行分组。举例如下:

  df = pd.DataFrame([['a', 'b'], ['c', 'd']],index=['row 1', 'row 2'],columns=['col 1', 'col 2'])
df.to_excel("my.xlsx")
df2 = df.copy()
with pd.ExcelWriter('my.xlsx') as writer:
df.to_excel(writer, sheet_name='Sheet_name_1')
df2.to_excel(writer, sheet_name='Sheet_name_2')

可以改写为

df = pd.DataFrame([['a', 'b'], ['c', 'd']],index=['row 1', 'row 2'],columns=['col 1', 'col 2'])
df2 = df.copy()
df.to_csv("my.csv")
df2.to_csv("my.csv")

07 使用Numba

它是一个JIT(即时)编译器。 通过装饰器,Numba将带注释的Python和NumPy代码编译为LLVM 。将您的功能分为两部分:

1.执行计算的函数 - 使用@autojit进行装饰

2.执行IO的功能

from numba import jit, autojit
@autojit
def calculation(a):
.... def main():
calc_result = calculation(some_object) d = np.array(calc_result)
#save to file
return d

08 使用Dask来并行化Pandas DataFrame

Dask很棒! 它帮助我处理数据框中的数值函数和并行的numpy。 我甚至试图在集群上扩展它,它就是这么简单!

 import pandas as pd
import dask.dataframe as dd
from dask.multiprocessing import get
data = pd.DataFrame(...) #large data set
def my_time_consuming_function(d):
.... #long running function
ddata = dd.from_pandas(data, npartitions=30)
def apply_my_func(df):
return df.apply(
(lambda row: my_time_consuming_function(*row)), axis=1)
def dask_apply():
return ddata.map_partitions(apply_my_func).compute(get=get)

09 使用Pandarallel库

Pandarallel可以将pandas操作与多个进程并行化同样,仅在您拥有大型数据集时使用。

 from pandarallel import pandarallel
from math import sin
pandarallel.initialize()
# ALLOWED
def my_time_consuming_function(x):
.... df.parallel_apply(my_time_consuming_function, axis=1)

总结

对于提高Python的性能,第一是先编写简洁,高效的代码。 我们必须确保代码不会在循环中反复执行相同的计算。第二不要为集合中的每个记录打开/关闭IO连接。第三要确保在不需要时不创建新的对象实例。通过大量的编程练习,掌握一些高级的编程方法对你十分重要。

最新文章

  1. JS设置CSS样式的几种方式
  2. java多线程的几种实现方式记录
  3. ios 图片的两种加载方式
  4. IOS本地通知
  5. python leetcode 日记--Maximal Square--221
  6. fedora 安装vmwear
  7. PyQt多窗口调用
  8. Qt: 界面中使用中文(三种方法,QApplication::translate可指定编码)
  9. uva 11168
  10. 第52周四ApplicationContext
  11. Online Schema Change for MySQL
  12. 深入Android RxJava 2
  13. windows最简单的局部截图工具
  14. dubbo源码分析5——SPI机制_AdaptiveExtension的原理和作用
  15. String 类型的值能够被反射改变从而引发的意外事件
  16. ShakaApktool 用法
  17. 《Semantic Sentence Matching with Densely-connected Recurrent and Co-attentive Information》DRCN 句子匹配
  18. ceph-mon 代码解读
  19. 关于VS2010的帮助文档更改路径
  20. 判断TrueType字体

热门文章

  1. GPU 加速 & WebGL
  2. linux bash shell & lsof & grep & ps
  3. 直播预告 | 全面的审计分析和权限管控——CloudQuery年终发布!
  4. MySQL -- 内部临时表
  5. 推荐一款好用的免费远程控制软件——ToDesk
  6. 将springboot项目部署到服务器的tomcat中无法访问
  7. Spring-03 依赖注入(DI)
  8. Jump Server在docker中安装部署
  9. 将VMware工作站最小化到托盘栏
  10. 基于solarflare的openonload技术以TCPDirect方法加速epoll