不要过早优化。
“让正确的程序更快要比让快速的程序正确容易得多”
权衡优化的代价
通常面临的选择是时间换空间或空间换时间
不要优化那些无关紧要的部分
过分优化会使代码难以阅读和理解;首先要找到代码运行慢的位置,通常是内部循环,专注于运行慢的地方进行优化
问题:由于全局变量和局部变量实现方式不同,定义在全局范围内的代码运行速度会比定义在函数中的慢不少
解决方案:通过将变量、脚本语句放入到函数中,再调用函数
# 不推荐写法。代码耗时:26.8秒
import math
size = 10000
for x in range(size):
for y in range(size):
z = math.sqrt(x) + math.sqrt(y)
# 推荐写法。代码耗时:20.6秒
import math
def main(): # 定义到函数中,以减少全部变量使用
size = 10000
for x in range(size):
for y in range(size):
z = math.sqrt(x) + math.sqrt(y)
main()
# 不推荐写法。代码耗时:14.5秒
import math
def computeSqrt(size: int):
result = []
for i in range(size):
result.append(math.sqrt(i))
return result
def main():
size = 10000
for _ in range(size):
result = computeSqrt(size)
main()
问题:每次使用.
(属性访问操作符时)会触发特定的方法,如__getattribute__()
和__getattr__()
,这些方法会进行字典操作,因此会带来额外的时间开销。
解决:
优化一:通过from import
语句,可以消除属性访问。
# 第一次优化写法。代码耗时:10.9秒
from math import sqrt
优化二:在第 1 节中我们讲到,局部变量的查找会比全局变量更快,因此对于频繁访问的变量sqrt
,通过将其改为局部变量可以加速运行。
sqrt = math.sqrt # 赋值给局部变量
for i in range(size):
result.append(sqrt(i)) # 避免math.sqrt的使用
优化三:调用了list
的append
方法。通过将该方法赋值给一个局部变量,可以彻底消除computeSqrt
函数中for
循环内部的.
使用
append = result.append
sqrt = math.sqrt # 赋值给局部变量
for i in range(size):
append(sqrt(i)) # 避免 result.append 和 math.sqrt 的使用
问题:避免.
的原则也适用于类内属性,访问self._value
的速度会比访问一个局部变量更慢一些。
for _ in range(size):
append(sqrt(self._value))
解决方案:通过将需要频繁访问的类内属性赋值给一个局部变量,可以提升代码运行速度。
value = self._value
for _ in range(size):
append(sqrt(value)) # 避免 self._value 的使用
问题:任何时候当你使用额外的处理层(比如装饰器、属性访问、描述器)去包装代码时,都会让代码变慢。
解决:大部分情况下,需要重新进行审视使用属性访问器的定义是否有必要,使用getter/setter
函数对属性进行访问通常是 C/C++ 程序员遗留下来的代码风格。如果真的没有必要,就使用简单属性。
value = range(size)
value_list = [x for x in value]
square_list = [x * x for x in value_list]
问题:上面的代码中value_list
完全没有必要,这会创建不必要的数据结构或复制。
value = range(size)
square_list = [x * x for x in value] # 避免无意义的复制
解决:直接这样写就好了
另外一种情况是对 Python 的数据共享机制过于偏执,并没有很好地理解或信任 Python 的内存模型,滥用 copy.deepcopy()
之类的函数。通常在这些代码中是可以去掉复制操作的。
在交换值时创建了一个临时变量temp
,如果不借助中间变量,代码更为简洁、且运行速度更快。
原因:当使用a + b
拼接字符串时,由于 Python 中字符串是不可变对象,其会申请一块内存空间,将a
和b
分别复制到该新申请的内存空间中。
因此,如果要拼接 n 个字符串,会产生 n-1 个中间结果,每产生一个中间结果都需要申请和复制一次内存,严重影响运行效率。
解决方案:使用join()
拼接字符串时,会首先计算出需要申请的总的内存空间,然后一次性地申请所需内存,并将每个字符串元素复制到该内存中去。
if
条件的短路特性是指
对if a and b
这样的语句, 当a
为False
时将直接返回,不再计算b
;
对于if a or b
这样的语句,当a
为True
时将直接返回,不再计算b
。
因此, 为了节约运行时间,
对于or
语句,应该将值为True
可能性比较高的变量写在or
前;
而对于and
语句,值为True
可能性比较高的变量应该推后。
# 不推荐写法。代码耗时:6.7秒
def computeSum(size: int) -> int:
sum_ = 0
i = 0
while i < size:
sum_ += i
i += 1
return sum_
Python 的for
循环比while
循环快不少。
# 推荐写法。代码耗时:4.3秒
def computeSum(size: int) -> int:
sum_ = 0
for i in range(size): # for 循环代替 while 循环
sum_ += i
return sum_
# 推荐写法。代码耗时:1.7秒
def computeSum(size: int) -> int:
return sum(range(size)) # 隐式 for 循环代替显式 for 循环
for x in range(size):
for y in range(size):
z = sqrt(x) + sqrt(y)
上面的代码中sqrt(x)
位于内侧for
循环, 每次训练过程中都会重新计算一次,增加了时间开销。
or x in range(size):
sqrt_x = sqrt(x) # 减少内层 for 循环的计算
for y in range(size):
z = sqrt_x + sqrt(y)
我们沿用上面介绍过的例子,在此基础上使用numba.jit
。numba
可以将 Python 函数 JIT 编译为机器码执行,大大提高代码运行速度。关于numba
的更多信息见下面的主页:http://numba.pydata.org/numba.pydata.org
Python 内置的数据结构如str
, tuple
, list
, set
, dict
底层都是 C 实现的,速度非常快,自己实现新的数据结构想在性能上达到内置的速度几乎是不可能的。
list
类似于 C++ 中的std::vector
,是一种动态数组。
插入:其会预分配一定内存空间,当预分配的内存空间用完,又继续向其中添加元素时,会申请一块更大的内存空间,然后将原有的所有元素都复制过去,之后销毁之前的内存空间,再插入新元素。
删除:删除元素时操作类似,当已使用内存空间比预分配内存空间的一半还少时,会另外申请一块小内存,做一次元素复制,之后销毁原有大内存空间。
因此,如果有频繁的新增、删除操作,新增、删除的元素数量又很多时,list的效率不高。此时,应该考虑使用collections.deque
。collections.deque
是双端队列,同时具备栈和队列的特性,能够在两端进行 O(1) 复杂度的插入和删除操作。
查找:list
的查找操作也非常耗时。当需要在list
频繁查找某些元素,或频繁有序访问这些元素时,可以使用bisect
维护list
对象有序并在其中进行二分查找,提升查找的效率。
另外一个常见需求是查找极小值或极大值,此时可以使用heapq
模块将list
转化为一个堆,使得获取最小值的时间复杂度是 O(1)。
下面的网页给出了常用的 Python 数据结构的各项操作的时间复杂度:https://wiki.python.org/moin/TimeComplexity