在学习Key-Value Cache(kv cache),读者需要熟悉Transformer架构,最好能够懂得分析transformer模型的参数量、计算量、中间激活、KV cache。本文不会再对Transformer架构做赘述。
在如GPT等大模型的推理当中,一次推理只生成一个token,输出的token会与输入tokens拼接在一起,作为下一次推理的输入,每个token都需要依赖之前生成的token,这个重要的特性就是自回归性(autoregressive)。
然而随着推理的进行,输入的tokens会越变越长,导致推理FLOPs(计算量,如果读过前言中的那篇文章,可以知道推理的
F
L
O
P
s
=
2
?
模型参数量
?
t
o
k
e
n
数)
FLOPs = 2 * 模型参数量 * token数)
FLOPs=2?模型参数量?token数)随之增大。这会严重影响推理的速度。
由于在推理过程中,第
i
i
i次注意力的计算都会重复计算前
i
?
1
i-1
i?1个token的
K
K
K和
V
V
V值,故KV Cache的出发点就在这里,缓存当前轮可重复利用的
K
K
K和
V
V
V值,下一轮计算时直接读取缓存结果。
如果还有细节理解不到位的地方可以参考大模型推理性能优化之KV Cache解读