运行LLM所需的GPU内存估算


飞致云 发布于 2024-09-27 / 480 阅读 / 0 评论 /

转载自: https://mp.weixin.qq.com/s/lyIMO2Cf6rYqJbst6HO2iw

               https://www.substratus.ai/blog/calculating-gpu-memory-for-llm

运行大语言模型的GPU所需内存,可通过一个通用的计算公式 进行估算:

                       该公式只需对变量P和Q进行替换即可。

字段

解释

M

GPU 内存(以 Gigabyte 为单位)

P

模型中的参数数量。例如,7B 模型有 70 亿个参数, P=7。

4B

4个字节,表示每个参数使用的字节数

32

每个字节有32位(bit)

Q

加载模型时使用的位数,4,8或者16位

1.2

表示内存加载过程中额外的消耗

目前模型的参数绝大多数都是float32类型, P * 4B(B表示Bytes) 表示模型对应的参数的字节数, 而1GB刚好等于10亿字节,因此这部分实际上是包含单位在内的换算。

当模型加载的权重精度为FP8或FP16时,Q=8或16,由于每个参数本来需要32bit,因此当采用低精度加载时,内存只需要原来的1/4 或 1/2, 也即1/(32/Q)。

以Qwen2-7B-Instruct为例,其参数总字节数为:(7*10亿) * 4 Bytes,

换算为GB: ((7*10亿) 4 Bytes ) / 10亿 Bytes = 7 4 GB = 28GB,

当Q=8时, M= (28GB/(32/8) ) * 1.2 = 8.4GB。

在实际估算中,可以省去上述复杂过程,直接替换P与Q的数值,使用下述在线工具估算: 

   http://111.229.177.194:3001/calculator

   https://huggingface.co/spaces/hf-accelerate/model-memory-usage

如上面的Qwen2-7B-Instruct模型,P=7,如图所示填入即可。

当然,这样估算的结果也只是理论值,在实际工程实践中,要考虑可能的长文本输入,要考虑并发性,要考虑响应速度和用户体验等,大概率要比这估算值大,很可能需要double甚至更多。



是否对你有帮助?