Llama3存储空间需求取决于模型版本及量化方式
Llama3是Meta推出的开源大语言模型,提供多版本参数规模及量化选项,不同配置的存储空间需求差异较大,具体如下:
80亿参数规模的原始模型(FP32格式)需约16GB存储空间;若采用FP16格式(半精度浮点数),存储需求可减半至约8GB。
700亿参数规模的原始模型(FP32格式)需约140GB存储空间;FP16格式则为约70GB。
4050亿参数规模的原始模型(FP32格式)需约810GB存储空间;FP16格式为约405GB。
为降低存储及推理成本,Llama3支持量化技术(如4-bit、8-bit)。常见量化版本的存储需求如下:
通过量化压缩后,存储空间约为4.7GB,适合资源有限的设备(如个人电脑)快速部署。
压缩后存储空间约为40GB,可在配备一定算力的设备(如搭载NVIDIA RTX A6000及以上显卡的计算机)上运行。