FP32 指“32 位浮点数”(通常对应 IEEE 754 单精度浮点格式),常用于计算机图形、科学计算与深度学习中,表示一种数值表示与计算精度标准。(也常用来与 FP16、BF16 等低精度格式对比。)
/ˌɛf piː ˌθɜːrti ˈtuː/
The model was trained in FP32 for better numerical stability.
为了更好的数值稳定性,这个模型使用 FP32 进行训练。
Although FP32 offers higher precision, switching to mixed precision can significantly speed up GPU training while keeping accuracy nearly the same.
尽管 FP32 精度更高,但改用混合精度往往能显著加速 GPU 训练,同时让准确率几乎不受影响。
FP32 是缩写:FP = floating point(浮点),32 表示 32-bit(32 位)。在工程与计算领域,它通常默认指 IEEE 754 单精度(single-precision)浮点数,用来区分于 FP64(双精度)等格式。