特征缩放(feature scaling):在机器学习/数据分析中,把不同量纲或取值范围差异很大的特征进行数值变换,使它们落在相近的尺度上(例如缩放到 0–1 或变为均值 0、方差 1),以便模型更稳定、更快收敛,并避免某些特征因数值更大而“主导”训练。常见方法包括 Min-Max 归一化、Z-score 标准化 等。
/ˈfiːtʃər ˈskeɪlɪŋ/
Feature scaling can improve a model’s training speed.
特征缩放可以提高模型的训练速度。
Because the dataset mixes income (in dollars) and age (in years), we applied feature scaling before training a distance-based classifier.
由于数据集中同时包含收入(美元)和年龄(年)这类量纲不同的特征,我们在训练基于距离的分类器之前进行了特征缩放。
feature 源自古法语 feature(形状、外貌),进一步可追溯到拉丁语 factura(制作、形成);在现代技术语境中引申为“特征/变量”。scaling 来自 scale(尺度、比例),表示“按比例调整”。合在一起,feature scaling 直译为“对特征做尺度调整”,成为数据预处理中的常用术语。