Tikhonov regularization(季赫诺夫正则化)是一种用于解决病态问题/不适定问题(ill-posed problems)的数学方法:在拟合数据时向目标函数加入一个“惩罚项”(通常是参数的范数),以抑制噪声放大、减少过拟合并让解更稳定。它在机器学习中常与L2 正则化/岭回归(ridge regression)密切相关(许多场景下可视为同一思想在不同领域的表述)。
/ˈtɪxənɔːf/ /ˌrɛɡjʊləraɪˈzeɪʃən/
Tikhonov regularization helps stabilize the solution.
季赫诺夫正则化有助于让解更稳定。
When the measurement matrix is ill-conditioned, Tikhonov regularization can reduce sensitivity to noise by penalizing large parameter values.
当测量矩阵条件很差时,季赫诺夫正则化会通过惩罚过大的参数值来降低对噪声的敏感性。
“Tikhonov”来自苏联/俄罗斯数学家 Andrey N. Tikhonov(安德烈·季赫诺夫)的姓氏;“regularization”意为“正则化/规则化”,在数学与统计中指通过加入约束或惩罚项,使问题更“良态”(更稳定、可解且对噪声不那么敏感)。