Tagged
梯度下降
机器学习数学推导(六):逻辑回归与分类
从Sigmoid到Softmax,完整推导逻辑回归——交叉熵损失、梯度计算、正则化与多分类扩展,附Python验证。
机器学习数学推导(五):线性回归
从代数(正规方程)、几何(正交投影)、概率(最大似然)三个角度完整推导线性回归,再延伸到 Ridge、Lasso、梯度下降与诊断方法,全部结论与 scikit-learn 互验。
机器学习数学推导(四):凸优化理论
从凸集与凸函数出发,严格推导梯度下降、牛顿法、BFGS、KKT 条件与 ADMM——机器学习优化的数学基石。