Tagged

机器学习

Feb 8, 2026 ML Math Derivations 11 min read

机器学习数学推导(二十):正则化与模型选择

系列收官:从偏差-方差分解出发,沿着 L1/L2 几何、Dropout 子网络采样、K 折交叉验证、AIC/BIC、VC 维到现代的双下降现象,回答机器学习理论中最深的一个问题——为什么模型能泛化。

Feb 7, 2026 ML Math Derivations 10 min read

机器学习数学推导(十九):神经网络与反向传播

神经网络如何学习?本文推导前向传播的矩阵形式、反向传播的链式法则逐层推导、梯度消失/爆炸的数学分析、以及 Xavier 和 He 初始化的方差保持策略。

Feb 6, 2026 ML Math Derivations 12 min read

机器学习数学推导(十八):聚类算法

如何在无标签数据中发现群组结构?本文从数学基础出发推导 K-means(Lloyd 算法与 K-means++)、层次聚类、DBSCAN 密度聚类、谱聚类与高斯混合模型,配以七张图直观展现每种算法背后的不同假设。

Feb 5, 2026 ML Math Derivations 13 min read

机器学习数学推导(十七):降维与主成分分析

高维空间对基于距离的算法极其不友好。本文从最大方差与最小重构误差两个等价视角推导 PCA,并依次扩展到核 PCA、LDA、t-SNE 与 ICA——配套图示直接展示同一份数据上各方法到底干了什么。

Feb 4, 2026 ML Math Derivations 13 min read

机器学习数学推导(十六):条件随机场

CRF 为什么在序列标注任务上压 HMM 一头?本文从零推导线性链 CRF——势函数与特征函数、前向后向算法、对数似然梯度(经验期望减模型期望)、Viterbi 解码,以及现代 BiLSTM-CRF 的整合方式。

Feb 3, 2026 ML Math Derivations 11 min read

机器学习数学推导(十五):隐马尔可夫模型

从一个原理推出 HMM 的三大经典算法:把联合分布按时间因子化,再用动态规划复用跨时间的子计算。覆盖前向后向的边缘与平滑、Viterbi 的 MAP 解码,以及 Baum-Welch(EM)的参数学习。

Feb 2, 2026 ML Math Derivations 12 min read

机器学习数学推导(十四):变分推断与变分EM

从一行恒等式出发推导变分推断:ELBO 分解、平均场假设、坐标上升 CAVI、变分 EM,以及让 VAE 得以训练的重参数化技巧。

Feb 1, 2026 ML Math Derivations 9 min read

机器学习数学推导(十三):EM算法与GMM

从 Jensen 不等式与 ELBO 出发推导 EM 算法,证明其单调上升性,并完整给出高斯混合模型(GMM)的 E 步、M 步更新公式、模型选择以及与 K-means 的关系。

Jan 31, 2026 ML Math Derivations 11 min read

机器学习数学推导(十二):XGBoost 与 LightGBM

从 XGBoost 的二阶泰勒展开到 LightGBM 的直方图加速,本文系统推导两大工业级梯度提升框架——正则化目标函数、分裂增益闭式解、GOSS 单边采样与 EFB 互斥特征绑定的数学原理。

Jan 30, 2026 ML Math Derivations 16 min read

机器学习数学推导(十一):集成学习

推导一群平庸分类器为何能压过单个高手。涵盖偏差-方差分解、Bagging 与随机森林的方差缩减、AdaBoost 的指数损失、以及 GBDT 在函数空间中的梯度下降。

Jan 29, 2026 ML Math Derivations 10 min read

机器学习数学推导(十):半朴素贝叶斯与贝叶斯网络

从 SPODE、TAN、AODE 到完整的贝叶斯网络:通过单依赖树、超父集成与图结构学习,把朴素贝叶斯和全联合分布之间的鸿沟逐级填平。

Jan 28, 2026 ML Math Derivations 15 min read

机器学习数学推导(九):朴素贝叶斯

从贝叶斯定理与条件独立假设出发,完整推导朴素贝叶斯分类器:参数估计、拉普拉斯平滑、三种模型变体,以及为什么这个看似过于简单的模型在实践中如此有效。

Jan 27, 2026 ML Math Derivations 12 min read

机器学习数学推导(八):支持向量机

从最大间隔到核技巧,完整推导 SVM 的理论框架——拉格朗日对偶、KKT 条件、SMO 算法与核函数构造。

Jan 26, 2026 ML Math Derivations 16 min read

机器学习数学推导(七):决策树

从信息熵到基尼指数,从 ID3 到 CART——系统推导决策树的数学原理:分裂准则、连续特征与缺失值处理、剪枝策略、特征重要性,所有图都用 sklearn 验证。

Jan 25, 2026 ML Math Derivations 13 min read

机器学习数学推导(六):逻辑回归与分类

从Sigmoid到Softmax,完整推导逻辑回归——交叉熵损失、梯度计算、正则化与多分类扩展,附Python验证。

Jan 24, 2026 ML Math Derivations 14 min read

机器学习数学推导(五):线性回归

从代数(正规方程)、几何(正交投影)、概率(最大似然)三个角度完整推导线性回归,再延伸到 Ridge、Lasso、梯度下降与诊断方法,全部结论与 scikit-learn 互验。

Jan 23, 2026 ML Math Derivations 18 min read

机器学习数学推导(四):凸优化理论

从凸集与凸函数出发,严格推导梯度下降、牛顿法、BFGS、KKT 条件与 ADMM——机器学习优化的数学基石。

Jan 22, 2026 ML Math Derivations 13 min read

机器学习数学推导(三):概率论与统计推断

从 Kolmogorov 公理到最大似然估计,从贝叶斯推断到信息论——一篇文章打通机器学习背后的概率与统计语言。

Jan 21, 2026 ML Math Derivations 12 min read

机器学习数学推导(二):线性代数与矩阵论

机器学习的语言是线性代数。本文从第一性原理推导向量空间、特征值分解、SVD 与矩阵求导——ML 优化所需的全部工具。

Jan 20, 2026 ML Math Derivations 17 min read

机器学习数学推导(一):绪论与数学基础

机器为什么能从有限的数据中学到普适的规律?本章从第一性原理出发,系统推导学习理论的数学骨架——问题形式化、损失函数、PAC 框架、VC 维、偏差-方差分解与无免费午餐定理。