Tagged
时间序列
时间序列模型(八):Informer -- 高效长序列预测
Informer 用 ProbSparse 注意力、编码器蒸馏、生成式解码器把 Transformer 复杂度从 O(L^2) 降到 O(L log L)。完整数学推导、PyTorch 代码与 ETT/气象 benchmark。
时间序列模型(七):N-BEATS -- 可解释的深度架构
N-BEATS 把深度学习的表达力和经典分解的可解释性合二为一:基函数展开、双重残差堆叠、M4 竞赛分析,以及完整的 PyTorch 代码。
时间序列模型(六):时序卷积网络 (TCN)
TCN 用因果膨胀卷积换取并行训练和指数级感受野。完整 PyTorch 实现,附交通流和多变量传感器两个实战案例。
时间序列模型(五):时间序列的 Transformer 架构
时间序列的 Transformer 全景:编码器-解码器结构、时序位置编码、O(n^2) 注意力瓶颈、Decoder-only 自回归预测与 Patching 策略。含 Autoformer / FEDformer / Informer / PatchTST 选型与可直接运行的实现。
时间序列模型(四):Attention 机制 -- 直接的长程依赖
自注意力、多头注意力和位置编码在时间序列中的应用。逐步推导数学公式,附 PyTorch 实现和注意力可视化。
时间序列模型(三):GRU -- 轻量门控与效率权衡
GRU 把 LSTM 精炼为两个门,参数减少 25%,训练快 10--15%。本文用公式、基准测试和决策矩阵告诉你 GRU 何时优于 LSTM。
时间序列模型(二):LSTM -- 门控机制与长期依赖
LSTM 的遗忘门、输入门和输出门如何解决梯度消失问题。完整的 PyTorch 时间序列预测代码和实用调参技巧。
时间序列模型(一):传统统计模型
从一个统一的状态空间视角推导 ARIMA、SARIMA、VAR、GARCH、Prophet、指数平滑与卡尔曼滤波,配合 Box-Jenkins 工作流、ACF/PACF 识别与可运行的 Python 代码。