<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Linear Algebra on Chen Kai Blog</title><link>https://www.chenk.top/zh/linear-algebra/</link><description>Recent content in Linear Algebra on Chen Kai Blog</description><generator>Hugo</generator><language>zh-CN</language><lastBuildDate>Wed, 30 Apr 2025 09:00:00 +0000</lastBuildDate><atom:link href="https://www.chenk.top/zh/linear-algebra/index.xml" rel="self" type="application/rss+xml"/><item><title>前沿应用与总结 -- 量子计算、GNN、大模型，与十八章回望</title><link>https://www.chenk.top/zh/linear-algebra/18-%E5%89%8D%E6%B2%BF%E5%BA%94%E7%94%A8%E4%B8%8E%E6%80%BB%E7%BB%93/</link><pubDate>Wed, 30 Apr 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/18-%E5%89%8D%E6%B2%BF%E5%BA%94%E7%94%A8%E4%B8%8E%E6%80%BB%E7%BB%93/</guid><description>&lt;p>我们一起走完了线性代数的漫长旅程。从平面上的箭头出发，最后走到了量子计算机的逻辑门、大语言模型的内部结构和数据云的拓扑形状。这一路最值得记住的事情——也是这套书一直想让你看到的——就是同样一小撮思想在反复出现：向量是状态，矩阵是变换，分解是变换内部的结构，范数告诉你什么时候可以信任你的计算。一旦把这套循环内化下来，再看那些&amp;quot;前沿&amp;quot;，它们就不再像异国他乡，而更像是你已经会说的语言里的另一种方言。&lt;/p></description></item><item><title>计算机视觉中的线性代数 -- 从像素到三维重建</title><link>https://www.chenk.top/zh/linear-algebra/17-%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89%E4%B8%AD%E7%9A%84%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0/</link><pubDate>Wed, 23 Apr 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/17-%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89%E4%B8%AD%E7%9A%84%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0/</guid><description>&lt;p>计算机视觉的核心任务是让机器&amp;quot;看懂&amp;quot;图像。让人惊讶的是，整个学科几乎都建立在线性代数之上：图像本身就是矩阵，几何变换是矩阵乘法，相机成像是一个 $3 \times 4$ 的投影矩阵，两视图几何浓缩成一句 $\mathbf{x}_2^\top \mathbf{F}\,\mathbf{x}_1 = 0$，三维重建则是稀疏线性最小二乘问题。换上这副眼镜再去看 CV，你会发现原本五花八门的算法不过是同一套线性代数工具的不同用法。&lt;/p></description></item><item><title>深度学习中的线性代数 -- 从全连接到 Transformer</title><link>https://www.chenk.top/zh/linear-algebra/16-%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E4%B8%AD%E7%9A%84%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0/</link><pubDate>Wed, 16 Apr 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/16-%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E4%B8%AD%E7%9A%84%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0/</guid><description>&lt;p>把所有营销话术都剥掉，深度学习就剩一件事：一长串矩阵乘法，中间夹一些逐元素的非线性。前向传播、反向传播、卷积、注意力、归一化、参数高效微调——每一个&amp;quot;花招&amp;quot;都不过是同一套代数主题的小变奏。一旦你能直接看见这些矩阵，整个领域就会从一袋零散食谱变成一种统一语言。&lt;/p></description></item><item><title>机器学习中的线性代数 -- 从 PCA 到推荐系统</title><link>https://www.chenk.top/zh/linear-algebra/15-%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E4%B8%AD%E7%9A%84%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0/</link><pubDate>Wed, 09 Apr 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/15-%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E4%B8%AD%E7%9A%84%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0/</guid><description>&lt;p>如果你问一位资深机器学习工程师&amp;quot;日常用得最多的数学是什么&amp;quot;，答案几乎一定是&lt;strong>线性代数&lt;/strong>。微积分用于推导，概率用于建模，但 ML 系统在运行时绝大部分时间都耗在矩阵乘法、矩阵分解和投影上。PyTorch 的 &lt;code>Linear&lt;/code>、scikit-learn 的 &lt;code>PCA&lt;/code>、Spark MLlib 的 &lt;code>ALS&lt;/code>、Transformer 的注意力头，本质上都是同一个线性代数原语在不同场景下的化身。&lt;/p></description></item><item><title>随机矩阵理论 -- 混沌中的秩序</title><link>https://www.chenk.top/zh/linear-algebra/14-%E9%9A%8F%E6%9C%BA%E7%9F%A9%E9%98%B5%E7%90%86%E8%AE%BA/</link><pubDate>Wed, 02 Apr 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/14-%E9%9A%8F%E6%9C%BA%E7%9F%A9%E9%98%B5%E7%90%86%E8%AE%BA/</guid><description>&lt;p>把一百万个独立高斯数排成一个 $1000 \times 1000$ 的对称矩阵，算它的特征值；这些特征值居然会铺成一条完美的半圆。一个本应是单位阵的样本协方差，特征值偏偏会摊到一段你能预先算出宽度的区间上。一个 Wigner 矩阵的最大特征值，其涨落分布既出现在重核能级里，也出现在生长晶体的高度涨落、随机置换最长上升子序列长度的分布里——这就是 &lt;strong>Tracy-Widom 律&lt;/strong>。&lt;strong>随机矩阵理论&lt;/strong>（Random Matrix Theory，RMT）研究的就是这一类&amp;quot;混沌中的秩序&amp;quot;为什么会出现，以及怎么把它们用起来。&lt;/p></description></item><item><title>张量与多线性代数 -- 从标量到高维数据立方体</title><link>https://www.chenk.top/zh/linear-algebra/13-%E5%BC%A0%E9%87%8F%E4%B8%8E%E5%A4%9A%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0/</link><pubDate>Wed, 26 Mar 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/13-%E5%BC%A0%E9%87%8F%E4%B8%8E%E5%A4%9A%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0/</guid><description>&lt;p>如果你写过深度学习代码，&amp;ldquo;张量&amp;quot;这个词早已熟到不能再熟 —— PyTorch 里所有数组都叫 &lt;code>torch.Tensor&lt;/code>，TensorFlow 干脆把它写进了产品名字。可张量到底是什么？为什么深度学习框架要借这个听起来像物理学的术语？&lt;/p></description></item><item><title>稀疏矩阵与压缩感知 -- 少即是多的数学奇迹</title><link>https://www.chenk.top/zh/linear-algebra/12-%E7%A8%80%E7%96%8F%E7%9F%A9%E9%98%B5%E4%B8%8E%E5%8E%8B%E7%BC%A9%E6%84%9F%E7%9F%A5/</link><pubDate>Wed, 19 Mar 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/12-%E7%A8%80%E7%96%8F%E7%9F%A9%E9%98%B5%E4%B8%8E%E5%8E%8B%E7%BC%A9%E6%84%9F%E7%9F%A5/</guid><description>&lt;h2 id="少即是多的奇迹">「少即是多」的奇迹&lt;/h2>
&lt;p>一张 24 兆像素的原始照片大约 70 MB，JPEG 压到几百 KB——压缩比上百倍——你看不出区别。传统 MRI 扫描要 30 分钟；现在的压缩感知 MRI 只要 5 分钟，图像质量一样。&lt;/p></description></item><item><title>矩阵微积分与优化 -- 从梯度到反向传播</title><link>https://www.chenk.top/zh/linear-algebra/11-%E7%9F%A9%E9%98%B5%E5%BE%AE%E7%A7%AF%E5%88%86%E4%B8%8E%E4%BC%98%E5%8C%96/</link><pubDate>Wed, 12 Mar 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/11-%E7%9F%A9%E9%98%B5%E5%BE%AE%E7%A7%AF%E5%88%86%E4%B8%8E%E4%BC%98%E5%8C%96/</guid><description>&lt;h2 id="从淋浴龙头讲起">从淋浴龙头讲起&lt;/h2>
&lt;p>每天早上你都在训练一个微型神经网络。水太凉，于是你拧一下旋钮——一个&lt;strong>参数&lt;/strong>；过一秒钟你感受到新的水温——&lt;strong>误差信号&lt;/strong>；再拧一下。三四次之后你就收敛了。&lt;/p></description></item><item><title>矩阵范数与条件数 -- 数值计算的健康体检</title><link>https://www.chenk.top/zh/linear-algebra/10-%E7%9F%A9%E9%98%B5%E8%8C%83%E6%95%B0%E4%B8%8E%E6%9D%A1%E4%BB%B6%E6%95%B0/</link><pubDate>Wed, 05 Mar 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/10-%E7%9F%A9%E9%98%B5%E8%8C%83%E6%95%B0%E4%B8%8E%E6%9D%A1%E4%BB%B6%E6%95%B0/</guid><description>&lt;h2 id="困扰工程师的那个问题">困扰工程师的那个问题&lt;/h2>
&lt;p>方程列对了，算法也写对了，为什么算出来的结果完全不对？&lt;/p>
&lt;p>罪魁祸首往往是一个叫做&lt;strong>条件数&lt;/strong>的量。它衡量一个线性系统有多&amp;quot;敏感&amp;quot;——输入端一点点抖动，会不会被放大成输出端的灾难。要谈条件数，得先有办法度量向量和矩阵的&amp;quot;大小&amp;quot;，这就是范数要做的事。&lt;/p></description></item><item><title>奇异值分解 SVD</title><link>https://www.chenk.top/zh/linear-algebra/09-%E5%A5%87%E5%BC%82%E5%80%BC%E5%88%86%E8%A7%A3svd/</link><pubDate>Wed, 26 Feb 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/09-%E5%A5%87%E5%BC%82%E5%80%BC%E5%88%86%E8%A7%A3svd/</guid><description>&lt;h2 id="一为什么-svd-配得上皇冠二字">一、为什么 SVD 配得上&amp;quot;皇冠&amp;quot;二字&lt;/h2>
&lt;p>&lt;a href="https://www.chenk.top/zh/%e7%ba%bf%e6%80%a7%e4%bb%a3%e6%95%b0-%e5%85%ab-%e5%af%b9%e7%a7%b0%e7%9f%a9%e9%98%b5%e4%b8%8e%e4%ba%8c%e6%ac%a1%e5%9e%8b/">第 8 章&lt;/a>
的谱定理告诉我们 $A = Q\Lambda Q^{\!\top}$，干净漂亮，但&lt;strong>有一个硬性前提：$A$ 必须对称&lt;/strong>。现实里大多数矩阵既不对称，甚至不是方阵：&lt;/p></description></item><item><title>对称矩阵与二次型</title><link>https://www.chenk.top/zh/linear-algebra/08-%E5%AF%B9%E7%A7%B0%E7%9F%A9%E9%98%B5%E4%B8%8E%E4%BA%8C%E6%AC%A1%E5%9E%8B/</link><pubDate>Wed, 19 Feb 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/08-%E5%AF%B9%E7%A7%B0%E7%9F%A9%E9%98%B5%E4%B8%8E%E4%BA%8C%E6%AC%A1%E5%9E%8B/</guid><description>&lt;h2 id="为什么对称矩阵是最好的矩阵">为什么对称矩阵是&amp;quot;最好的矩阵&amp;quot;&lt;/h2>
&lt;p>如果让线性代数家选出&amp;quot;最听话的矩阵&amp;quot;，结果几乎一定是&lt;strong>对称矩阵&lt;/strong>。它们具备三件好事：&lt;/p>
&lt;ul>
&lt;li>特征值全是&lt;strong>实数&lt;/strong>；&lt;/li>
&lt;li>存在一组&lt;strong>完全正交&lt;/strong>的特征向量；&lt;/li>
&lt;li>一定可以&lt;strong>完美对角化&lt;/strong> $A = Q \Lambda Q^T$，逆矩阵和幂运算都几乎不要钱。&lt;/li>
&lt;/ul>
&lt;p>这并不是抽象的偏爱。日常工程里你真正会去算的矩阵，绝大多数本来就是对称的：&lt;/p></description></item><item><title>正交性与投影 -- 当向量互不干扰</title><link>https://www.chenk.top/zh/linear-algebra/07-%E6%AD%A3%E4%BA%A4%E6%80%A7%E4%B8%8E%E6%8A%95%E5%BD%B1/</link><pubDate>Wed, 12 Feb 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/07-%E6%AD%A3%E4%BA%A4%E6%80%A7%E4%B8%8E%E6%8A%95%E5%BD%B1/</guid><description>&lt;h2 id="为什么正交性如此重要">为什么正交性如此重要&lt;/h2>
&lt;p>两个向量&amp;quot;正交&amp;quot;，说的是它们彼此互不干扰：一个方向上的信息不会泄漏到另一个方向。这一句简单的话背后，藏着 GPS 定位、降噪耳机、JPEG 压缩、推荐系统，以及绝大多数数值线性代数。&lt;/p></description></item><item><title>特征值与特征向量</title><link>https://www.chenk.top/zh/linear-algebra/06-%E7%89%B9%E5%BE%81%E5%80%BC%E4%B8%8E%E7%89%B9%E5%BE%81%E5%90%91%E9%87%8F/</link><pubDate>Wed, 05 Feb 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/06-%E7%89%B9%E5%BE%81%E5%80%BC%E4%B8%8E%E7%89%B9%E5%BE%81%E5%90%91%E9%87%8F/</guid><description>&lt;h2 id="一个核心问题">一个核心问题&lt;/h2>
&lt;p>把一个矩阵作用到一个向量上，几乎什么事都可能发生。绝大多数向量会被同时&lt;strong>旋转&lt;/strong>和&lt;strong>拉伸&lt;/strong>，落到一个全新的方向。但在它们之中，总有少数特殊的向量，无论怎么作用都不肯离开自己所在的那条线——它们出来的方向和进去时一模一样，只是被拉长、缩短，或者翻了个面。&lt;/p></description></item><item><title>线性方程组与列空间</title><link>https://www.chenk.top/zh/linear-algebra/05-%E7%BA%BF%E6%80%A7%E6%96%B9%E7%A8%8B%E7%BB%84%E4%B8%8E%E5%88%97%E7%A9%BA%E9%97%B4/</link><pubDate>Wed, 29 Jan 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/05-%E7%BA%BF%E6%80%A7%E6%96%B9%E7%A8%8B%E7%BB%84%E4%B8%8E%E5%88%97%E7%A9%BA%E9%97%B4/</guid><description>&lt;h2 id="一个贯穿一切的核心问题">一个贯穿一切的核心问题&lt;/h2>
&lt;p>应用数学几乎所有的问题，绕到最后都会回到同一个问题上：&lt;/p>
&lt;blockquote>
&lt;p>给定矩阵 $A$ 和向量 $\vec{b}$，方程 $A\vec{x}=\vec{b}$ 有没有解？如果有，有多少个？&lt;/p>
&lt;/blockquote>
&lt;p>机械的答案是&amp;quot;消元、看结果&amp;quot;。但&lt;strong>结构性的答案&lt;/strong>才真正有趣，也是本章的目标。三个几何对象就足以回答一切：&lt;/p></description></item><item><title>行列式的秘密</title><link>https://www.chenk.top/zh/linear-algebra/04-%E8%A1%8C%E5%88%97%E5%BC%8F%E7%9A%84%E7%A7%98%E5%AF%86/</link><pubDate>Wed, 22 Jan 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/04-%E8%A1%8C%E5%88%97%E5%BC%8F%E7%9A%84%E7%A7%98%E5%AF%86/</guid><description>&lt;h2 id="跳出公式行列式到底是什么">跳出公式：行列式到底是什么&lt;/h2>
&lt;p>大多数教材是这么引入行列式的：&lt;/p>
$$\det\begin{pmatrix}a &amp; b\\ c &amp; d\end{pmatrix} = ad - bc.$$&lt;p>记住公式、套数字、算结果——课程到此结束。但这把行列式最重要的那一面藏起来了。&lt;/p>
&lt;p>一句话点破：&lt;/p></description></item><item><title>矩阵作为线性变换</title><link>https://www.chenk.top/zh/linear-algebra/03-%E7%9F%A9%E9%98%B5%E4%BD%9C%E4%B8%BA%E7%BA%BF%E6%80%A7%E5%8F%98%E6%8D%A2/</link><pubDate>Wed, 15 Jan 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/03-%E7%9F%A9%E9%98%B5%E4%BD%9C%E4%B8%BA%E7%BA%BF%E6%80%A7%E5%8F%98%E6%8D%A2/</guid><description>&lt;h2 id="一切从一句话开始">一切从一句话开始&lt;/h2>
&lt;p>打开任何一本传统教材，矩阵都会被介绍成&amp;quot;一张排成矩形的数字表格&amp;quot;。你被告知要怎么相加、相乘、求逆，却从来没有人解释&lt;strong>为什么&lt;/strong>乘法规则要写成那样，&lt;strong>为什么&lt;/strong> $AB$ 一般不等于 $BA$。&lt;/p></description></item><item><title>线性组合与向量空间</title><link>https://www.chenk.top/zh/linear-algebra/02-%E7%BA%BF%E6%80%A7%E7%BB%84%E5%90%88%E4%B8%8E%E5%90%91%E9%87%8F%E7%A9%BA%E9%97%B4/</link><pubDate>Wed, 08 Jan 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/02-%E7%BA%BF%E6%80%A7%E7%BB%84%E5%90%88%E4%B8%8E%E5%90%91%E9%87%8F%E7%A9%BA%E9%97%B4/</guid><description>&lt;h2 id="写在前面为什么这一章很重要">写在前面：为什么这一章很重要&lt;/h2>
&lt;p>打开一盒只有&lt;strong>红、绿、蓝&lt;/strong>三种颜色的彩笔，你能画出多少种颜色？答案是&lt;strong>无穷多种&lt;/strong>——你在屏幕上看见的每一种颜色，本质上都是这三支笔按不同比例混合的结果。三个&amp;quot;原料&amp;quot;，撑起整个色彩宇宙。&lt;/p></description></item><item><title>向量的本质 -- 不仅仅是箭头</title><link>https://www.chenk.top/zh/linear-algebra/01-%E5%90%91%E9%87%8F%E7%9A%84%E6%9C%AC%E8%B4%A8/</link><pubDate>Wed, 01 Jan 2025 09:00:00 +0000</pubDate><guid>https://www.chenk.top/zh/linear-algebra/01-%E5%90%91%E9%87%8F%E7%9A%84%E6%9C%AC%E8%B4%A8/</guid><description>&lt;h2 id="为什么要学向量">为什么要学向量？&lt;/h2>
&lt;p>物理学家说&amp;quot;力&amp;quot;，数据科学家说&amp;quot;特征&amp;quot;，游戏程序员说&amp;quot;速度&amp;quot;，量子物理学家说&amp;quot;态&amp;quot;——表面看是四个不同的世界、四种不同的语言，背后其实是同一个数学对象：&lt;strong>向量&lt;/strong>。&lt;/p></description></item></channel></rss>