你们可能已经在课堂上听过几百次本征向量这个词了,而且还被要求再计算几百次。但是为什么这个概念在线性代数中如此重要呢?为什么我们要经常研究矩阵的特征向量呢?
在这篇文章中,我们将看到特征向量如何帮助我们立即理解线性函数对输入的作用。我们将通过使用允许我们看到这一点的交互式可视化来实现这一点。
这里,对其特征向量v应用A A得到一个新的向量λv\λvλv与v方向相同。图像来源:维基百科。
让我们先快速复习一下。线性函数A的本征向量正好是向量v,v,s,t。A v=λv Av=\λv A v=λv,对于某个常数λ\λλ,我们称之为本征值。在较高的层次上,特征向量只是线性函数仅沿其延伸其输入的维度(对于实值特征值)。
这很好,但是一旦我们找到特征向量,我们能做什么呢?它告诉我们关于基本矩阵的什么信息?
让我们看看当我们在输入[0 1]\Begin{bMatrix}0\\1\End{bMatrix}[0 1]上重复应用A时会发生什么。
所以只要知道A,A,A的一个特征向量(即主导特征向量),我们就能知道A,A,A做了什么-,A,把它的输入拉向主导特征向量的轴。
您会惊讶地发现,这种行为非常自然地来自线性函数的属性。让我们用一个例子来看看这个。
让我们保持相同的矩阵/线性函数A=[3 2 1 4]A=\Begin{bMatrix}3&;2\\1&;4\End{bMatrix}A=[3 12 4],并分析在输入v=[0 1]v=\Begin{bMatrix}0\\1\End{bMatrix}v=[0 1](即A3 v A^3v A3 v)上应用A三次。
做到这一点的标准方法是简单地遵循乘法规则并执行A(V))。A(V)。A(V)。但是,让我们用一种不同的方式,使用特征向量来实现这一点。
在下面的讨论中,我们将把v,v,v分成A,A,A的特征向量的线性组合。然后,我们将A3A^3A3应用到这些块中的每一块,并将结果组合在一起。
我们知道,任何向量v都可以表示为A的特征向量之和。毕竟,特征向量是线性独立的,并且构成空间的基(如果矩阵A是可对角化的,那么它是对角化的)。如果v_1v_1v_1和v_2v_2v_2是A,A,A的特征向量,我们可以将v v分解为:
V=c 1⋅v 1+c 2⋅v 2 v=c_1\cdot v_1+c_2\cot v_2 v=c 1⋅v 1+c 2⋅v 2对于某些常数c 1 c_1 c 1和c 2。C_2、C_2、。
A3v=A3(c 1⋅v 1+c 2⋅v 2)A^3v=A^3(c_1\cdot v_1+c_2\cot v_2)A3v=A3(c 1⋅v 1+c 2⋅v 2)。
A 3v=c 1⋅A 3 v 1+c 2⋅A 3 v 2 A^3v=c_1\cot A^3v_1+c_2\cot A^3v_2 A 3v=c 1⋅A 3 v 1+c 2⋅A 3 v 2。
然后进行了A3v1A^3v1A3v1和A3v2A^3v2A3v2的计算。由于v 1 v_1 v 1和v 2 v_2 v 2是特征向量,我们有:
A 3 v 1=λ1 3 v 1 A^3v_1=\lambda_1^3v_1 A 3 v 1=λ1 3v 1A 3v 2=λ2 3 v 2 A^3v_2=\lambda_2^3v_2 A 3 v 2=λ2 3v 2。
A 3v=c 1λ1 3 v 1+c 2λ2 3 v 2 A^3v=c_1\lambda_1^3v_1+c_2\lambda_2^3v_2 A 3v=c 1λ1 3v 1+c 2λ2 3v 2。
现在,当λ1\λ_1λ_1大于λ_2\λ_2λ_2(即存在主导特征值)时会发生什么?让我们假设λ1=5\lambda_1=5,λ1=5,λ2=2。\lambda_2=2。λ2=2。现在让我们展示一下,当我们有这个特征值的不同时,进行A3v,A^3v,A3v,会是什么样子。
拖动滑块以增加或减少我们对v应用A的次数。...=‘class1’>。
注意“输出特征向量1”和“输出特征向量2”是如何以不同的速率变化的。
当您向右拖动滑块时,请注意“最终输出向量”是如何向“输出特征向量1”倾斜的。
因此,我们可以看到,当有一个特征值大于另一个特征值(λ1>;λ2\lambda_1>;\lambda_2λ1>;λ2)时,线性函数会将其输入推向与该大特征值相关的特征向量(“输出特征向量1”)。我们使用A、A的次数越多,这种效果就越大。
注意,这种“推”效应只会发生在具有最大特征值的特征向量上,而不会发生在任何其他特征向量上。
这种向“输出向量1”的倾斜是由于指数增长造成的。λ1 x\lambda_1^xλ1 x的增长速度远远快于λ2 x\lambda_2^xλ2 x。因此,我们应用A(指数中的x)的次数越多,λ1x\lambda_1^xλ1x和λ2x之间的差异就越大。\lambda_2^x.λ2 x。这种日益扩大的差异如下图所示。
由于指数的幂,我们应用A的次数越多,主导特征向量将发挥越来越大的作用。请注意,两个指数函数之间的距离是如何随着x的增加而增加的。
因此,只要利用线性函数的性质,我们就能理解为什么特征向量如此重要。它们向我们展示了线性函数将在何处“推动”其输入。
如果你喜欢这篇关于特征向量的帖子,请查看下面关于我写的主题的其他帖子: