特征值的理解?

特征值的理解?,第1张

首先AB有不同的特征值,他们是n阶矩阵,要有n个不同的特征值,所以他们肯定要相似于对角阵的。
那么两个对角阵,且这个对角阵每一个对角上的值都是不同的,所以说这两个对角阵相似
但是你要保证,这两个方阵所相似的对角阵,秩是一样的

如何理解矩阵,特征值和特征向量
答:线性空间中,当你选定一组基之后,不仅可以用一个向量来描述空间中的任何一个对象,而且可以用矩阵来描述该空间中的任何一个运动(变换),从而得出矩阵是线性空间里的变换的描述。而使某个对象发生对应运动(变换)的方法,就是用代表那个运动(变换)的矩阵,乘以代表那个对象的向量。转换为数学语言: 是矩阵, 是向量, 相当于将 作线性变换从而得到 ,从而使得矩阵 (由n个向量组成)在对象或者说向量 上的变换就由简单的实数 来刻画,由此称 为矩阵A的特征值,而 称为 对应的特征向量。
总结来说,特征值和特征向量的出现实际上将复杂的矩阵由实数和低维的向量来形象的描述(代表),实现了降维的目的。在几何空间上还可以这样理解:矩阵A是向量的集合,而 则是向量的方向, 可以理解为矩阵A在 方向上作投影,而矩阵又是线性空间变换的描述,所以变换后方向保持不变,仅是各个方向投影后有个缩放比例 。

从线性空间的角度看,在一个定义了内积的线性空间里,对一个N阶对称方阵进行特征分解,就是产生了该空间的N个标准正交基,然后把矩阵投影到这N个基上。N个特征向量就是N个标准正交基,而特征值的模则代表矩阵在每个基上的投影长度。特征值越大,说明矩阵在对应的特征向量上的方差越大,功率越大,信息量越多。
(1)应用到最优化中,意思就是对于R的二次型,自变量在这个方向上变化的时候,对函数值的影响最大,也就是该方向上的方向导数最大。
(2)应用到数据挖掘中,意思就是最大特征值对应的特征向量方向上包含最多的信息量,如果某几个特征值很小,说明这几个方向信息量很小,可以用来降维,也就是删除小特征值对应方向的数据,只保留大特征值方向对应的数据,这样做以后数据量减小,但有用信息量变化不大。

特征值和特征向量来自对矩阵的特征分解。
矩阵本质上是线性变换,最开始是用来解线性方程组的。线性方程组不就可以看成是从变量X到Y的变换嘛。
那什么是特征值呢?
假设我们现在用矩阵A对坐标系进行线性变换,坐标系中变换前后方向不变的向量即是矩阵A的特征向量。
最简单的例子,考虑将一个正方形木框挤压成一个菱形,两条对角线在挤压前后方向不变。
对于一个长宽不等的矩形,沿着某一条对角线挤压,挤压前后该对角线方向不变,另一条对角线方向却会变化。
变换前后方向不变的向量即为特征向量。
也可以将线性变换理解为沿着特征向量进行的伸缩。
特征向量长度的变化倍数就是特征值。
直观的视频: 熟肉线性代数的本质 - 10 - 特征向量与特征值
另一份笔记


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/13193771.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-06-18
下一篇 2023-06-18

发表评论

登录后才能评论

评论列表(0条)

保存