Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >矩阵特征值-变化中不变的东西

矩阵特征值-变化中不变的东西

作者头像
云深无际
发布于 2024-10-12 13:03:30
发布于 2024-10-12 13:03:30
38300
代码可运行
举报
文章被收录于专栏:云深之无迹云深之无迹
运行总次数:0
代码可运行

上文说了可逆这个话题,理解起来很简单,就是不变的东西

有一张纸,上面画了一个箭头。对这张纸进行了一些拉伸、旋转等操作(线性变换)。

有些箭头在这些操作后,方向保持不变,只是长度可能变长或变短。这些特殊的箭头,我们就称它们对应的缩放比例为特征值,而这些箭头本身则被称为特征向量

想象一个池塘,水面很平静。

  • 池塘的水面:可以看作是一个平面(二维空间)。
  • 你向池塘里扔一块石头:这相当于对水面施加了一个线性变换(激起波纹)。
  • 波纹:可以看作是水面上的向量。

有些波纹会特别稳定:

  • 特定的波纹:有些波纹在石头落水后,虽然会变大或变小,但始终保持着原来的形状,只是沿着固定的方向振动。
  • 振动频率:这些波纹的振动频率就是特征值。
  • 振动方向:这些波纹的振动方向就是特征向量。
  1. 特征值:表示一个线性变换下,某个向量被拉伸或压缩的倍数。
  2. 特征向量:表示一个线性变换下,方向保持不变的向量。

更正式的定义:

对于一个方阵A,如果存在一个非零向量x和一个标量λ,使得:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Ax = λx

那么,λ就称为矩阵A的一个特征值,x称为对应的特征向量。

  • 揭示矩阵的本质: 特征值和特征向量告诉我们,矩阵在进行线性变换时,哪些方向上的向量只发生缩放,而不会改变方向。
  • 矩阵对角化: 通过特征值和特征向量,我们可以将矩阵对角化,这在很多计算中会带来很大的方便。

构造特征方程:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
det(A - λI) = 0

其中,I是单位矩阵。

  1. 求解特征方程:解这个方程,得到的λ就是矩阵A的特征值。
  2. 求解特征向量:对于每一个特征值λ,将λ代入方程(A - λI)x = 0,求解这个方程组,得到的非零解x就是对应的特征向量。

解特征多项式方程,得到的λ就是矩阵A的特征值。构造特征方程: 特征矩阵的行列式就是特征多项式。

  • 特征矩阵是构造特征多项式的基础。
  • 特征多项式的根就是矩阵的特征值
  • 特征值特征向量共同描述了矩阵的线性变换性质。

一个计算

特征空间想象成一个房间,特征向量是房间里的家具。代数重数表示这个房间有多大,而几何重数表示这个房间里能摆放多少件不相同的家具。如果房间足够大(代数重数大),而且家具的摆放方式足够多样(几何重数大),那么这个房间就非常“舒适”。

其实这个里面还有概念,有点多:

几何重数:

定义: 对于一个特征值λ,它的几何重数就是对应于λ的线性无关的特征向量的最大数量。换句话说,就是特征空间的维度。

特征空间: 对于一个特征值λ,所有满足Ax=λx的向量x构成的集合称为λ对应的特征空间。

  1. 代数重数指的是特征值在特征多项式中出现的次数,也就是特征方程的重根数。它反映了特征值在代数上的重要性。关注的是特征值在方程中的出现次数,是一个代数概念。代数重数反映了特征值的重要性,重数越大,特征值对矩阵的影响就越大。代数重数就像一个人的年龄,它是一个固定的数值,表示一个人存在的时间长度。
  2. 几何重数指的是对应于该特征值的线性无关的特征向量的个数。它反映了特征值在几何上的重要性,即特征空间的维度。特征向量在空间中的分布情况,是一个几何概念。几何重数反映了特征空间的维度,即对应于该特征值的特征向量张成的空间的维度。就像一个人在社交圈中的影响力,它反映了这个人有多少个“铁杆粉丝”。一个人的年龄可能会很大,但他的影响力不一定很大。
  3. 几何重数总是小于等于代数重数。 也就是说,一个特征值对应的线性无关的特征向量的数量不会超过它的代数重数。
  4. 当几何重数等于代数重数时,我们称这个特征值是半简单的。

对角化这个事情,我觉得有必要再写一篇

  • 当几何重数等于代数重数时,特征空间的维度达到了最大,此时矩阵可对角化。
  • 当几何重数小于代数重数时,特征空间的维度小于最大可能值,矩阵不可对角化。
  1. 第一种情况:如果λ₁的几何重数也是2,那么说明存在两个线性无关的特征向量对应于λ₁,矩阵A是可对角化的。
  2. 第二种情况:如果λ₁的几何重数是1,那么说明只有一个线性无关的特征向量对应于λ₁,矩阵A不可对角化。

假设一个矩阵A有两个特征值λ1=2和λ2=2,且λ1的代数重数为2。

  1. 如果λ1的几何重数也是2,那么说明存在两个线性无关的特征向量对应于λ1,矩阵A是可对角化的。
  2. 如果λ1的几何重数是1,那么说明只有一个线性无关的特征向量对应于λ1,矩阵A不可对角化。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-10-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 云深之无迹 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
矩阵分析笔记(七)特征值与特征向量
设\mathscr{A}是数域\mathbb{F}上的n维线性空间V的线性变换,若存在\alpha \neq 0, \lambda \in \mathbb{F},使
mathor
2020/10/23
1.9K0
矩阵分析笔记(七)特征值与特征向量
特征值和特征向量
$$ \begin{array} \mathbf{I A} \mathbf{x}=\mathbf{I} \cdot \lambda \mathbf{x} \\ \mathbf{A} \mathbf{x}=(\lambda I) \mathbf{x} \end{array} $$
为为为什么
2022/09/30
1.1K0
【数学基础】特征值,特征向量与SVD奇异值分解
本文是深度学习笔记系列文章,本次文章将介绍线性代数里比较重要的概念:特征值,特征向量以及SVD奇异值分解。
zenRRan
2020/02/18
1.9K0
机器学习数学基础:不用行列式的线性代数
在微信公众号上阅读本文,可能会由于微信内嵌浏览器公式解析能力差,造成显示不是很友好,推荐使用其他浏览器,查阅原文阅读。原文地址:https://qiwsir.gitee.io/mathmetics/nodeterminant.html
老齐
2021/04/19
7270
线性代数的本质课程笔记-特征向量/特征值
视频地址:https://www.bilibili.com/video/av6540378/?spm_id_from=333.788.videocard.0 本篇来讲一下线性代数中非常重要的一个概念:
石晓文
2019/09/24
9300
线性代数的本质课程笔记-特征向量/特征值
线性代数精华——矩阵的特征值与特征向量
今天和大家聊一个非常重要,在机器学习领域也广泛使用的一个概念——矩阵的特征值与特征向量。
TechFlow-承志
2020/03/05
2.7K0
线性代数精华——矩阵的特征值与特征向量
「Workshop」第十七期 奇异值分解
奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。
王诗翔呀
2020/09/17
1.1K0
「Workshop」第十七期 奇异值分解
25节课学完线性代数,UCLA教授Artem Chernikov的教学课程视频上线了
机器之心报道 编辑:蛋酱 视频提供了详细的课堂笔记,但是没有字幕。 近日,UCLA 教授 Artem Chernikov 宣布自己的线性代数课程 UCLA MATH 115B 全部内容已在 YouTube 平台公开。 Artem Chernikov 现为 UCLA 副教授,同时也是 UCLA Logic Center 的成员。他的主要研究兴趣是数理逻辑的一个分支「模型理论」,更具体地说,包括 Shelah 分类 (稳定性、简单性、NIP、NTP2...) 及其在代数、几何、组合学和计算机科学上的应用。
机器之心
2022/03/16
3520
矩阵分解 -2- 特征值分解
线性代数中,特征分解(Eigendecomposition),又称谱分解(Spectral decomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。 定义 线性代数中,特征分解(Eigendecomposition),又称谱分解(Spectral decomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。 基础理论 N 维非零向量 v 是 N×N 的矩阵 A 的特征向量,当且仅当下式成立: {\displaystyle \mathbf {A} \mat
为为为什么
2022/10/05
1.8K0
特征值和特征向量及其计算
在第2章中,我们已经反复强化了一个观念——矩阵就是映射,如果用矩阵乘以一个向量,比如:
老齐
2021/07/28
1.9K0
矩阵特征值和特征向量怎么求_矩阵的特征值例题详解
  设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,
全栈程序员站长
2022/09/20
1.4K0
呆在家无聊?何不抓住这个机会好好学习!
本公众号一向坚持的理念是数据分析工具要从基础开始学习,按部就班,才能深入理解并准确利用这些工具。鼠年第一篇原创推送比较长,将从基础的线性代数开始。线性代数大家都学过,但可能因为联系不到实用情况,都还给了曾经的老师。线性代数是数理统计尤其是各种排序分析的基础,今天我将以全新的角度基于R语言介绍线性代数,并手动完成PCA分析,从而强化关于线性代数和实际数据分析的联系。
SYSU星空
2022/05/05
8570
呆在家无聊?何不抓住这个机会好好学习!
相似矩阵:换个角度看矩阵
有一张地图,可以用不同的坐标系来表示上面的位置。比如,可以用经纬度来表示,也可以用直角坐标系来表示。虽然坐标系不同,但是地图上表示的地理位置是相同的。
云深无际
2024/10/14
1370
相似矩阵:换个角度看矩阵
AI数学基础之:奇异值和奇异值分解
奇异值是矩阵中的一个非常重要的概念,一般是通过奇异值分解的方法来得到的,奇异值分解是线性代数和矩阵论中一种重要的矩阵分解法,在统计学和信号处理中非常的重要。
程序那些事
2021/02/23
7340
线性代数之相似矩阵、二次型
(1)特征值求法:解特征方程; (2)特征向量的求法:求方程组的基础解系。 (3)特征值的性质:
用户11315985
2024/10/16
3190
线性代数之相似矩阵、二次型
矩阵特征值和特征向量详细计算过程(转载)_矩阵特征值的详细求法
A为n阶矩阵,若数λ和n维非0列向量x满足Ax=λx,那么数λ称为A的特征值,x称为A的对应于特征值λ的特征向量。式Ax=λx也可写成( A-λE)x=0,并且|λE-A|叫做A 的特征多项式。当特征多项式等于0的时候,称为A的特征方程,特征方程是一个齐次线性方程组,求解特征值的过程其实就是求解特征方程的解。
全栈程序员站长
2022/11/01
15.3K0
我的机器学习线性代数篇观点向量矩阵行列式矩阵的初等变换向量组线性方程组特征值和特征向量几个特殊矩阵QR 分解(正交三角分解)奇异值分解向量的导数
前言: 线代知识点多,有点抽象,写的时候尽量把这些知识点串起来,如果不行,那就两串。其包含的几大对象为:向量,行列式,矩阵,方程组。 观点 核心问题是求多元方程组的解,核心知识:内积、秩、矩阵求逆,应用:求解线性回归、最小二乘法用QR分解,奇异值分解SVD,主成分分析(PCA)运用可对角化矩阵 向量 基础 向量:是指具有n个互相独立的性质(维度)的对象的表示,向量常 使用字母+箭头的形式进行表示,也可以使用几何坐标来表示向量。 单位向量:向量的模、模为一的向量为单位向量 内积又叫数量积
DC童生
2018/04/27
1.9K0
我的机器学习线性代数篇观点向量矩阵行列式矩阵的初等变换向量组线性方程组特征值和特征向量几个特殊矩阵QR 分解(正交三角分解)奇异值分解向量的导数
线性代数基础
向量空间的一组元素中,若没有向量可用有限个其他向量的线性组合所表示,则称为 线性无关 或 线性独立,反之称为 线性相关(linearly dependent)。
iOSDevLog
2019/07/24
1.1K0
矩阵的对角化:化繁为简的艺术
有一张照片,想要把它旋转一下。旋转这个操作可以用一个矩阵来表示。如果我们可以找到一个特殊的坐标系,在这个坐标系下,这个旋转操作就变得非常简单,只需要沿着坐标轴进行缩放就可以了。这就是矩阵对角化。
云深无际
2024/10/12
2770
矩阵的对角化:化繁为简的艺术
线性代数整理(三)行列式特征值和特征向量
比方说在二维平面中,这里有三组二维向量,每组都有两个向量,那么每组向量的面积就可以表示它们的不同。当然这里说面积是针对二维平面来说的,在三维空间中,就是体积;在更高维度中,可能就是一个体,但这个体比较抽象
算法之名
2021/03/04
2.8K0
推荐阅读
相关推荐
矩阵分析笔记(七)特征值与特征向量
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验