Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >线性代数--MIT18.06(二十二)

线性代数--MIT18.06(二十二)

作者头像
fireWang
发布于 2019-03-13 09:38:03
发布于 2019-03-13 09:38:03
4650
举报
文章被收录于专栏:零维领域零维领域

正文共:1497 字 66 图 预计阅读时间: 4 分钟

22. 对角化和A的幂

22.1 课程内容:对角化和A的幂

根据上一讲的内容,我们已经知道了如何求解特征值和特征向量,并且在讲行列式的时候我们就已经说明了行列式的存在就是为了特征值和特征向量,那么特征值和特征向量的作用是什么呢?答案是,他们将使得求解矩阵的幂特别简便。

我们考虑一个前提假设,假设矩阵

个线性无关的特征向量,由他们构成矩阵

,称为特征向量矩阵(eigenvectors matrix)。

将这两个矩阵相乘,我们就可以得到对角化公式

这就是我们继

之后的另一种矩阵分解形式。

这里需要重点说明下我们的前提假设,因为

个线性无关的特征向量,也就表明了

个特征值是互不相同的,此时

必然可以由该对角化公式进行对角化。而在上一讲,我们也讲到一些矩阵的形式,他们的特征值有可能相同,有些还可能存在特征值和特征向量数量不等的情况,这里简单说明特征值存在相同情况时

有可能可以进行对角化(具体的情况分析,后续章节讲解),这里不做展开,只考虑

可以对角化的情况(存在

个线性无关的特征向量-- 特征值全部不同)

得到了对角化公式,我们很自然地发现,对

求幂,形式上就很简洁了

由该幂次方程还可以引出一个定理:

当所有特征值的绝对值都满足

,当

,即矩阵是收敛的(或者说稳定的)。

也就是说我们可以由特征值判断矩阵的幂的收敛性。

对角化的作用(或者说应用)

可以用来求解一阶差分方程

根据该方程的形式,我们很自然地可以得到

关键在于将

分解为线性组合的形式

其中

为向量

的分量,

为特征向量矩阵

的各个列向量。

那么

或者我们也可以换一种更简洁的方式

举个例子:求解斐波那契数列

可以得到斐波那契数列的递归公式为

这是二阶的差分方程,与我们上述的一阶差分方程有所不同,但是我们也可以将它转化为一阶差分的形式,构造

,则

,那么

此时

根据

,剩下地也就没什么不同了,求解

的特征向量矩阵和特征值矩阵,同时根据

求解,最终就可得到

我们知道斐波那契数列是不断增长的,增长的速度有多快呢?根据

的公式我们知道主要取决于

,而根据其线性展开,我们还可以具体到某一个

,并且就是绝对值大的那一个

也就是说我们还可以由特征值判断矩阵的幂的增长情况。

22.2 习题课

2011年矩阵的方幂习题课

(http://open.163.com/movie/2016/4/N/3/MBKJ0DQ52_MBPD42SN3.html)

已知以下矩阵

求解

以及当

时,求解

解答,基于课程内容,求矩阵的幂采用对角化的方法,因此首先求解

的特征向量和特征值得到特征值矩阵

和特征向量矩阵

因此特征值为

,特征值矩阵

求解特征向量,即求解

,得到,当

时,

,当

时,

,由此得到特征向量矩阵

因此

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-02-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 零维领域 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
线性代数--MIT18.06(二十三)
在上一讲我们已经介绍了特征值和特征向量的一种应用,那就是求解差分方程,这一讲,讲解其另一个应用——求解微分方程,当然,首先从一阶常系数微分方程开始讲解。
fireWang
2019/03/13
5340
线性代数--MIT18.06(三十三)
对应于课本(Introduction to Linear Algebra)第六章内容的习题课
fireWang
2019/03/13
7780
线性代数--MIT18.06(二十八)
在第二十六讲已经讲解了正定矩阵的一些性质,这一讲将给出判断矩阵为正定矩阵的判定条件,同时给出几何解释
fireWang
2019/04/24
4890
线性代数--MIT18.06(二十八)
博客 | MIT—线性代数(下)
1、 投影矩阵与最小二乘:向量子空间投影在机器学习中的应用最为广泛。就拿最小二乘的线性拟合来说,首先根据抽样特征维度假设线性方程形式,即假设函数。
AI研习社
2018/12/28
1.4K0
博客 | MIT—线性代数(下)
线性代数--MIT18.06(二十四)
马尔科夫矩阵的稳态问题就是有关特征值为 1 的对应特征向量,并且其他的特征值的绝对值都是小于 1 (可有其他特征值也为 1 的例外)。为什么呢?
fireWang
2019/04/24
6440
线性代数--MIT18.06(二十四)
线性代数--MIT18.06(二十八)
在第二十六讲已经讲解了正定矩阵的一些性质,这一讲将给出判断矩阵为正定矩阵的判定条件,同时给出几何解释
fireWang
2019/03/13
1.4K0
线性代数--MIT18.06(二十六)
特征值的性质我们已经知道了,由于是对称矩阵的性质,我们再看下它的特征向量,因为特征向量正交,基于十七讲的内容,我们总可以将正交向量矩阵转化为正交矩阵,因此我们就可以将对角化公式进行如下分解
fireWang
2019/03/13
1.4K0
线性代数--MIT18.06(三十五)
行不满秩,因此其不满秩,那么它不可能为正定矩阵,可以为半正定矩阵。 于是我们也就知道
fireWang
2019/03/13
6260
线性代数--MIT18.06(二十九)
的长度的平方,那么其值总是大于等于 0 的,只需要保证零空间中只有零向量,即可保证值总是 大于 0 ,即
fireWang
2019/03/13
6720
线性代数--MIT18.06(二十一)
在介绍行列式的时候,我们说行列式是为了特征值和特征向量,现在就来说明下什么是特征值,什么是特征向量。
fireWang
2019/03/13
3090
线性代数--MIT18.06(十九)
在上一讲我们介绍了行列式的性质,知道了行列式的性质,我们自然想知道如何求解行列式,首先回顾下行列式的三个基本性质
fireWang
2019/03/13
7530
线性代数--MIT18.06(二十)
行列式用一个数值就包含了所有信息,从行列式的值出发我们又可以发现一些新的公式,用于计算我们之前讲解过得一些可以求解但是没有公式用于求解的东西
fireWang
2019/03/13
6510
线性代数--MIT18.06(二十五)
是秩 1 矩阵,因此秩为 1 ,也就说明在零空间是二维平面,即有两个特征值为 0 ,根据迹即为特征值相加之和,即可得到另一个特征值为 1 。其特征向量就是
fireWang
2019/03/13
6800
线性代数--MIT18.06(二十七)
傅里叶矩阵(Fourier Matrix)是一个特殊的复矩阵,同时也是一个酉矩阵。它来源于傅里叶转换,其矩阵的特殊性质,通过矩阵分解,可以将计算量从
fireWang
2019/03/13
9100
线性代数--MIT18.06(三十)
奇异值分解(SVD,singular value decomposition),也是对矩阵进行分解,但是和特征分解不同,SVD 并不要求要分解的矩阵为方阵。假设我们的矩阵
fireWang
2019/04/24
3740
线性代数--MIT18.06(三十)
线性代数--MIT18.06(三十)
奇异值分解(SVD,singular value decomposition),也是对矩阵进行分解,但是和特征分解不同,SVD 并不要求要分解的矩阵为方阵。假设我们的矩阵
fireWang
2019/03/13
3810
线性代数--MIT18.06(二十四)
马尔科夫矩阵的稳态问题就是有关特征值为 1 的对应特征向量,并且其他的特征值的绝对值都是小于 1 (可有其他特征值也为 1 的例外)。为什么呢?
fireWang
2019/03/13
9170
线性代数--MIT18.06(三十一)
考虑空间中的所有向量,都需要做线性变换,我们不可能对向量一个一个进行变换,然后得到变换后的空间。 此时就可以利用空间的基,我们对空间的一组基都得到它们变换后的结果,那么对于空间中的任意向量,因为我们都可以用基向量来将其表示出来,那么对任意向量的线性变换,都可以用基向量的线性变换的线性组合来表示,即对于空间的一组基
fireWang
2019/03/13
9360
PYTHON替代MATLAB在线性代数学习中的应用(使用Python辅助MIT 18.06 Linear Algebra学习)
MATLAB一向是理工科学生的必备神器,但随着中美贸易冲突的一再升级,禁售与禁用的阴云也持续笼罩在高等学院的头顶。也许我们都应当考虑更多的途径,来辅助我们的学习和研究工作。 虽然PYTHON和众多模块也属于美国技术的范围,但开源软件的自由度毕竟不是商业软件可比拟的。
俺踏月色而来
2020/08/19
5.6K0
万字长文带你复习线性代数!
课程主页:http://speech.ee.ntu.edu.tw/~tlkagk/courses_LA16.html
石晓文
2018/12/25
1.7K0
万字长文带你复习线性代数!
相关推荐
线性代数--MIT18.06(二十三)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档