为避免和绝对值符号混淆,本文一般使用(det(A))来表示矩阵(A)的行列式。另外这里的(A∈R^{n×n})默认是方阵,因为只有方阵才能计算行列式。
行列式如何计算的就不在这里赘述了,下面简要给出行列式的各种性质和定理。
定理1:当且仅当一个方阵的行列式不为0,则该方阵可逆。 定理2:方阵(A)的行列式可沿着某一行或某一列的元素展开,形式如下:
矩阵的迹是矩阵对角元素之和,即 [tr(A)=\sum_{i=1}^na_{ii}]
迹有如下性质:
对于一个给定的矩阵 (A∈R^{n×n}),它的特征向量(v) 经过这个线性变换之后,得到的新向量仍然与原来的 (v)保持在同一条直线上,但其长度或方向也许会改变。即 [Av=\lambda v] 则(\lambda ∈R)是矩阵(A)的特征值,(v)是对应的特征向量。
设(λ=λ_i)是矩阵(A)的一个特征值,则有方程((A-λ_iv)x=0),可求得非零解(x=p_i)即为(λ_i)对应的特征向量。(若(λ_i)为实数,则(p_i)可取实向量;(λ_i)为复数,则(p_i)可取复向量)
由2)可知(A)是可逆矩阵的充要条件是它的n个特征值全不为0.
由特征值(\lambda)及其对应的特征向量(v)所span的空间称为特征空间 ,用(E_{\lambda})表示。矩阵(A)的特征值集合称为特征谱。
下面给出两个定理,后面内容很多都是基于它们推导出来的。
下面使用二维图像的变换来帮助我们直观理解特征值和特征向量的意义。一共给出了两个示例,最左边表示原数据,中间表示不同特征值对应的特征向量方向(红色表示(λ_1)对应的特征向量,蓝色表示(λ_2)对应的特征向量),最右边表示经过矩阵变换后得到的新的矩阵,该矩阵反应了特征向量和特征值是如何影响变换的。
[ A_1=\left \begin{matrix} 0.5 & 0 \ 0 & 2 \ \end{matrix} \right ]
简单计算后可求出特征值和与之对应的特征向量分别为:
可以看到最后得到的新的矩阵(A_1x)沿着特征矩阵的方向伸缩,伸缩比例恰巧等于对应特征值大小。
[ A_4=\left \begin{matrix} 1 & -1 \ -1 & 1 \ \end{matrix} \right ]
简单计算后可求出特征值和与之对应的特征向量分别为:
可以看到最后得到的新的矩阵(A_1x)沿着特征矩阵的方向伸缩,伸缩比例恰巧等于对应特征值大小。
关于特征值,特征矩阵等概念更直观,更透彻的理解可以参看文末【理解矩阵】系列文章,这系列文章用非常浅显易懂的语言解释了什么是矩阵,行列式和向量。
一种矩阵运算方法,又叫Cholesky分解。所谓平方根法,就是利用对称正定矩阵的三角分解得到的求解对称正定方程组的一种有效方法。它是把一个对称正定的矩阵表示成一个下三角矩阵L和其转置的乘积的分解。它要求矩阵的所有特征值必须大于零,故分解的下三角矩阵的对角元也是大于零的。公式如下: [ \begin{align} A&=LL^T \notag \ \Leftrightarrow \left \begin{matrix} a_{11} & \cdots &a_{1n} \ \vdots & \ddots &\vdots \ a_{n1} & … &a_{nn} \ \end{matrix} \right &= \left \begin{matrix} l_{11} & \cdots &0 \ \vdots & \ddots &\vdots \ l_{n1} & … &l_{nn} \ \end{matrix} \right \left \begin{matrix} l_{11} & \cdots &l_{n1} \ \vdots & \ddots &\vdots \ 0 & … &l_{nn} \ \end{matrix} \right \notag \end{align} ] 其中(L)又称为Cholesky因子。
这里不会详细介绍该方法的计算方法,简单说明一下该方法会带来哪些好处。
1.求逆矩阵
我们都知道求一个矩阵的逆矩阵是一个非常耗时的过程,而对于一个上(下)三角矩阵而言,求逆矩阵就简单很多。假设我们已经将矩阵(A)分解,那么有
[A^{-1}=(LL^T)^{-1}=(L^{-1})^T(L^{-1})]
2.求行列式
[det(A)=det(L)^2=\prod_i{l_{ii}^2}]
常见的对角矩阵形式如下:
[ \begin{align} D= \left \begin{matrix} c_1 & \cdots & 0 \ \vdots & \ddots & \vdots \ 0 & \cdots & c_n \notag \end{matrix} \right \end{align} ]
注意:对角矩阵不一定是方阵,但是为了方便解释默认用对角方阵来说明。
很明显对角矩阵相对于其他形式的矩阵天然有很多计算上的优势,例如计算逆矩阵,行列式时都非常简单,所以如果能把一个矩阵对角化,那么很多问题就可以解决了。
在介绍矩阵对角化之前简单回复一下相似矩阵(similar matrix) 的概念,即
如果存在一个可逆矩阵(P)使得两个矩阵(A,D)满足(D=P^{-1}AP),那么则称(A,D)相似。
任何对称矩阵都可以对角化,即 [ \begin{align} S&=PDP^{-1} \notag\ &=PDP^T \notag \end{align} ] 其中(P)是由n个正交特征向量组成的矩阵(此时有(P^{-1}=P^T),证明略),(D)是特征值组成的对角矩阵
下图直观地给出了对称矩阵对角化的过程:
上图可划分成四个部分,按顺时针顺序分别简称为LT(Left-Top),RT(Right-Top),LB(Left-Bottom),RB(Right-Bottom)。
LT的(p_1,p_2)表示矩阵(A∈R^{2×2})的单位特征向量(长度为1)。
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有