Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >矩阵的对角化:化繁为简的艺术

矩阵的对角化:化繁为简的艺术

作者头像
云深无际
发布于 2024-10-12 13:03:14
发布于 2024-10-12 13:03:14
1890
举报
文章被收录于专栏:云深之无迹云深之无迹

有一张照片,想要把它旋转一下。旋转这个操作可以用一个矩阵来表示。如果我们可以找到一个特殊的坐标系,在这个坐标系下,这个旋转操作就变得非常简单,只需要沿着坐标轴进行缩放就可以了。这就是矩阵对角化。

对角化实际上是找到一组新的基,使得在这个新的基下,线性变换的作用变得非常简单,就是沿着坐标轴进行缩放。

想象一个旋转的陀螺,我们想描述它的运动。如果我们选择一个固定的坐标系,那么陀螺的运动看起来会很复杂。但是如果我们选择一个以陀螺的旋转轴为中心的坐标系,那么陀螺的运动就变得非常简单,它只是绕着轴旋转。对角化就类似于找到这样一个特殊的坐标系。

啊啊啊,这么好的性质怎么做到啊?你先看上面的文章,给出对角化的条件:

  • 矩阵A的所有特征值必须是实数。
  • 每个特征值的几何重数必须等于代数重数。

如果对于一个方阵A,存在一个可逆矩阵P,使得P^(-1)AP是一个对角矩阵Λ,那么我们称矩阵A可以对角化。

其中:

  • P:由A的特征向量组成的矩阵。
  • Λ:是一个对角矩阵,对角线上的元素就是A的特征值。

对角化的步骤:

  1. 求出矩阵A的特征值和特征向量。
  2. 将特征向量作为列向量组成矩阵P。
  3. 计算P的逆矩阵P^(-1)。
  4. 计算P^(-1)AP,得到对角矩阵Λ。

矩阵对角化就是把一个复杂的矩阵变换成一个对角矩阵的过程。

  • 对角矩阵:就是一个对角线上有非零元素,其他位置都是零的矩阵。

还有一个遥控器和电视机的例子,想象一个遥控器:

  • 遥控器上的按键:每个按键对应一个操作,比如调高音量、切换频道等。
  • 电视:电视会根据你按下的按键做出相应的反应。

我们可以把遥控器看作一个矩阵,每个按键对应矩阵的一个列向量。而电视则是一个线性变换,它将遥控器的指令转化为电视的显示效果。

现在,我们想找一个最简单的遥控器。

  • 理想的遥控器:每个按键只控制一个功能,而且这些功能之间互不影响。
  • 矩阵对角化:就是找到这样一个最简单的遥控器。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-10-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 云深之无迹 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
相似矩阵:换个角度看矩阵
有一张地图,可以用不同的坐标系来表示上面的位置。比如,可以用经纬度来表示,也可以用直角坐标系来表示。虽然坐标系不同,但是地图上表示的地理位置是相同的。
云深无际
2024/10/14
1080
相似矩阵:换个角度看矩阵
呆在家无聊?何不抓住这个机会好好学习!
本公众号一向坚持的理念是数据分析工具要从基础开始学习,按部就班,才能深入理解并准确利用这些工具。鼠年第一篇原创推送比较长,将从基础的线性代数开始。线性代数大家都学过,但可能因为联系不到实用情况,都还给了曾经的老师。线性代数是数理统计尤其是各种排序分析的基础,今天我将以全新的角度基于R语言介绍线性代数,并手动完成PCA分析,从而强化关于线性代数和实际数据分析的联系。
SYSU星空
2022/05/05
8150
呆在家无聊?何不抓住这个机会好好学习!
万字长文|线性代数的本质课程笔记完整合集!
线性代数中最基础,最根源的组成部分是向量,那么什么是向量呢?从不同学生的视角看,有以下三种观点:
石晓文
2019/09/25
7840
万字长文|线性代数的本质课程笔记完整合集!
教程 | 从特征分解到协方差矩阵:详细剖析和实现PCA算法
选自deeplearning4j 机器之心编译 参与:蒋思源 本文先简要明了地介绍了特征向量和其与矩阵的关系,然后再以其为基础解释协方差矩阵和主成分分析法的基本概念,最后我们结合协方差矩阵和主成分分析法实现数据降维。本文不仅仅是从理论上阐述各种重要概念,同时最后还一步步使用 Python 实现数据降维。 首先本文的特征向量是数学概念上的特征向量,并不是指由输入特征值所组成的向量。数学上,线性变换的特征向量是一个非简并的向量,其方向在该变换下不变。该向量在此变换下缩放的比例称为特征值。一个线性变换通常可以由其
机器之心
2018/05/09
4.8K0
教程 | 从特征分解到协方差矩阵:详细剖析和实现PCA算法
线性代数的本质课程笔记-特征向量/特征值
视频地址:https://www.bilibili.com/video/av6540378/?spm_id_from=333.788.videocard.0 本篇来讲一下线性代数中非常重要的一个概念:
石晓文
2019/09/24
8940
线性代数的本质课程笔记-特征向量/特征值
线性代数后记-对角化到施密特正交化
学习就是这样,永远前100页看的最多,后面300页种种原因看不下去。这次打破魔咒,把后面的看了。
云深无际
2024/11/05
1680
线性代数后记-对角化到施密特正交化
【Math for ML】矩阵分解(Matrix Decompositions) (上)
设\(λ=λ_i\)是矩阵\(A\)的一个特征值,则有方程\((A-λ_iv)x=0\),可求得非零解\(x=p_i\)即为\(λ_i\)对应的特征向量。(若\(λ_i\)为实数,则\(p_i\)可取实向量;\(λ_i\)为复数,则\(p_i\)可取复向量)
marsggbo
2018/12/27
1.1K0
万字长文带你复习线性代数!
课程主页:http://speech.ee.ntu.edu.tw/~tlkagk/courses_LA16.html
石晓文
2018/12/25
1.7K0
万字长文带你复习线性代数!
博客 | MIT—线性代数(下)
1、 投影矩阵与最小二乘:向量子空间投影在机器学习中的应用最为广泛。就拿最小二乘的线性拟合来说,首先根据抽样特征维度假设线性方程形式,即假设函数。
AI研习社
2018/12/28
1.5K0
博客 | MIT—线性代数(下)
透析矩阵,由浅入深娓娓道来—高数-线性代数-矩阵
线性代数是用来描述状态和变化的,而矩阵是存储状态和变化的信息的媒介,可以分为状态(静态)和变化(动态)信息来看待。
周陆军
2018/03/27
7.4K7
透析矩阵,由浅入深娓娓道来—高数-线性代数-矩阵
【笔记】《计算机图形学》(6)——变换矩阵
这系列的笔记来自著名的图形学虎书《Fundamentals of Computer Graphics》,这里我为了保证与最新的技术接轨看的是英文第五版,而没有选择第二版的中文翻译版本。不过在记笔记时多少也会参考一下中文版本
ZifengHuang
2020/07/29
3.2K0
【笔记】《计算机图形学》(6)——变换矩阵
小论线性变换
任何一个线性变换都可以用一个矩阵A来表示。 EIG分解 特征值分解的适应情况是: 矩阵是方阵 矩阵有足够的特征向量 如果矩阵有不相同的特征值 ,那么肯定有足够的特征向量 对角矩阵本质上是每个轴上的不耦合地伸缩。 [图片] [图片] Screenshot (19).png [图片] Screenshot (20).png [图片] Screenshot (21).png [图片] Screenshot (22).png image.png image.png SVD分解 如何将不能对角化的矩阵对角化,
用户1147754
2018/01/15
8320
小论线性变换
博客 | 机器学习中的数学基础(线性代数)
正确理解“线性代数”应该将其拆分成2部分:“线性”体现向量,它是静态的研究对象,而“代数”则是施加在向量上的数学结构,代表的是数学运算,具体就是数乘和加法,即映射。因此,线性代数研究的就是向量集合上的各种运算,包括线性空间和线性变换,而矩阵就是将两者联系起来的纽带。
AI研习社
2018/12/27
8970
博客 | 机器学习中的数学基础(线性代数)
机器学习中的数学(6)-强大的矩阵奇异值分解(SVD)及其应用
上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。 特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,
机器学习AI算法工程
2018/03/12
1.4K0
机器学习中的数学(6)-强大的矩阵奇异值分解(SVD)及其应用
「Deep Learning」读书系列分享第二章:线性代数 | 分享总结
「Deep Learning」这本书是机器学习领域的重磅书籍,三位作者分别是机器学习界名人、GAN 的提出者、谷歌大脑研究科学家 Ian Goodfellow,神经网络领域创始三位创始人之一的蒙特利尔大学教授 Yoshua Bengio(也是 Ian Goodfellow 的老师)、同在蒙特利尔大学的神经网络与数据挖掘教授 Aaron Courville。只看作者阵容就知道这本书肯定能够从深度学习的基础知识和原理一直讲到最新的方法,而且在技术的应用方面也有许多具体介绍。这本书面向的对象也不仅是学习相关专业的
AI研习社
2018/03/19
1.1K0
「Deep Learning」读书系列分享第二章:线性代数 | 分享总结
矩阵可逆-我们能不能回到当初第一次见面的模样
标题的意思就是,能不能回到我送你进矩阵之前的模样,要是还能回去那就是可逆,可逆其实讲的是“原料”。有没有那么一个矩阵,可以把变换过的原料再变回去。
云深无际
2024/10/12
2300
矩阵可逆-我们能不能回到当初第一次见面的模样
矩阵分析笔记(七)特征值与特征向量
设\mathscr{A}是数域\mathbb{F}上的n维线性空间V的线性变换,若存在\alpha \neq 0, \lambda \in \mathbb{F},使
mathor
2020/10/23
1.8K0
矩阵分析笔记(七)特征值与特征向量
降维方法(一):PCA原理
PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。 PCA的作用 你手上有一批数据,但是特征太多,你感觉数据太稀疏了 你选了一堆特征,但是感觉某些特征之间的相关性太高了,比如用户月消费预测的时候,你选了用户身高以及用户性别这两个特征,一般男生的身高比较高,你觉得特征有点冗余 你的小霸王内存不够,内存只有4个G,装不下太大的矩阵,但是你又不想减少训练数据,N
智能算法
2018/04/02
1.5K0
降维方法(一):PCA原理
机器学习数学基础--线性代数
换种表达方式,线性无关是说:其中任意一个向量都不在其他向量张成空间中,也就是对所有的
Ai学习的老章
2019/05/10
1.1K0
机器学习数学基础--线性代数
图形中的线性代数
本篇介绍下图形学中涉及的线性代数,通过本篇的学习,可以为后续学习图形的各种变换打下坚实的基础。为了避免单纯介绍数学带来的抽象,本篇会以图形的方式来解释数学。那现在就开始吧。
一只小虾米
2022/10/25
1K0
图形中的线性代数
推荐阅读
相关推荐
相似矩阵:换个角度看矩阵
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档