Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >特征值和特征向量到底是个啥?能做什么用?

特征值和特征向量到底是个啥?能做什么用?

原创
作者头像
marsggbo
修改于 2021-09-22 03:06:25
修改于 2021-09-22 03:06:25
2.2K0
举报

1. 矩阵的意义

这篇文章对矩阵的含义做了清晰的解释,以 $Ma=b$为例介绍矩阵M的含义

  • 从变换的角度来说,矩阵M可以理解为对向量 a做变换得到了 b
  • 从坐标系的角度来说,M可以理解成是一个坐标系(常用的坐标是笛卡尔坐标系,即 $I$),向量a就是在M这个坐标系下的坐标,a对应到$I$坐标系下的坐标是向量 b。

所以本质上说a和b是等价的,就好像我们给一个人拍照,站在楼上拍照和爬着拍照,角度不一样,但是拍的东西都是同一个东西,唯一的差别就是坐标系的不同。

2. 特征值和特征向量的意义

基于上面的解释后,我们再来看特征值和特征向量的定义:

设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,则称 m 是A的一个特征值(characteristic value)或本征值(eigenvalue)。

那特征值和特征向量具体是什么含义呢?

我们假设矩阵A的某个特征值为 m1, 对应的特征向量是 x1。根据定义和上面对矩阵的理解可以知道,x1是以A为坐标系的坐标向量,将其变换到以$I$为坐标系后得到的坐标向量 与 它原来的坐标向量 永远存在一个 m1 倍的伸缩关系。

为了方便理解举一个简单的例子,假如矩阵A如下,可以看到它的特征值有2个,分别是1,100,分别对应2个特殊的特征向量,即 1,0,0,1。

$$A= \left\begin{matrix} 1 & 0 \ 0 & 100 \end{matrix}\right \tag{1}$$

所以矩阵A左乘任意的一个向量x,其实都可以理解成是把向量x沿着这2个特征向量的方向进行伸缩,伸缩比例就是对应的特征值。可以看到这2个特征值差别是很大的,最小的只有1,最大的特征值为100。

看下图的例子,矩阵A和向量 1,1相乘得到 1,100,这表示原来以A为坐标系的坐标1,1,经过转换到以$I$为坐标系后 坐标变成了 1,100。我们直观地理解就是矩阵A把向量1,1更多地往y轴方向拉伸。

假如A是多维(n)矩阵,且有n个不同的特征值,那么就可以理解成这个矩阵A和一个向量x相乘其实就是把向量x往n个特征向量的方向进行拉伸,拉伸比例是对应的特征值。那这样有什么作用呢?

3. 特征值和特征向量的应用

意义就在于如果我们知道了特征值的大小,有时为了减少计算了,我们可以只保留特征值较大的,比如上面的图片中,我们可以看到变换后的向量x轴适合原来一样的,而y轴方向拉伸了100倍,所以通常为了实现压缩算法,我们可以只保留y轴方向的变换即可。

对应到高维情况也是类似的,多维矩阵会把向量沿着多个方向拉伸,有的方向可能拉伸幅度很小,而有的很大,我们只需要保留幅度大的即可达到压缩的目的。

<footer style="color:white;;background-color:rgb(24,24,24);padding:10px;border-radius:10px;">

<h3 style="text-align:center;color:tomato;font-size:16px;" id="autoid-2-0-0">

<center>

<span>微信公众号:AutoML机器学习</span>

<img src="https://pic4.zhimg.com/80/v2-87083e55cd41dbef83cc840c142df48a_720w.jpeg" style="width:200px;height:200px">

</center>

<b>MARSGGBO</b><b style="color:white;"><span style="font-size:25px;">♥</span>原创</b>

<span>如有意合作或学术讨论欢迎私戳联系~ 邮箱:marsggbo@foxmail.com</span>

<b style="color:white;">

</b><p><b style="color:white;"></b>

</p></h3>

</footer>

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
特征值和特征向量到底是个啥?能做什么用?
所以本质上说a和b是等价的,就好像我们给一个人拍照,站在楼上拍照和爬着拍照,角度不一样,但是拍的东西都是同一个东西,唯一的差别就是坐标系的不同。
marsggbo
2021/09/23
3.7K0
特征值和特征向量到底是个啥?能做什么用?
线性代数的本质课程笔记-特征向量/特征值
视频地址:https://www.bilibili.com/video/av6540378/?spm_id_from=333.788.videocard.0 本篇来讲一下线性代数中非常重要的一个概念:
石晓文
2019/09/24
8990
线性代数的本质课程笔记-特征向量/特征值
特征值和特征向量
$$ \begin{array} \mathbf{I A} \mathbf{x}=\mathbf{I} \cdot \lambda \mathbf{x} \\ \mathbf{A} \mathbf{x}=(\lambda I) \mathbf{x} \end{array} $$
为为为什么
2022/09/30
1K0
小论线性变换
任何一个线性变换都可以用一个矩阵A来表示。 EIG分解 特征值分解的适应情况是: 矩阵是方阵 矩阵有足够的特征向量 如果矩阵有不相同的特征值 ,那么肯定有足够的特征向量 对角矩阵本质上是每个轴上的不耦合地伸缩。 [图片] [图片] Screenshot (19).png [图片] Screenshot (20).png [图片] Screenshot (21).png [图片] Screenshot (22).png image.png image.png SVD分解 如何将不能对角化的矩阵对角化,
用户1147754
2018/01/15
8400
小论线性变换
万字长文|线性代数的本质课程笔记完整合集!
线性代数中最基础,最根源的组成部分是向量,那么什么是向量呢?从不同学生的视角看,有以下三种观点:
石晓文
2019/09/25
7910
万字长文|线性代数的本质课程笔记完整合集!
线性代数整理(三)行列式特征值和特征向量
比方说在二维平面中,这里有三组二维向量,每组都有两个向量,那么每组向量的面积就可以表示它们的不同。当然这里说面积是针对二维平面来说的,在三维空间中,就是体积;在更高维度中,可能就是一个体,但这个体比较抽象
算法之名
2021/03/04
2.8K0
矩阵特征值和特征向量怎么求_矩阵的特征值例题详解
  设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,
全栈程序员站长
2022/09/20
1.4K0
教程 | 从特征分解到协方差矩阵:详细剖析和实现PCA算法
选自deeplearning4j 机器之心编译 参与:蒋思源 本文先简要明了地介绍了特征向量和其与矩阵的关系,然后再以其为基础解释协方差矩阵和主成分分析法的基本概念,最后我们结合协方差矩阵和主成分分析法实现数据降维。本文不仅仅是从理论上阐述各种重要概念,同时最后还一步步使用 Python 实现数据降维。 首先本文的特征向量是数学概念上的特征向量,并不是指由输入特征值所组成的向量。数学上,线性变换的特征向量是一个非简并的向量,其方向在该变换下不变。该向量在此变换下缩放的比例称为特征值。一个线性变换通常可以由其
机器之心
2018/05/09
4.8K0
教程 | 从特征分解到协方差矩阵:详细剖析和实现PCA算法
理解齐次坐标的意义
在介绍为什么要引入齐次坐标之前先介绍这三个操作的线性代数的表达形式。为了说明方便以二维进行举例说明。
marsggbo
2019/11/29
1.2K0
理解齐次坐标的意义
CSS3转换(transform)基本用法介绍
一个炫酷的网页离不开css的transform、transition、animation三个属性,之前一直没有涉及到这块内容,刚好最近要做一个相关东西,趁此机会好好学一学这三个属性。
用户10106350
2022/10/28
1.7K0
CSS3转换(transform)基本用法介绍
呆在家无聊?何不抓住这个机会好好学习!
本公众号一向坚持的理念是数据分析工具要从基础开始学习,按部就班,才能深入理解并准确利用这些工具。鼠年第一篇原创推送比较长,将从基础的线性代数开始。线性代数大家都学过,但可能因为联系不到实用情况,都还给了曾经的老师。线性代数是数理统计尤其是各种排序分析的基础,今天我将以全新的角度基于R语言介绍线性代数,并手动完成PCA分析,从而强化关于线性代数和实际数据分析的联系。
SYSU星空
2022/05/05
8230
呆在家无聊?何不抓住这个机会好好学习!
「Deep Learning」读书系列分享第二章:线性代数 | 分享总结
「Deep Learning」这本书是机器学习领域的重磅书籍,三位作者分别是机器学习界名人、GAN 的提出者、谷歌大脑研究科学家 Ian Goodfellow,神经网络领域创始三位创始人之一的蒙特利尔大学教授 Yoshua Bengio(也是 Ian Goodfellow 的老师)、同在蒙特利尔大学的神经网络与数据挖掘教授 Aaron Courville。只看作者阵容就知道这本书肯定能够从深度学习的基础知识和原理一直讲到最新的方法,而且在技术的应用方面也有许多具体介绍。这本书面向的对象也不仅是学习相关专业的
AI研习社
2018/03/19
1.1K0
「Deep Learning」读书系列分享第二章:线性代数 | 分享总结
特征值分解
以物理中「力」的角度来看待,我们通常会将「合力」分解为各个「分力」,来描述整个「合力」的影响。特征值分解便是将「矩阵」分解成各个方向的分量,通过对各个分量的刻画来描述此矩阵。
hotarugali
2023/05/16
5100
【Math for ML】矩阵分解(Matrix Decompositions) (上)
设\(λ=λ_i\)是矩阵\(A\)的一个特征值,则有方程\((A-λ_iv)x=0\),可求得非零解\(x=p_i\)即为\(λ_i\)对应的特征向量。(若\(λ_i\)为实数,则\(p_i\)可取实向量;\(λ_i\)为复数,则\(p_i\)可取复向量)
marsggbo
2018/12/27
1.2K0
机器学习中的数学(6)-强大的矩阵奇异值分解(SVD)及其应用
上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。 特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,
机器学习AI算法工程
2018/03/12
1.4K0
机器学习中的数学(6)-强大的矩阵奇异值分解(SVD)及其应用
线性代数精华——矩阵的特征值与特征向量
今天和大家聊一个非常重要,在机器学习领域也广泛使用的一个概念——矩阵的特征值与特征向量。
TechFlow-承志
2020/03/05
2.6K0
线性代数精华——矩阵的特征值与特征向量
矩阵分析笔记(七)特征值与特征向量
设\mathscr{A}是数域\mathbb{F}上的n维线性空间V的线性变换,若存在\alpha \neq 0, \lambda \in \mathbb{F},使
mathor
2020/10/23
1.8K0
矩阵分析笔记(七)特征值与特征向量
(转载非原创)CSS3转换(transform)基本用法介绍
只是觉得写的很好分享到腾讯云,推荐腾讯云服务器,除学生机外非常便宜的活动 腾讯云活动
xlj
2021/07/06
5350
【GAMES101-现代计算机图形学课程笔记】Lecture 04 Transformation Cont.
Euler angles常用在飞机的旋转,即旋转划分成roll,pitch,yaw三个操作。
marsggbo
2020/06/12
1.8K0
特征值和特征向量的解析解法--正交矩阵
正交矩阵是一类非常重要的矩阵,其具有许多特殊性质和应用。在特征值和特征向量的解析解法中,正交矩阵发挥着重要的作用。本文将详细介绍正交矩阵的定义、性质以及与特征值和特征向量相关的解析解法。
喵叔
2024/05/24
7470
相关推荐
特征值和特征向量到底是个啥?能做什么用?
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档