首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

呆在家无聊?何不抓住这个机会好好学习!

矩阵变换的“方向”为矩阵的特征向量,其“距离”为矩阵的特征值,特征值与特征向量描绘了矩阵变换的矢量特征。因此,线性代数即是研究向量、向量空间(线性空间)、线性变换和有限维线性方程组的数学分支。...经过初等运算后最精简的线性方程的个数也即经过初等变换后矩阵B的最高阶非零子式的阶数称之为矩阵B的秩(rank),记为R(B),初等变换也即保持秩不变的线性变换。...但是我们不能急于下结论,再回到开头的例子(如下图所示),可以看到,矩阵变换可能会导致图形的形状与大小的改变,不同点的运动方向并不一样: 矩阵A的特征值可通过特征方程|A-λE|=0进行求解,例如上图矩阵可求得其特征根为...在向量的矩阵变换中,不同的向量变换的方向、距离不一样,但是矩阵特征值λ对应的特征向量其变换方向不变,仅进行比例为λ的长度伸缩。...特征向量对于矩阵变换方向的指示作用在于:任何一个向量在进行变换后其在特征值λ对应的特征向量方向上的投影均缩放为原来的λ倍。

77030

图形中的线性代数

特征值和特征向量 矩阵A表示一个变换,可能是旋转,平移,缩放中的一个或几个,如果对某个向量按照A变换后,结果方向没变,只是进行了缩放,那么这个向量就是特征向量,对应的缩放因子就是特征值。...这样A变换就可以看成是如下3步: 将特征向量旋转到x,y坐标轴,成为x,y方向的标准向量。...(R的转置乘以特征向量,结果就是单位向量) 按照特征值进行缩放 再将x,y坐标轴旋转到特征向量方向 如下图所示: image.png 类似地看下奇异值分解:...那这个平面对应的法线需要如何变换才能保持依旧垂直于平面呢?...坐标系变换 在图形变换中,会涉及到多个坐标系,比如基于某个物体的局部坐标系,基于整个空间的整体坐标系,还有基于Camera的观察坐标系,那某个坐标系的点在另外一个坐标系中如何表示呢?

93310
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    3D 可视化入门:渲染管线原理与实践

    MVP(Model-View-Projection) 矩阵坐标变换流程 虽然通常三种变换会同时应用,但投影矩阵与其他两种矩阵不同,因为透视投影不是仿射的,严格来说,它「几乎」不能被正交矩阵变换表示。...在 3D Canvas 中,坐标通常是右手系,坐标轴的方向如图示 一个场景中可能有多个相同模型,这些模型可以有各自不同的旋转、平移、缩放变换,因此需要对它们应用模型矩阵(model matrix),将其坐标变换为世界坐标...在绘制时,存储要绘制的像素的深度,当准备覆盖它时,先测试将要绘制的像素深度是否小于已经绘制的深度,小于则覆盖并更新深度信息,否则保持不变。...因为这种光照模型,是基于单个物体表面进行运算的,影响物体表面颜色的,只有物体本身和光源,没有其他物体的反光。对于镜面反射,最后计算的结果只能是表面高光。因此是没有办法做出真正的镜面反射效果的。...当场景发生变化时,一些已经完成的通道渲染可以保持不变。 *beauty pass 具体指代什么似乎没有定论,这里指默认的不考虑场景作用关系的渲染。

    6.9K21

    掌握机器学习数学基础之线代(二)

    一个变换(或者说矩阵)的特征向量就是这样一种向量,它经过这种特定的变换后保持方向不变,只是进行长度上的伸缩而已。...特征值及特征向量的几何意义和物理意义: 在空间中,对一个变换而言,特征向量指明的方向才是很重要的,特征值不那么重要。虽然我们求这两个量时先求出特征值,但特征向量才是更本质的东西!...特征向量是指经过指定变换(与特定矩阵相乘)后不发生方向改变的那些向量,特征值是指在经过这些变换后特征向量的伸缩的倍数,也就是说矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量...注意:常有教科书说特征向量是在矩阵变换下不改变方向的向量,实际上当特征值小于零时,矩阵就会把特征向量完全反方向改变,当然特征向量还是特征向量。...更加详细的讲述请看:奇异值的意义 特征分解也是这样的,也可以简化我们对矩阵的认识。对于可对角化的矩阵,该线性变换的作用就是将某些方向(特征向量方向)在该方向上做伸缩。

    77280

    矩阵特征值-变化中不变的东西

    上文说了可逆这个话题,理解起来很简单,就是不变的东西 有一张纸,上面画了一个箭头。对这张纸进行了一些拉伸、旋转等操作(线性变换)。 有些箭头在这些操作后,方向保持不变,只是长度可能变长或变短。...有些波纹会特别稳定: 特定的波纹:有些波纹在石头落水后,虽然会变大或变小,但始终保持着原来的形状,只是沿着固定的方向振动。 振动频率:这些波纹的振动频率就是特征值。...振动方向:这些波纹的振动方向就是特征向量。 特征值:表示一个线性变换下,某个向量被拉伸或压缩的倍数。 特征向量:表示一个线性变换下,方向保持不变的向量。...揭示矩阵的本质: 特征值和特征向量告诉我们,矩阵在进行线性变换时,哪些方向上的向量只发生缩放,而不会改变方向。...特征值和特征向量共同描述了矩阵的线性变换性质。 一个计算 特征空间想象成一个房间,特征向量是房间里的家具。代数重数表示这个房间有多大,而几何重数表示这个房间里能摆放多少件不相同的家具。

    12010

    如何理解正定矩阵和半正定矩阵

    说人话来理解 光看定义其实肯定不能理解到底是个啥,以及为什么要这么定义。所以下面用说人话的方式来进行解释。 仔细看一下上面的定义可以看到两种矩阵的唯一区别就是正定要求是大于0,而半正定要求大于等于0。...而小于90度背后的含义是变换后的向量 M 是沿着原向量 X 的正方向进行缩放的(即 M 投影回原向量时方向不变)。...而上面这句话还可以从特征向量的角度进一步理解,在介绍之前我们回顾一下特征值和特征向量的概念: 首先一个矩阵 A 的特征向量 x 就是表示某个向量会沿着特征向量的方向进行变换(缩放),缩放比例由特征值...0.5和2,而它们对应的特征向量分别是 [1,0]^T 和 [0,1]^T 。...综上,要使得变换后的向量 M 与原向量 x 夹角小于90度,即映射回原来的向量时保持方向不变,那么就需要特征值大于0,所以这也是为什么正定矩阵的特征值都大于0.

    2.1K60

    特征值和特征向量

    特征值和特征向量是矩阵的重要性质,本文记录相关内容。 我们知道,矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换的过程中,原向量主要发生旋转、伸缩的变化。...实际上,上述的一段话既讲了矩阵变换特征值及特征向量的几何意义(图形变换)也讲了其物理含义。物理的含义就是运动的图景:特征向量在一个矩阵的作用下作伸缩运动,伸缩的幅度由特征值确定。...特征值大于1,所有属于此特征值的特征向量身形暴长;特征值大于0小于1,特征向量身形猛缩;特征值小于0,特征向量缩过了界,反方向到0点那边去了。 关于特征值和特征向量,这里请注意两个亮点。...,v 经过这个线性变换{\displaystyle A}之后,得到的新向量仍然与原来的 {\displaystyle v} 保持在同一条直线上,但其长度或方向也许会改变,公式表示为: A v = \lambda...如果特征值为正,则表示 {\displaystyle v} 在经过线性变换的作用后方向也不变;如果特征值为负,说明方向会反转;如果特征值为0,则是表示缩回零点。但无论怎样,仍在同一条直线上。

    97320

    机器学习之PCA算法

    PCA的目标就是通过线性变换将高维数据映射到低维空间,同时保持数据的主要信息。 PCA的主要应用有: 数据可视化:通过将高维数据投影到二维或三维空间,实现可视化展示。...PCA目标 最小重构误差:求重构误差最小的投影方向,即让样本点到投影超平面的距离都足够近。 最大可分性:求散度最大的投影方向,即让样本点到投影超平面的投影尽可能的分开。...特征值分解: 对协方差矩阵进行特征值分解,得到特征值和对应的特征向量。 特征向量代表了数据中的主成分,每个特征向量与一个特征值相对应。...特征向量选择: 选择最大的k个特征值对应的特征向量作为主成分,从而实现降维。 数据转换: 使用所选的k个特征向量构造转换矩阵,将原始数据映射到新的低维空间。...基于PCA的人脸识别  机器学习之基于PCA的人脸识别_一片叶子在深大的博客-CSDN博客

    1K40

    【Math for ML】矩阵分解(Matrix Decompositions) (上)

    特征值与特征向量定义: 对于一个给定的矩阵 \(A∈R^{n×n}\),它的特征向量\(v\) 经过这个线性变换之后,得到的新向量仍然与原来的 \(v\)保持在同一条直线上,但其长度或方向也许会改变。...图解特征向量和特征值 下面使用二维图像的变换来帮助我们直观理解特征值和特征向量的意义。...一共给出了两个示例,最左边表示原数据,中间表示不同特征值对应的特征向量方向(红色表示\(λ_1\)对应的特征向量,蓝色表示\(λ_2\)对应的特征向量),最右边表示经过矩阵变换后得到的新的矩阵,该矩阵反应了特征向量和特征值是如何影响变换的...亏损矩阵 基于上面的介绍,很自然地给出亏损矩阵(defective matrix) 的定义: n阶矩阵\(A\)若有n个线性无关的特征向量(n个特征值也要各不相同),称\(A\)为非亏损矩阵,即\...LT的\(p_1,p_2\)表示矩阵\(A∈R^{2×2}\)的单位特征向量(长度为1)。 LT→RT:单位圆按照\(A\)特征向量的方向伸缩,伸缩比例等于\(A\)的特征值大小。

    1.1K30

    3D图形学线代基础

    后续如果没有特殊说明,所有涉及的点、向量、坐标轴、矩阵等都是基于场景中的世界坐标系。...你可能有点疑惑了,本文标题写的是 3D,但是文中例子却都基于 2D 坐标系?...我们会发现没办法求出 m21,目前看来是不能用矩阵来描述平移变换了。...但是平移变换矩阵为 3 X 3 矩阵,根据矩阵乘以矩阵需要满足前一个矩阵的列数等于后一个矩阵的行数这一原则,它们之间是不能相乘的;解决的办法是其它线性变换也引入齐次坐标,最终得到的变换矩阵就可以相乘了。...投影 在上文中我们学习了世界坐标系和物体坐标系,理解了这两个坐标系我们就可以正确使用 ThreeJS 中的变换方法了;但是 ThreeJS 中的坐标系不仅仅只有这两种,还包括相机坐标系和屏幕坐标系。

    2.1K31

    降维PCA

    协方差 上图,在n维空间中u是Anxm一个列向量,投影到低维空间中,e是低维空间一个基向量,||e||=1,需要确定e的方向,使得A的列向量投影到e的点方差最大,也就是很分散,向量u投影到e的坐标是它们的内积...p线性表示 方差 注意此处 最大时 取的是AA^T最大特征值特征向量方向 只要取P的前r个特征值的特征向量,就可以把Anxm降到Arxm....使用上面方法操作一遍 求特征值 解得 得到特征向量 标准化特征向量 矩阵P 验证 对矩阵A做变换到一维 PCA方法的缺点 PCA作为经典方法在模式识别领域已经有了广泛的应用...(3) 多数情况下,难以解释PCA所保持的主元分量的意义; (4) PCA将所有的样本作为一个整体对待,去寻找一个均方误差最小意义下的最优线性映射,而忽略了类别属性,而它所忽略的投影方向有可能刚好包含了重要的可分类信息...,如下图所示,红色和蓝色的点为原数据,中间绿色的点为重构后的数据,由此可看出,这种情形下,主元方向不能保持数据的聚类信息(使用LDA)。

    67730

    机器学习数学基础--线性代数

    线性变换 线性的两个条件:直线依旧是直线 和 原点保持固定.线性的严格定义: ? 线性变换保持网格线平行且等距分布,并且保持原点不动。...,在线性变换之后,网格线保持平行且等距分布这一性质有个绝妙的推论,向量(x,y)变换之后的结果,将是x乘以变换后的 ? 的坐标加上y乘以变换后的 ? 的坐标。...的特征向量组成的矩阵, ? 是一个对角矩阵,每一个对角线元素就是一个特征值,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)。...可以想象,这个变换也同样有很多的变换方向,我们通过特征值分解得到的前N个特征向量,那么就对应了这个矩阵最主要的N个变化方向。我们利用这前N个变化方向,就可以近似这个矩阵(变换)。...总结一下,特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么。不过,特征值分解也有很多的局限,比如说变换的矩阵必须是方阵。

    1.1K30

    100天搞定机器学习|Day26-29 线性代数的本质

    线性变换 线性的两个条件:直线依旧是直线 和 原点保持固定.线性的严格定义: ? 线性变换保持网格线平行且等距分布,并且保持原点不动。...,在线性变换之后,网格线保持平行且等距分布这一性质有个绝妙的推论,向量(x,y)变换之后的结果,将是x乘以变换后的 ? 的坐标加上y乘以变换后的 ? 的坐标。...的特征向量组成的矩阵, ? 是一个对角矩阵,每一个对角线元素就是一个特征值,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)。...可以想象,这个变换也同样有很多的变换方向,我们通过特征值分解得到的前N个特征向量,那么就对应了这个矩阵最主要的N个变化方向。我们利用这前N个变化方向,就可以近似这个矩阵(变换)。...总结一下,特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么。不过,特征值分解也有很多的局限,比如说变换的矩阵必须是方阵。

    1.1K40

    小论线性变换

    是经过线性变换A2后在新的基底下的坐标 % 选择特征向量方向为新的坐标,在新的坐标系下横坐标不变,纵坐标是原来的2倍。...是经过线性变换A2后在新的基底下的坐标 % 选择特征向量方向为新的坐标,在新的坐标系下横坐标不变,纵坐标是原来的2倍。...是经过线性变换A2后在新的基底下的坐标 % 选择特征向量方向为新的坐标,在新的坐标系下横坐标不变,纵坐标是原来的2倍。...是经过线性变换A2后在新的基底下的坐标 % 选择特征向量方向为新的坐标,在新的坐标系下横坐标不变,纵坐标是原来的2倍。...Xnew2 = inv(U)*A2*V*Xnew; %Xnew2是经过线性变换A2后在新的基底下的坐标 % 选择特征向量方向为新的坐标,在新的坐标系下横坐标不变,纵坐标是原来的2倍。

    81370

    # threejs 基础知识点汇总

    它基于WebGL,一个浏览器支持的3D图形API,使得开发者能够在网页上创建复杂的3D场景和交互体验。...,模型默认加载到坐标原点,沿蓝色线为Z轴正方向,沿红色线为X轴正方向,沿绿色线位Y轴正方向。...在三维,渲染的是一个立体的场景,我们就不能单纯通过电脑屏幕的 X、Y 来获取元素位置,因为三维存在 Z 轴。...在现实场景中,我们如果想让同行的朋友关注远处的一座山,我们只需伸手指向那座山,朋友就会根据当时的场景,结合你看的方向,结合你手指的方向,他就可以知道你说的是那座山。...CSS2DRenderer是CSS3DRenderer的简化版本,它主要支持位移变换,这意味着可以使用它来在三维空间中定位HTML元素,但不支持旋转或缩放等其他三维变换。

    38810

    SIFT算法大致原理作用

    Sift特征匹配算法可以处理两幅图像之间发生平移、旋转、仿射变换情况下的匹配问题,具有很强的匹配能力。...总体来说,Sift算子具有以下特性:    (1)Sift特征是图像的局部特征,对平移、旋转、尺度缩放、亮度变化、遮挡和噪声等具有良好的不变性,对视觉变化、仿射变换也保持一定程度的稳定性。   ...Sift特征匹配算法主要包括两个阶段,一个是Sift特征的生成,即从多幅图像中提取对尺度缩放、旋转、亮度变化无关的特征向量;第二阶段是Sift特征向量的匹配。     ...以特征点为中心取16*16的邻域作为采样窗口,将采样点与特征点的相对方向通过高斯加权后归入包含8个bin的方向直方图,最后获得4*4*8的128维特征描述子。示意图如下: ?    ...当两幅图像的Sift特征向量生成以后,下一步就可以采用关键点特征向量的欧式距离来作为两幅图像中关键点的相似性判定度量。取图1的某个关键点,通过遍历找到图像2中的距离最近的两个关键点。

    2.1K10

    特征值和特征向量及其计算

    这是一种比较一般的变换,本节要研究的不是这种,而是一类特殊的变换,但仍然是线性变换。 ?...从图中可以清晰看出,对于向量 而言,经矩阵 线性变换之后,所得到的向量相对于原向量只是长度变化了,方向没变。换言之,就是变换后的向量(矩阵)方向与原向量(矩阵)方向一致。...如果再考察线性变换之后的向量与原向量的大小关系,会发现如下关系: 线性变换之后的向量与原向量之间是倍数关系(在实数域,倍数就是一个实数)。...” 对于示例 , 是矩阵 的特征值, 是相应的特征向量。 注意,特征值 可以是正数,也可以是负数。如果 ,则意味着 和 的方向相反。...对于如此巨大的矩阵,当然不能用手工计算了,必须要教给机器。不过,谷歌所用的方法,也不是下面程序中介绍的。至今,谷歌尚未完全公开它的计算方法。

    1.8K10

    基于全局特征描述子的激光SLAM回环检测方法

    图1 基于全局特征描述子的回环检测算法流程 1.1 特征向量提取 使用全局点云中具有代表性信息的边角特征和平面特征进行数据处理,对里程计模块中提取的边角特征点云 和平面特征点云 分别提取特征向量...其中,边角特征提取线向量为特征向量 ,邻近点投影至该方向上的向量方差最最小,为最大特征值 对应的特征向量 ;平面特征提取法向量为特征向量 ,邻近点投影至该方向上的向量方差最最大,为最小特征值λ1...之间的夹角,值域为[-1,1]; 为 , 之间连线方向与坐标轴 之间的夹角,值域为[-1,1]; 为特征向量 投影至 平面时与坐标轴 之间的夹角,值域为[−π/2,π/2]。...其中,当点云为边角特征时,扫描点按照线方向分布;为平面特征时,扫描点呈现平面式分布,在垂直平面方向上的方差最小。...; ②提高了计算速度,基于边角点和平面点配准策略,进行高效率的位姿变换算法研究; ③全局一致性优,采用因子图优化获得了使全局误差最小的位姿,校正了累积误差。

    65420

    特征值和特征向量到底是个啥?能做什么用?

    特征值和特征向量的意义 基于上面的解释后,我们再来看特征值和特征向量的定义: 设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,则称 m 是A的一个特征值(characteristic...x沿着这2个特征向量的方向进行伸缩,伸缩比例就是对应的特征值。...假如A是多维(n)矩阵,且有n个不同的特征值,那么就可以理解成这个矩阵A和一个向量x相乘其实就是把向量x往n个特征向量的方向进行拉伸,拉伸比例是对应的特征值。那这样有什么作用呢? 3....特征值和特征向量的应用 意义就在于如果我们知道了特征值的大小,有时为了减少计算了,我们可以只保留特征值较大的,比如上面的图片中,我们可以看到变换后的向量x轴适合原来一样的,而y轴方向拉伸了100倍,所以通常为了实现压缩算法...,我们可以只保留y轴方向的变换即可。

    3.1K20

    AI数学基础之:奇异值和奇异值分解

    即特征向量被施以线性变换 A 只会使向量伸长或缩短而其方向不被改变。 一个线性变换通常可以由其特征值和特征向量完全描述。特征空间是相同特征值的特征向量的集合。...比如 不能被对角化,也就不能特征分解。 因为 A= QΛQ-1 ,可以看做A被分解为三个矩阵,也就是三个映射。...对x的变换是正交变换,它将x用新的坐标系来表示,这个坐标系就是A的所有正交的特征向量构成的坐标系。比如将x用A的所有特征向量表示为: 则通过第一个变换就可以把x表示为 。...然后,在新的坐标系表示下,由中间那个对角矩阵对新的向量坐标换,其结果就是将向量往各个轴方向拉伸或压缩: ​ 如果A不是满秩的话,那么就是说对角阵的对角线上元素存在0,这时候就会导致维度退化,这样就会使映射后的向量落入...也就是 这些特征值表示的是对向量做线性变换时候,各个变换方向的变换幅度。

    61820
    领券