前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >线性代数的本质-课程笔记(上)

线性代数的本质-课程笔记(上)

作者头像
石晓文
发布于 2019-09-03 12:28:25
发布于 2019-09-03 12:28:25
9210
举报
文章被收录于专栏:小小挖掘机小小挖掘机

本文根据线性代数的本质课程整理得到。

00 - “线性代数的本质”系列预览:https://www.bilibili.com/video/av5977466?from=search&seid=2130245945629607828

1、向量究竟是什么?

视频链接:https://www.bilibili.com/video/av5987715/?spm_id_from=333.788.reco_list.2

三种向量的观点

线性代数中最基础,最根源的组成部分是向量,那么什么是向量呢?我们有以下三种观点:

物理专业学生的视角:向量是空间中的箭头,决定一个向量的是它的长度和所指的方向,只要这两个要素相同, 向量可以任意移动。 计算机专业学生的视角:向量是有序的数字列表,数字顺序不可以随意转变。 数学专业的视角:向量可以是任何东西,只要满足向量之间相加和数字与向量相乘都有意义即可。

我们先来考虑平面中的x-y坐标系,向量被定义为从原点出发的有方向的箭头。这与物理专业的看法略有不同,因为他们认为向量在空间中可以自由落脚,但是在线性代数中,向量是从原点作为起点的。而向量的坐标如[2,3]T,则是有序性的体现,2代表横坐标,3代表纵坐标,二者不可交换。

接下来,我们来介绍下向量的几何意义、向量加法的几何意义,以及向量乘法的几何意义。

向量的几何意义

考虑平面中的x-y坐标系,由x轴和y轴组成,二者的交叉部分叫做原点。

一个向量的坐标由一对数组成,这对数指导我们如何从原点走到向量的终点。

如上图的向量,它告诉我们先沿x轴往左移动2个单位,再沿y轴移动3个方向。

向量加法的几何意义

假设我们现在有两个向量:

如果我们把w从原点移动到v的终点,然后再连接原点和w的终点,那么得到的向量就是二者的和。

为什么是这样,还是回到向量的意义来,他定义了一种移动方式,假设v的坐标是[1,2],w的坐标是[3,-1]。v告诉我们要沿x轴向右移动1个单位,沿y轴向上移动2个单位,而w告诉我们要沿x轴向右移动3个单位,沿y轴向下移动一个单位。这样总体的移动效果就是沿x轴向右移动5个单位,沿y轴向上移动1个单位,得到的结果是[5,1]。因此向量加法的几何意义,我们可以看作是多次移动的累积结果,从计算上来看,就是如下的式子:

向量乘法的几何意义 向量乘法就是对向量进行拉伸(乘以一个大于1的正数),压缩(乘以一个小于1的正数),翻转向量的行为(乘以一个负数),这些行为统称为统称为scaling。而向量乘上的这些数值本身,称之为向量(scalars)。向量乘法的计算方式如下:

2、 线性组合、张成的空间与基

视频链接:https://www.bilibili.com/video/av6025713/?spm_id_from=333.788.videocard.0

基向量 我们之间介绍了向量之间两种最基本的运算,向量相加 以及 向量的缩放。还是以二维平面为例,其实每一个向量都可以通过基向量(basis vectors)经由上面的两种运算得到,假设我们的基向量是[1,0]和[0,1],如下图:

当然,基向量可以任意选择,定义两个向量v和w,以其为基向量,通过加法和乘法,可以得到平面中任意的向量:

基向量的严格定义为:向量空间中的基是张成该空间的一个线性无关的向量集:

线性组合 线性组合Linear Combination的几何意义如下图所示,完整上来说,其实是向量之间的线性组合,其主体是向量,线性组合是一个操作,将各个向量缩放之后,相加在一起,就得到了参与操作的向量之间的线性组合。

线性组合有下面是三种情况: 1)如果参与组合的一对向量不共线,那么由它们进行线性组合所得到的向量可以达到平面上的任意一个点:

2)如果参与组合的一对向量共线,那么由它们进行线性组合所得到的向量的终点被限制在一条通过原点的直线:

3)如果参与组合的一对向量都是零向量,那么由它们进行线性组合所得到的向量永远是零向量:

向量张成的空间 张成的空间:v与w全部的线性组合所构成向量集合被称为张成的空间。

对于平面来说,如果两个向量不共线,那么可以张成整个二维平面,如果共线,只能张成一条直线。

对于三维空间来说,如果三个向量共线,那么只能张成一条直线,如果三个向量共平面,那么只能张成一个平面,如果三个向量不共平面,则可以张成整个三维空间。

线性相关 线性相关:如果一组向量中,至少有一个对张成的空间没有帮助,或者说其中一个向量可以表示成其他向量的线性组合,或者说其中一个向量在其他向量所张成的向量空间中。

线性无关:

3、矩阵与线性变换

视频链接为:https://www.bilibili.com/video/av6043439/?spm_id_from=333.788.videocard.0

线性变换Linear transformation 变换其实也是一种函数,我们有一个输入向量,然后经过变换之后,得到一个输出向量。整个过程,可以看作是输入的向量移动到了输出的输出的位置。考虑整个平面上的向量,在经过变换之后,得到了一个最新的位置。

变换前的向量

变换后的向量

那什么是线性变换呢?满足下面两个条件: 1)所有的直线还是直线。即原先终点在一条直线上的向量,在经过线性变换之后,这些向量还落在一条直线上。 2)原点还在原来的位置。

那么如何来描述我们的线性变换呢?考虑向量v = [-1,2],在i = [1,0]和j = [0,1]为基的情况下,v = -1 * i+2 * j,假设线性变换如下:

上图中,原先的i=[1,0]变换到i'=[1,-2],原先的j=[0,1]变换到j'=[3,0],而原先的v变换到v'=[5,2],而关系 v' = -1 * i' + 2 * j'仍然存在。即图中的式子成立。

所以说,一个2*2的矩阵,[[a,c],[b,d]]其实代表了一种线性变换,它把原来的[1,0]变换到[a,b]的位置,把原先空间中的[0,1]变换到[c,d]的位置。而该矩阵与一个向量[x,y]相乘的结果,相当于对该向量做了一次线性变换,把向量移动到新平面中对应的位置:

4、矩阵乘法与线性变换复合

视频链接:https://www.bilibili.com/video/av6128021/?spm_id_from=333.788.videocard.0 https://www.bilibili.com/video/av6143355/?spm_id_from=333.788.videocard.1

两个2*2矩阵a和b相乘,可以看作是对原始空间连续做了两次线性变换,而得到的计算结果c也是一个2*2的矩阵。使用c对原始空间进行一次线性变换,和连续使用a和b对原始空间进行两次线性变换的效果相同。

矩阵的计算就不细讲了,我们只需要知道,矩阵相乘的几何意义是将两次单独的变换变为一次组合变换即可。

该结论到三维空间中也是同样成立的。

5、行列式

视频链接:https://www.bilibili.com/video/av6179111/?spm_id_from=333.788.videocard.0

如果在二维空间中,我们画出相对应的网格,那么线性变换,就是对这些网格做了拉伸,收缩或者反转。那么如何来定义这种变换的程度呢?就需要用到行列式determinant的概念了。

举一个简单的例子吧:

线性变换前

线性变换后

在进行线性变换后,原来一个面积为1的单位方格,变成了面积为6的矩形。可以说,线性变换将原空间放大了6倍。

再看一个例子:

该线性变换把原二维空间压缩成一条直线,行列式为0

上面的例子中,当二维空间经过一次线性变换被压缩成一条直线甚至是一个点时,行列式为0,因此可以通过行列式是否为0来判断线性变换后的空间的维度是否与原空间相同。

我们知道,行列式的值是有正有负的,那么怎么判断是负数呢?我们可以通过变换后的基向量i和j的方向来判定。

在变换之前,j是在i的左侧的:

如果经过线性变换后,j变成了在i的右侧,那么得到的行列式的值是负的:

那么到三维空间中,行列式的值就告诉我们经过线性变换后,单位体积变化的程度,而行列式的值可以通过右手定则来判定:

那么行列式如何来计算呢?

二维空间行列式的计算

三维空间行列式的计算

6、逆矩阵、列空间与零空间

视频链接:https://www.bilibili.com/video/av6240005/?spm_id_from=333.788.videocard.0

逆矩阵 我们先从线性方程组着手,一个线性方程组可以表示成Ax = v:

看到这里,你也许已经知道这代表什么含义了,矩阵A相当于一个线性变换,向量x在经过A这个线性变换后,得到的向量为v。线性方程组的求解过程其实就是找到向量v在经由A这个线性变换之前所在的位置x。

因此,我们可以把它变成另一个过程,即将v所在的线性空间,经过另一个逆向的过程,变回x所在的线性空间,那么这个线性变换用矩阵表示,就是A的逆矩阵,用A-1表示。即逆矩阵A-1所代表的线性变换,是A所代表的线性变换的逆过程。因此A-1A相对于任何事情都没有做。

那么既然逆矩阵相当于线性变换的逆操作,因此只有在线性变换后空间的维数不变的情况下,才能进行逆操作。再结合之前学习到的,线性变换不降维,前提条件是矩阵的行列式值不为0,因此矩阵的逆矩阵存在的前提,即矩阵的行列式值不为0。

矩阵的秩Rank 矩阵的秩即经由该矩阵代表的线性变换后,所形成的空间的维数。比如在三维空间中,如果经过某个矩阵A代表的线性变换后,空间变为一条直线,那么这个矩阵的秩为1。如果空间变为一个平面,那么这个矩阵的秩为2。如果还是三维空间,那么矩阵的秩为3.

列空间

列空间有两种解释: 1)假设矩阵A代表一个矩阵变换,原始空间中所有的向量,在经由矩阵A的变换之后,所得到的所有新向量的集合 2)由矩阵A的列向量所长成的空间

比如下面的例子,[[2,-2],[1,-1]]这个矩阵,将二维空间变换为一条直线,那么这条直线就是矩阵的列空间。

零空间

如果某个向量空间在线性变换之后,存在降维,那么就会有一系列原来不是零向量的向量落到了零向量的位置,所有这些向量的集合构成了零空间。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-09-01,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 小小挖掘机 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
万字长文|线性代数的本质课程笔记完整合集!
线性代数中最基础,最根源的组成部分是向量,那么什么是向量呢?从不同学生的视角看,有以下三种观点:
石晓文
2019/09/25
7800
万字长文|线性代数的本质课程笔记完整合集!
线性代数的本质课程笔记(中)-点积和叉积
1、点积 视频地址:https://www.bilibili.com/video/av6299284?from=search&seid=12903800853888635103 点积的标准观点 如果我
石晓文
2019/09/03
1.7K0
线性代数的本质课程笔记(中)-点积和叉积
线性代数学习笔记(几何版)
线性代数学习请移步https://www.bilibili.com/video/av6731067
attack
2019/01/30
1.1K0
机器学习数学基础--线性代数
换种表达方式,线性无关是说:其中任意一个向量都不在其他向量张成空间中,也就是对所有的
Ai学习的老章
2019/05/10
1.1K0
机器学习数学基础--线性代数
线性代数的本质课程笔记-特征向量/特征值
视频地址:https://www.bilibili.com/video/av6540378/?spm_id_from=333.788.videocard.0 本篇来讲一下线性代数中非常重要的一个概念:
石晓文
2019/09/24
8940
线性代数的本质课程笔记-特征向量/特征值
深度学习中的数学(二)——线性代数
线性可分的定义:线性可分就是说可以用一个线性函数把两类样本分开,比如二维空间中的直线、三维空间中的平面以及高维空间中的超平面。(所谓可分指可以没有误差地分开;线性不可分指有部分样本用线性分类面划分时会产生分类误差的情况。)
润森
2022/09/22
9170
深度学习中的数学(二)——线性代数
线性代数的本质课程笔记-基变换
视频链接:https://www.bilibili.com/video/av6500834?from=search&seid=3249893627908257126 在二维空间中的向量[3,2],我们
石晓文
2019/09/17
8170
线性代数--MIT18.06(一)
从行的角度来看,三个三元一次方程表示三维空间中的三个平面,如果三个平面相交于一点,那么交点的坐标即为方程组的解。
fireWang
2019/03/13
1.1K0
一文读懂矩阵的秩和行列式的意义
AI 研习社按:张量是神经网络模型中最基本的运算单元,模型内部绝大部分的数据处理都需要依靠张量为载体,进行一系列的数学运算,然后得到结果。就像张量是矩阵在高维度下的推广一样,本文将深入探讨秩和行列式这
AI研习社
2018/03/19
1.7K0
一文读懂矩阵的秩和行列式的意义
透析矩阵,由浅入深娓娓道来—高数-线性代数-矩阵
线性代数是用来描述状态和变化的,而矩阵是存储状态和变化的信息的媒介,可以分为状态(静态)和变化(动态)信息来看待。
周陆军
2018/03/27
7.3K7
透析矩阵,由浅入深娓娓道来—高数-线性代数-矩阵
啊!再见吧!我的行列式~
当你听完线性代数中矩阵各种厉害,各种应用,然后提了提裤子冲入线性代数的世界,会发现出现了行列式,代数余子式,等等的东西,和你想象的那个变换,映射的世界相差甚远。
云深无际
2024/08/21
1600
啊!再见吧!我的行列式~
「Deep Learning」读书系列分享第二章:线性代数 | 分享总结
「Deep Learning」这本书是机器学习领域的重磅书籍,三位作者分别是机器学习界名人、GAN 的提出者、谷歌大脑研究科学家 Ian Goodfellow,神经网络领域创始三位创始人之一的蒙特利尔大学教授 Yoshua Bengio(也是 Ian Goodfellow 的老师)、同在蒙特利尔大学的神经网络与数据挖掘教授 Aaron Courville。只看作者阵容就知道这本书肯定能够从深度学习的基础知识和原理一直讲到最新的方法,而且在技术的应用方面也有许多具体介绍。这本书面向的对象也不仅是学习相关专业的
AI研习社
2018/03/19
1.1K0
「Deep Learning」读书系列分享第二章:线性代数 | 分享总结
算法入门(二) -- 线性代数回顾
本来从这周就应该上手经典算法的,但是我大概翻了一下博客,没有人系统的串讲一下算法中用到的高数知识,都是在算法中掺杂的,想了一下还是准备花几周时间专门整理一下基础理论知识,今天我们就开始线性代数的复习吧。
万事可爱^
2025/01/23
1500
算法入门(二) -- 线性代数回顾
LinearAlgebra_1
方程组的几何解释 linear equation row picture column picture 矩阵计算的两种方法 some questions 需要思考的其他问题 矩阵消元 回顾 主题 消元
用户1147754
2018/01/02
1.1K0
万字长文带你复习线性代数!
课程主页:http://speech.ee.ntu.edu.tw/~tlkagk/courses_LA16.html
石晓文
2018/12/25
1.7K0
万字长文带你复习线性代数!
从几何角度理解矩阵
矩阵变换是线性代数中的主要内容,如何理解它?本文以几何角度,理解线性变换中的矩阵,能帮助学习者对其建立直观音箱。
老齐
2021/10/21
1.3K0
矩阵可逆-我们能不能回到当初第一次见面的模样
标题的意思就是,能不能回到我送你进矩阵之前的模样,要是还能回去那就是可逆,可逆其实讲的是“原料”。有没有那么一个矩阵,可以把变换过的原料再变回去。
云深无际
2024/10/12
2230
矩阵可逆-我们能不能回到当初第一次见面的模样
博客 | MIT—线性代数(下)
1、 投影矩阵与最小二乘:向量子空间投影在机器学习中的应用最为广泛。就拿最小二乘的线性拟合来说,首先根据抽样特征维度假设线性方程形式,即假设函数。
AI研习社
2018/12/28
1.5K0
博客 | MIT—线性代数(下)
3D图形学线代基础
如标题所言都是些很基础但是异常重要的数学知识,如果不能彻底掌握它们,在 3D 的世界中你将寸步难行。
NewbieYoung
2020/10/26
2.1K0
3D图形学线代基础
行列式的几何意义
行列式的定义: 行列式是由一些数据排列成的方阵经过规定的计算方法而得到的一个数。当然,如果行列式中含有未知数,那么行列式就是一个多项式。它本质上代表一个数值,这点请与矩阵区别开来。矩阵只是一个数表,
前朝楚水
2018/04/03
4.5K0
行列式的几何意义
推荐阅读
相关推荐
万字长文|线性代数的本质课程笔记完整合集!
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档