Matrix as Transformer 。矩阵就是一个转换器。在线性代数中,矩阵描述了线性变换。
如下图所示:如果机器学习模型是一个黑盒,我们认为黑盒就像一个会玩魔方的手,不停的扭曲变化输入的特征矩阵,最后把输入矩阵变换、降维成一个答案。通过不断的试错,它固定下来一套变化流程,这个变化流程用一个矩阵或者一组矩阵描述。当新的样本矩阵输入,乘以这个描述变换的矩阵就得到了答案。这个描述变换的矩阵就是模型学习到的W。
所以,我们要了解线性代数,了解投影、变换、特征值分解、奇异值分解这些内容就是去理解特征空间的各种变化、降维的过程?
而微积分里面的导数、偏导数就是为了找到梯度下降的方向,从而避免穷举所有变化,让变化有一个正确的方向?
求大神指正!
领取专属 10元无门槛券
私享最新 技术干货