在支持向量机中,我们有将输入原始数据空间映射到高维特征空间的核函数。
在CNN中,我们也有一个“内核”掩码,它把输入的原始数据空间(图像作为矩阵)传送到另一个空间。
考虑到这两种方法都被称为“内核”,我想知道从数学角度看它们之间的联系是什么。
我猜想这可能与功能分析有关。
发布于 2019-05-21 13:57:16
这两个概念之间没有直接关系。然而,我们可以找到一些间接的。
据韦伯斯特称,
内核是指一个中心部分或基本部分。
这暗示了为什么他们被称为“内核”。具体来说,决定“如何度量点点相似性(即核函数)”是核方法的核心部分,而决定“用一个数据点来卷积哪些数组、矩阵或张量(即核矩阵)”是卷积神经网络的核心部分。
核函数接收两个数据点,隐式地将它们映射到更高的(可能无限)维度,然后计算它们的内积。
一个核矩阵(或数组,或张量)与一个数据点进行卷积,从而显式地将数据点映射到一个通常较低的维度。这里,我们忽略了过滤器和内核之间的细微差异 (每个通道由一个过滤器组成)。
因此,这两个概念是间接关联的映射到一个新的表示。然而,
https://datascience.stackexchange.com/questions/52242
复制相似问题