首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >支持向量机中的“核”与卷积神经网络中的“核”之间是否存在概念关系?

支持向量机中的“核”与卷积神经网络中的“核”之间是否存在概念关系?
EN

Data Science用户
提问于 2019-05-20 08:04:47
回答 1查看 264关注 0票数 6

在支持向量机中,我们有将输入原始数据空间映射到高维特征空间的核函数。

在CNN中,我们也有一个“内核”掩码,它把输入的原始数据空间(图像作为矩阵)传送到另一个空间。

考虑到这两种方法都被称为“内核”,我想知道从数学角度看它们之间的联系是什么。

我猜想这可能与功能分析有关。

EN

回答 1

Data Science用户

发布于 2019-05-21 13:57:16

这两个概念之间没有直接关系。然而,我们可以找到一些间接的。

韦伯斯特称,

内核是指一个中心部分或基本部分。

这暗示了为什么他们被称为“内核”。具体来说,决定“如何度量点点相似性(即核函数)”是核方法的核心部分,而决定“用一个数据点来卷积哪些数组、矩阵或张量(即核矩阵)”是卷积神经网络的核心部分。

核函数接收两个数据点,隐式地将它们映射到更高的(可能无限)维度,然后计算它们的内积。

一个核矩阵(或数组,或张量)与一个数据点进行卷积,从而显式地将数据点映射到一个通常较低的维度。这里,我们忽略了过滤器和内核之间的细微差异 (每个通道由一个过滤器组成)。

因此,这两个概念是间接关联的映射到一个新的表示。然而,

  • 核函数隐式映射,但核矩阵映射显式,
  • 核函数不能相互叠加(浅表示),但是核矩阵可以是,因为输入和输出(显式表示)具有相同的结构(深度表示),
  • map的非线性被集成到核函数中,但是对于核矩阵,在(输入,核)卷积之后,应该采用非线性激活函数来达到类似的非线性。
  • 隐式表示不能用于内核函数,特定的函数意味着特定的表示。然而,对于核矩阵,可以通过调整(学习)核的权重来学习表示,也可以通过将核叠加在彼此之上来丰富表示。
票数 2
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/52242

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档