Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【现代深度学习技术】注意力机制06:自注意力和位置编码

【现代深度学习技术】注意力机制06:自注意力和位置编码

作者头像
Francek Chen
发布于 2025-05-13 00:12:27
发布于 2025-05-13 00:12:27
6200
代码可运行
举报
运行总次数:0
代码可运行

深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现。 【GitCode】专栏资源保存在我的GitCode仓库:https://gitcode.com/Morse_Chen/PyTorch_deep_learning

  在深度学习中,经常使用卷积神经网络(CNN)或循环神经网络(RNN)对序列进行编码。想象一下,有了注意力机制之后,我们将词元序列输入注意力池化中,以便同一组词元同时充当查询、键和值。具体来说,每个查询都会关注所有的键-值对并生成一个注意力输出。由于查询、键和值来自同一组输入,因此被称为自注意力(self-attention),也被称为内部注意力(intra-attention)。本节将使用自注意力进行序列编码,以及如何使用序列的顺序作为补充信息。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import math
import torch
from torch import nn
from d2l import torch as d2l

一、自注意力

  给定一个由词元组成的输入序列

\mathbf{x}_1, \ldots, \mathbf{x}_n

,其中任意

\mathbf{x}_i \in \mathbb{R}^d

1 \leq i \leq n

)。该序列的自注意力输出为一个长度相同的序列

\mathbf{y}_1, \ldots, \mathbf{y}_n

,其中:

\mathbf{y}_i = f(\mathbf{x}_i, (\mathbf{x}_1, \mathbf{x}_1), \ldots, (\mathbf{x}_n, \mathbf{x}_n)) \in \mathbb{R}^d \tag{1}

根据

f(x) = \sum\limits_{i=1}^n \alpha(x, x_i) y_i

中定义的注意力汇聚函数

f

。下面的代码片段是基于多头注意力对一个张量完成自注意力的计算,张量的形状为(批量大小,时间步的数目或词元序列的长度,

d

)。输出与输入的张量形状相同。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
num_hiddens, num_heads = 100, 5
attention = d2l.MultiHeadAttention(num_hiddens, num_hiddens, num_hiddens, num_hiddens, num_heads, 0.5)
attention.eval()
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
batch_size, num_queries, valid_lens = 2, 4, torch.tensor([3, 2])
X = torch.ones((batch_size, num_queries, num_hiddens))
attention(X, X, X, valid_lens).shape
在这里插入图片描述
在这里插入图片描述

二、比较卷积神经网络、循环神经网络和自注意力

  接下来比较下面几个架构,目标都是将由

n

个词元组成的序列映射到另一个长度相等的序列,其中的每个输入词元或输出词元都由

d

维向量表示。具体来说,将比较的是卷积神经网络、循环神经网络和自注意力这几个架构的计算复杂性、顺序操作和最大路径长度。请注意,顺序操作会妨碍并行计算,而任意的序列位置组合之间的路径越短,则能更轻松地学习序列中的远距离依赖关系。

图1 比较卷积神经网络(填充词元被忽略)、循环神经网络和自注意力三种架构

  考虑一个卷积核大小为

k

的卷积层。在后面的章节将提供关于使用卷积神经网络处理序列的更多详细信息。目前只需要知道的是,由于序列长度是

n

,输入和输出的通道数量都是

d

,所以卷积层的计算复杂度为

\mathcal{O}(knd^2)

。如图1所示,卷积神经网络是分层的,因此为有

\mathcal{O}(1)

个顺序操作,最大路径长度为

\mathcal{O}(n/k)

。例如,

\mathbf{x}_1

\mathbf{x}_5

处于图1中卷积核大小为3的双层卷积神经网络的感受野内。

  当更新循环神经网络的隐状态时,

d \times d

权重矩阵和

d

维隐状态的乘法计算复杂度为

\mathcal{O}(d^2)

。由于序列长度为

n

,因此循环神经网络层的计算复杂度为

\mathcal{O}(nd^2)

。根据图1,有

\mathcal{O}(n)

个顺序操作无法并行化,最大路径长度也是

\mathcal{O}(n)

  在自注意力中,查询、键和值都是

n \times d

矩阵。考虑

\mathrm{softmax}\left(\frac{\mathbf Q \mathbf K^\top }{\sqrt{d}}\right) \mathbf V \in \mathbb{R}^{n\times v}

中缩放的“点-积”注意力,其中

n \times d

矩阵乘以

d \times n

矩阵。之后输出的

n \times n

矩阵乘以

n \times d

矩阵。因此,自注意力具有

\mathcal{O}(n^2d)

计算复杂性。正如在图1中所讲,每个词元都通过自注意力直接连接到任何其他词元。因此,有

\mathcal{O}(1)

个顺序操作可以并行计算,最大路径长度也是

\mathcal{O}(1)

  总而言之,卷积神经网络和自注意力都拥有并行计算的优势,而且自注意力的最大路径长度最短。但是因为其计算复杂度是关于序列长度的二次方,所以在很长的序列中计算会非常慢。

三、位置编码

  在处理词元序列时,循环神经网络是逐个的重复地处理词元的,而自注意力则因为并行计算而放弃了顺序操作。为了使用序列的顺序信息,通过在输入表示中添加位置编码(positional encoding)来注入绝对的或相对的位置信息。位置编码可以通过学习得到也可以直接固定得到。接下来描述的是基于正弦函数和余弦函数的固定位置编码。

  假设输入表示

\mathbf{X} \in \mathbb{R}^{n \times d}

包含一个序列中

n

个词元的

d

维嵌入表示。位置编码使用相同形状的位置嵌入矩阵

\mathbf{P} \in \mathbb{R}^{n \times d}

输出

\mathbf{X} + \mathbf{P}

,矩阵第

i

行、第

2j

列和

2j+1

列上的元素为:

\begin{aligned} p_{i, 2j} &= \sin\left(\frac{i}{10000^{2j/d}}\right) \\p_{i, 2j+1} &= \cos\left(\frac{i}{10000^{2j/d}}\right) \end{aligned} \tag{2}

  乍一看,这种基于三角函数的设计看起来很奇怪。在解释这个设计之前,让我们先在下面的PositionalEncoding类中实现它。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#@save
class PositionalEncoding(nn.Module):
    """位置编码"""
    def __init__(self, num_hiddens, dropout, max_len=1000):
        super(PositionalEncoding, self).__init__()
        self.dropout = nn.Dropout(dropout)
        # 创建一个足够长的P
        self.P = torch.zeros((1, max_len, num_hiddens))
        X = torch.arange(max_len, dtype=torch.float32).reshape(-1, 1) / torch.pow(10000, torch.arange(
            0, num_hiddens, 2, dtype=torch.float32) / num_hiddens)
        self.P[:, :, 0::2] = torch.sin(X)
        self.P[:, :, 1::2] = torch.cos(X)

    def forward(self, X):
        X = X + self.P[:, :X.shape[1], :].to(X.device)
        return self.dropout(X)

  在位置嵌入矩阵

\mathbf{P}

中,行代表词元在序列中的位置,列代表位置编码的不同维度。从下面的例子中可以看到位置嵌入矩阵的第

6

列和第

7

列的频率高于第

8

列和第

9

列。第

6

列和第

7

列之间的偏移量(第

8

列和第

9

列相同)是由于正弦函数和余弦函数的交替。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
encoding_dim, num_steps = 32, 60
pos_encoding = PositionalEncoding(encoding_dim, 0)
pos_encoding.eval()
X = pos_encoding(torch.zeros((1, num_steps, encoding_dim)))
P = pos_encoding.P[:, :X.shape[1], :]
d2l.plot(torch.arange(num_steps), P[0, :, 6:10].T, xlabel='Row (position)',
         figsize=(6, 2.5), legend=["Col %d" % d for d in torch.arange(6, 10)])
(一)绝对位置信息

  为了明白沿着编码维度单调降低的频率与绝对位置信息的关系,让我们打印出

0, 1, \ldots, 7

的二进制表示形式。正如所看到的,每个数字、每两个数字和每四个数字上的比特值在第一个最低位、第二个最低位和第三个最低位上分别交替。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
for i in range(8):
    print(f'{i}的二进制是:{i:>03b}')

  在二进制表示中,较高比特位的交替频率低于较低比特位,与下面的热图所示相似,只是位置编码通过使用三角函数在编码维度上降低频率。由于输出是浮点数,因此此类连续表示比二进制表示法更节省空间。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
P = P[0, :, :].unsqueeze(0).unsqueeze(0)
d2l.show_heatmaps(P, xlabel='Column (encoding dimension)', ylabel='Row (position)', figsize=(3.5, 4), cmap='Blues')
(二)相对位置信息

  除了捕获绝对位置信息之外,上述的位置编码还允许模型学习得到输入序列中相对位置信息。这是因为对于任何确定的位置偏移

\delta

,位置

i + \delta

处的位置编码可以线性投影位置

i

处的位置编码来表示。

  这种投影的数学解释是,令

\omega_j = 1/10000^{2j/d}

,对于任何确定的位置偏移

\delta

,式(2)中的任何一对

(p_{i, 2j}, p_{i, 2j+1})

都可以线性投影到

(p_{i+\delta, 2j}, p_{i+\delta, 2j+1})

\begin{aligned} &\begin{bmatrix} \cos(\delta \omega_j) & \sin(\delta \omega_j) \\ -\sin(\delta \omega_j) & \cos(\delta \omega_j) \\ \end{bmatrix} \begin{bmatrix} p_{i, 2j} \\ p_{i, 2j+1} \\ \end{bmatrix}\\ =&\begin{bmatrix} \cos(\delta \omega_j) \sin(i \omega_j) + \sin(\delta \omega_j) \cos(i \omega_j) \\ -\sin(\delta \omega_j) \sin(i \omega_j) + \cos(\delta \omega_j) \cos(i \omega_j) \\ \end{bmatrix}\\ =&\begin{bmatrix} \sin\left((i+\delta) \omega_j\right) \\ \cos\left((i+\delta) \omega_j\right) \\ \end{bmatrix}\\ =& \begin{bmatrix} p_{i+\delta, 2j} \\ p_{i+\delta, 2j+1} \\ \end{bmatrix} \end{aligned} \tag{3}
2\times 2

投影矩阵不依赖于任何位置的索引

i

小结

  • 在自注意力中,查询、键和值都来自同一组输入。
  • 卷积神经网络和自注意力都拥有并行计算的优势,而且自注意力的最大路径长度最短。但是因为其计算复杂度是关于序列长度的二次方,所以在很长的序列中计算会非常慢。
  • 为了使用序列的顺序信息,可以通过在输入表示中添加位置编码,来注入绝对的或相对的位置信息。
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-05-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【现代深度学习技术】注意力机制07:Transformer
深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现。 【GitCode】专栏资源保存在我的GitCode仓库:https://gitcode.com/Morse_Chen/PyTorch_deep_learning。
Francek Chen
2025/05/21
2060
【现代深度学习技术】注意力机制07:Transformer
【深度学习实验】循环神经网络(四):基于 LSTM 的语言模型训练
【深度学习实验】循环神经网络(一):循环神经网络(RNN)模型的实现与梯度裁剪_QomolangmaH的博客-CSDN博客
Qomolangma
2024/07/30
4300
【深度学习实验】循环神经网络(四):基于 LSTM 的语言模型训练
【现代深度学习技术】注意力机制05:多头注意力
深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现。 【GitCode】专栏资源保存在我的GitCode仓库:https://gitcode.com/Morse_Chen/PyTorch_deep_learning。
Francek Chen
2025/05/13
330
【现代深度学习技术】注意力机制05:多头注意力
【现代深度学习技术】现代循环神经网络04:双向循环神经网络
深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现。 【GitCode】专栏资源保存在我的GitCode仓库:https://gitcode.com/Morse_Chen/PyTorch_deep_learning。
Francek Chen
2025/05/04
1170
【现代深度学习技术】现代循环神经网络04:双向循环神经网络
【现代深度学习技术】注意力机制03:注意力评分函数
深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现。 【GitCode】专栏资源保存在我的GitCode仓库:https://gitcode.com/Morse_Chen/PyTorch_deep_learning。
Francek Chen
2025/05/10
360
【现代深度学习技术】注意力机制03:注意力评分函数
注意力机制及其理解
注意力机制就是对输入权重分配的关注,最开始使用到注意力机制是在编码器-解码器(encoder-decoder)中, 注意力机制通过对编码器所有时间步的隐藏状态做加权平均来得到下一层的输入变量:
机械视角
2019/10/23
2K0
注意力机制及其理解
【现代深度学习技术】循环神经网络04:循环神经网络
是隐状态(hidden state),也称为隐藏变量(hidden variable),它存储了到时间步
Francek Chen
2025/04/20
1900
【现代深度学习技术】循环神经网络04:循环神经网络
【现代深度学习技术】现代循环神经网络07:序列到序列学习(seq2seq)
  正如我们在机器翻译与数据集中看到的,机器翻译中的输入序列和输出序列都是长度可变的。为了解决这类问题,我们在编码器-解码器架构中设计了一个通用的”编码器-解码器“架构。本节,我们将使用两个循环神经网络的编码器和解码器,并将其应用于序列到序列(sequence to sequence,seq2seq)类的学习任务。
Francek Chen
2025/05/06
2020
【现代深度学习技术】现代循环神经网络07:序列到序列学习(seq2seq)
【现代深度学习技术】现代循环神经网络02:长短期记忆网络(LSTM)
深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现。 【GitCode】专栏资源保存在我的GitCode仓库:https://gitcode.com/Morse_Chen/PyTorch_deep_learning。
Francek Chen
2025/05/02
2860
【现代深度学习技术】现代循环神经网络02:长短期记忆网络(LSTM)
【现代深度学习技术】现代循环神经网络03:深度循环神经网络
深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现。
Francek Chen
2025/05/03
1320
【现代深度学习技术】现代循环神经网络03:深度循环神经网络
【现代深度学习技术】现代循环神经网络01:门控循环单元(GRU)
  在通过时间反向传播中,我们讨论了如何在循环神经网络中计算梯度,以及矩阵连续乘积可以导致梯度消失或梯度爆炸的问题。下面我们简单思考一下这种梯度异常在实践中的意义:
Francek Chen
2025/05/02
1700
【现代深度学习技术】现代循环神经网络01:门控循环单元(GRU)
【现代深度学习技术】注意力机制02:注意力汇聚:Nadaraya-Watson核回归
深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现。 【GitCode】专栏资源保存在我的GitCode仓库:https://gitcode.com/Morse_Chen/PyTorch_deep_learning。
Francek Chen
2025/05/08
1720
【现代深度学习技术】注意力机制02:注意力汇聚:Nadaraya-Watson核回归
【现代深度学习技术】循环神经网络05:循环神经网络的从零开始实现
  本节将根据循环神经网络中的描述, 从头开始基于循环神经网络实现字符级语言模型。 这样的模型将在H.G.Wells的时光机器数据集上训练。 和前面语言模型和数据集中介绍过的一样, 我们先读取数据集。
Francek Chen
2025/04/22
1150
【现代深度学习技术】循环神经网络05:循环神经网络的从零开始实现
【深度学习实验】注意力机制(一):注意力权重矩阵可视化(矩阵热图heatmap)
注意力机制作为一种模拟人脑信息处理的关键工具,在深度学习领域中得到了广泛应用。本系列实验旨在通过理论分析和代码演示,深入了解注意力机制的原理、类型及其在模型中的实际应用。
Qomolangma
2024/07/30
2K0
【深度学习实验】注意力机制(一):注意力权重矩阵可视化(矩阵热图heatmap)
小目标检测新方法SCTransNet | 空间通道交叉Transformer & 互补前馈达成完美语义信息传递
SCTransNet有效地编码了目标与背景之间的语义差异,从而提升了其内部表征,以准确检测小红外目标。 在三个公开数据集NUDT-SIRST、NUAA-SIRST和IRSTD-1k上的大量实验表明,所提出的SCTransNet优于现有的IRSTD方法。 代码:https://github.com/xdFai
集智书童公众号
2024/02/21
2.1K0
小目标检测新方法SCTransNet | 空间通道交叉Transformer & 互补前馈达成完美语义信息传递
LaViT:这也行,微软提出直接用上一层的注意力权重生成当前层的注意力权重 | CVPR 2024
论文: You Only Need Less Attention at Each Stage in Vision Transformers
VincentLee
2024/09/02
1350
LaViT:这也行,微软提出直接用上一层的注意力权重生成当前层的注意力权重 | CVPR 2024
位置编码
在transformer中使用了位置编码,为什么需要位置编码。因为对于transformer中的注意力机制而言,交换两个单词,并不会影响注意力的计算,也就是说这里的注意力是对单词位置不敏感的,而单词之间的位置信息往往是很重要的,因此考虑使用位置编码。
西西嘛呦
2022/05/10
2.6K0
CAP:多重注意力机制,有趣的细粒度分类方案 | AAAI 2021
论文: Context-aware Attentional Pooling (CAP) for Fine-grained Visual Classification
VincentLee
2022/06/24
1K0
CAP:多重注意力机制,有趣的细粒度分类方案 | AAAI 2021
【现代深度学习技术】现代卷积神经网络06:残差网络(ResNet)
深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现。 【GitCode】专栏资源保存在我的GitCode仓库:https://gitcode.com/Morse_Chen/PyTorch_deep_learning。
Francek Chen
2025/04/01
2560
【现代深度学习技术】现代卷积神经网络06:残差网络(ResNet)
【深度学习实验】注意力机制(三):打分函数——加性注意力模型
注意力机制作为一种模拟人脑信息处理的关键工具,在深度学习领域中得到了广泛应用。本系列实验旨在通过理论分析和代码演示,深入了解注意力机制的原理、类型及其在模型中的实际应用。
Qomolangma
2024/07/30
4810
【深度学习实验】注意力机制(三):打分函数——加性注意力模型
推荐阅读
【现代深度学习技术】注意力机制07:Transformer
2060
【深度学习实验】循环神经网络(四):基于 LSTM 的语言模型训练
4300
【现代深度学习技术】注意力机制05:多头注意力
330
【现代深度学习技术】现代循环神经网络04:双向循环神经网络
1170
【现代深度学习技术】注意力机制03:注意力评分函数
360
注意力机制及其理解
2K0
【现代深度学习技术】循环神经网络04:循环神经网络
1900
【现代深度学习技术】现代循环神经网络07:序列到序列学习(seq2seq)
2020
【现代深度学习技术】现代循环神经网络02:长短期记忆网络(LSTM)
2860
【现代深度学习技术】现代循环神经网络03:深度循环神经网络
1320
【现代深度学习技术】现代循环神经网络01:门控循环单元(GRU)
1700
【现代深度学习技术】注意力机制02:注意力汇聚:Nadaraya-Watson核回归
1720
【现代深度学习技术】循环神经网络05:循环神经网络的从零开始实现
1150
【深度学习实验】注意力机制(一):注意力权重矩阵可视化(矩阵热图heatmap)
2K0
小目标检测新方法SCTransNet | 空间通道交叉Transformer & 互补前馈达成完美语义信息传递
2.1K0
LaViT:这也行,微软提出直接用上一层的注意力权重生成当前层的注意力权重 | CVPR 2024
1350
位置编码
2.6K0
CAP:多重注意力机制,有趣的细粒度分类方案 | AAAI 2021
1K0
【现代深度学习技术】现代卷积神经网络06:残差网络(ResNet)
2560
【深度学习实验】注意力机制(三):打分函数——加性注意力模型
4810
相关推荐
【现代深度学习技术】注意力机制07:Transformer
更多 >
LV.1
这个人很懒,什么都没有留下~
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验