1、tf.nn.sigmoid_cross_entropy_with_logits(_sentinel=None, labels=None, logits=None, name=None) _sentinel...:本质上是不用的参数,不用填 labels:一个和logits具有相同的数据类型(type)和尺寸形状(shape)的张量(tensor) shape:[batch_size,num_classes],...(_sentinel=None, labels=None, logits=None, dim=-1, name=None) _sentinel:本质上是不用的参数,不用填 labels:每一行labels...[i]必须是一个有效的概率分布,one_hot=True(向量中只有一个值为1,其他值为0) logits:labels和logits具有相同的数据类型(type)和尺寸(shape) shape:[batch_size...=None) 计算具有权重的sigmoid交叉熵sigmoid_cross_entropy_with_logits() _sentinel:本质上是不用的参数,不用填 labels:一个和logits具有相同的数据类型
如果权值是一个大小张量[batch_size],则通过权值向量中对应的元素重新计算批次中每个样本的总损失。如果权重的形状与预测的形状相匹配,那么预测的每个可度量元素的损失将按相应的权重值进行缩放。...参数:labels:地面真相输出张量,与“预测”维度相同。predictions:预测输出。...weights:可选张量,其秩要么为0,要么与标签的秩相同,并且必须对标签(即,所有尺寸必须为1,或与对应的损耗尺寸相同)。delta:浮点数,huber损失函数从二次函数变为线性函数的点。...如果还原为零,则其形状与标签相同;否则,它就是标量。...可能产生的异常:ValueError: If the shape of predictions doesn't match that of labels or if the shape of weights
tf.nn.sparse_softmax_cross_entropy_with_logits( _sentinel=None, labels=None, logits=None,...logits必须具有float16、float32或float64的dtype,标签必须具有int32或int64的dtype。注意,为了避免混淆,只需要将命名参数传递给这个函数。...labels:形状张量[d_0, d_1,…], d_{r-1}](其中r为标签和结果的秩)和dtype int32或int64。标签中的每个条目必须是[0,num_classes]中的索引。...这些活化能被解释为非标准化的对数概率。name:操作的名称(可选)。返回值:一个与标签形状相同,与logits类型相同的张量,具有softmax交叉熵。...可能产生的异常:ValueError: If logits are scalars (need to have rank >= 1) or if the rank of the labels is not
参数:作用域:筛选要返回的变量的可选作用域。后缀:用于过滤要返回的变量的可选后缀。返回值:集合中具有范围和后缀的变量列表。...对于二维logits,这可以归结为tf.n .softmax。第n个维度需要具有指定数量的元素(类的数量)。参数:logits: N维张量,其中N > 1。...scope:variable_scope的可选作用域。返回值:一个形状和类型与logits相同的“张量”。...scope:name_scope的可选作用域返回值:一个具有形状[batch_size, k]的平坦张量。...注意,目前这两个步骤必须具有相同的值padding:填充方法,要么“有效”,要么“相同”data_format:一个字符串。
返回的 logits 不一定与作为输入传递的pixel_values具有相同的大小。这是为了避免进行两次插值并在用户需要将 logits 调整为原始图像大小时丢失一些质量。...返回的 logits 不一定与作为输入传递的pixel_values具有相同的大小。这是为了避免进行两次插值并在用户需要将 logits 调整为原始图像大小时丢失一些质量。...logits(形状为(batch_size, config.num_labels)的tf.Tensor)— 分类(如果config.num_labels==1则为回归)得分(SoftMax 之前)。...返回的 logits 不一定与作为输入传递的pixel_values具有相同的大小。这是为了避免进行两次插值并在用户需要将 logits 调整为原始图像大小时丢失一些质量。...返回的 logits 不一定与作为输入传递的`pixel_values`具有相同的大小。
logits(形状为(batch_size, config.num_labels)的torch.FloatTensor)—分类(如果 config.num_labels==1 则为回归)得分(SoftMax...DeBERTa 模型在顶部具有用于提取式问答任务(如 SQuAD)的跨度分类头(在隐藏状态输出的线性层上计算跨度起始 logits和跨度结束 logits)。...参数 input_ids(np.ndarray,tf.Tensor,List[tf.Tensor],``Dict[str, tf.Tensor]或Dict[str, np.ndarray],每个示例必须具有形状...logits(形状为(batch_size, config.num_labels)的tf.Tensor)— 分类(如果config.num_labels==1则为回归)得分(SoftMax 之前)。...参数 input_ids(np.ndarray、tf.Tensor、List[tf.Tensor]、Dict[str, tf.Tensor] 或 Dict[str, np.ndarray],每个示例必须具有形状
loss (torch.FloatTensor,形状为(1,),可选,当提供labels时返回)) — 总损失,作为类别预测的负对数似然(交叉熵)和边界框损失的线性组合。...必须向模型提供输入(可以是文本、图像、音频等),模型将使用这些输入与潜在变量进行交叉注意力。Perceiver 编码器的输出是相同形状的张量。...感知器编码器的多模态预处理。 对每个模态进行预处理,然后使用可训练的位置嵌入进行填充,以具有相同数量的通道。...logits(形状为(batch_size, num_labels)的torch.FloatTensor)- 分类(如果 config.num_labels==1 则为回归)得分(SoftMax 之前)...logits(形状为(batch_size, config.num_labels)的torch.FloatTensor) — 分类(如果config.num_labels==1则为回归)分数(SoftMax
为了确保内核成功编译,用户必须安装正确版本的 PyTorch 和 cudatoolkit。...logits(形状为(batch_size, config.num_labels)的torch.FloatTensor) — 分类(如果 config.num_labels==1 则为回归)得分(SoftMax...YOSO 模型在顶部具有用于提取问答任务(如 SQuAD)的跨度分类头(在隐藏状态输出顶部的线性层上计算span start logits和span end logits)。...由于 BEiT 模型期望每个图像具有相同的大小(分辨率),可以使用 BeitImageProcessor 来调整(或重新缩放)和规范化图像以供模型使用。...返回的 logits 不一定与作为输入传递的pixel_values具有相同的大小。这是为了避免进行两次插值并在用户需要将 logits 调整为原始图像大小时丢失一些质量。
logits(形状为(batch_size, config.num_labels)的torch.FloatTensor)- 分类(如果 config.num_labels==1 则为回归)得分(SoftMax...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 总跨度提取损失是起始和结束位置的交叉熵之和。...logits (形状为(batch_size, config.num_labels)的 tf.Tensor) — 分类(如果 config.num_labels==1 则为回归)分数(SoftMax 之前...XLNet 模型在顶部具有一个用于提取式问答任务(如 SQuAD)的跨度分类头(在隐藏状态输出的顶部有线性层,用于计算 span start logits 和 span end logits)。...XLNet 模型在顶部具有用于提取式问答任务(如 SQuAD)的跨度分类头(在隐藏状态输出的线性层上计算span start logits和span end logits)。
logits (torch.FloatTensor,形状为 (batch_size, config.num_labels)) — 分类(如果 config.num_labels==1 则为回归)分数(SoftMax...logits(形状为(batch_size, config.num_labels)的tf.Tensor) — 分类(如果 config.num_labels==1 则为回归)得分(SoftMax 之前)...提高了+2.3%(88.4% vs. 90.7%),RACE 提高了+3.6%(83.2% vs. 86.8%)。...DeBERTa 模型在顶部具有用于提取式问答任务(如 SQuAD)的跨度分类头(在隐藏状态输出的线性层上计算span start logits和span end logits)。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 总跨度提取损失是起始位置和结束位置的交叉熵之和。
RealmTokenizerFast 与 BertTokenizerFast 相同,并且运行端到端的标记化:标点符号拆分和 wordpiece。...和边际对数损失,则必须指定证据块的掩码。...RemBERT 模型在顶部具有一个用于提取问答任务的跨度分类头(在隐藏状态输出的线性层上计算span start logits和span end logits)。...loss(形状为 (1,) 的 torch.FloatTensor,可选,在提供 labels 时返回)— 总跨度提取损失是起始和结束位置的交叉熵之和。...logits(形状为(batch_size, config.num_labels)的tf.Tensor)— 分类(如果 config.num_labels==1 则为回归)得分(SoftMax 之前)。
logits(形状为(batch_size, config.num_labels)的torch.FloatTensor)— 分类(如果config.num_labels==1则为回归)得分(SoftMax...residx_atom14_to_atom37 (torch.FloatTensor) — 在 atom14 和 atom37 表示之间的原子映射。...residx_atom37_to_atom14 (torch.FloatTensor) — 在 atom37 和 atom14 表示之间的原子映射。...logits (tf.Tensor的形状为(batch_size, config.num_labels)) — 分类(如果 config.num_labels==1 则为回归)分数(SoftMax 之前...rope_scaling (Dict, optional) — 包含 RoPE 嵌入的缩放配置的字典。目前支持两种缩放策略:线性和动态。它们的缩放因子必须是大于 1 的浮点数。
我们的输出张力conv2d()具有与输入相同的宽度和高度尺寸的形状 ,但现在有32个通道保持每个滤镜的输出。...我们的max_pooling2d()(pool1)产生的输出张量具有以下形状 :2x2过滤器将宽度和高度降低了50%。...[batch_size, 14, 14, 1] 卷积层#2和Pooling Layer#2 我们可以使用conv2d()和max_pooling2d()之前一样将第二个卷积和汇集层连接到我们的CNN...conv2 具有与(由于)相同的宽度和高度的形状,并且应用64个滤波器的64个通道。...[batch_size, 14, 14, 64] pool1 padding="same" 汇集层#2 conv2作为输出,产生pool2输出。pool2 具有形状(宽度和高度减少50%)。
logits(形状为(batch_size, config.num_labels)的torch.FloatTensor)— 分类(或回归,如果config.num_labels==1)得分(SoftMax...返回的 logits 不一定与传入的pixel_values具有相同的大小。这是为了避免进行两次插值并在用户需要将 logits 调整为原始图像大小时丢失一些质量。...logits(形状为(batch_size, config.num_labels)的tf.Tensor)— 分类(如果config.num_labels==1则为回归)得分(SoftMax 之前)。...即使他们的小型变体在 iPhone 14 上仅具有 0.8 毫秒的延迟,也实现了 78.5%的 ImageNet1K 准确率,比 MobileViT-v2 更准确且快 2 倍。...我们的小型变体在 iPhone 14 上仅具有 0.8 毫秒的延迟,ImageNet-1K 准确率达到 78.5%,比 MobileViT-v2 更准确且快 2 倍。 该模型由shehan97贡献。
函数返回值 tf.segment_sum函数返回的是一个Tensor,它与data有相同的类型, 与data具有相同的形状, 但大小为 k(段的数目)的维度0除外。...函数返回值 tf.segment_sum函数返回的是一个Tensor,它与data有相同的类型, 与data具有相同的形状, 但大小为 k(段的数目)的维度0除外。...[i, j] = logits[i, j] - log(sum(exp(logits[i]))) tf.nn.softmax_cross_entropy_with_logits(logits, labels..., name=None) 计算logits和labels的softmax交叉熵logits, labels必须为相同的shape与数据类型 tf.nn.sparse_softmax_cross_entropy_with_logits...(logits, labels, name=None) 计算logits和labels的softmax交叉熵 tf.nn.weighted_cross_entropy_with_logits(logits
否则,您必须指定与 titles 或 texts 中的问题数量相同的问题。 titles (str 或 List[str]) — 要编码的段落标题。...否则,您必须指定与 titles 或 texts 中相同数量的问题。 titles (str 或 List[str]) — 要编码的段落标题。如果有多个段落,则可以是字符串或字符串列表。...它必须是一个序列三元组,包括 1)问题、2)段落标题和 3)段落文本。...它必须是一个序列三元组,包括 1)问题、2)段落标题和 3)段落文本。...logits (tf.Tensor 的形状为 (batch_size, config.num_labels)) — 分类(如果 config.num_labels==1 则为回归)得分(SoftMax
loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 分类(或如果config.num_labels==1则为回归)损失。...logits(形状为(batch_size, config.num_labels)的torch.FloatTensor)- 分类(或如果config.num_labels==1则为回归)得分(SoftMax...Flaubert 模型在顶部具有一个用于提取式问答任务(如 SQuAD)的跨度分类头(在隐藏状态输出的顶部有一个线性层,用于计算 span start logits 和 span end logits)...loss (torch.FloatTensor,形状为(1,),可选,当提供labels时返回) — 总跨度提取损失是起始位置和结束位置的交叉熵之和。...logits (tf.Tensor,形状为(batch_size, config.num_labels)) — 分类(如果config.num_labels==1则为回归)得分(SoftMax 之前)。
我们进一步提出了 Mega 的一个变体,提供线性时间和空间复杂度,但仅产生最小的质量损失,通过将整个序列有效地分割成多个具有固定长度的块。...损失(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回) - 分类(如果 config.num_labels==1 则为回归)损失。...logits(形状为(batch_size, config.num_labels)的torch.FloatTensor) - 分类(如果 config.num_labels==1 则为回归)得分(SoftMax...MEGA 模型在顶部具有一个跨度分类头,用于类似 SQuAD 的抽取式问答任务(在隐藏状态输出的顶部有线性层,用于计算 span start logits 和 span end logits)。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 语言建模损失(用于下一个标记预测)。
logits(形状为(batch_size, config.num_labels)的torch.FloatTensor)- 分类(如果 config.num_labels==1 则为回归)得分(SoftMax...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 总跨度提取损失是起始和结束位置的交叉熵之和。...RoFormerTokenizerFast 几乎与 BertTokenizerFast 相同,并且可以进行端到端的分词:标点符号拆分和词片。在分词中文时它们之间存在一些差异。...logits (torch.FloatTensor,形状为 (batch_size, config.num_labels)) — 分类(或回归,如果 config.num_labels==1)分数(SoftMax...loss(torch.FloatTensor,形状为(1,),可选,当提供labels时返回)— 总跨度提取损失是开始和结束位置的交叉熵之和。
logits (torch.FloatTensor,形状为(batch_size, config.num_labels)) — 分类(或回归,如果 config.num_labels==1)得分(SoftMax...MPNet 模型,在顶部具有用于提取式问答任务(如 SQuAD)的跨度分类头(在隐藏状态输出顶部的线性层,用于计算跨度起始 logits和跨度结束 logits)。...loss (torch.FloatTensor,形状为 (1,),可选,当提供 labels 时返回) — 总跨度提取损失是起始和结束位置的交叉熵之和。...MPNet 模型在顶部具有跨度分类头,用于提取式问答任务,如 SQuAD(在隐藏状态输出的顶部进行线性层计算span start logits和span end logits)。...logits (torch.FloatTensor,形状为(batch_size, config.num_labels)) — 分类(如果config.num_labels==1则为回归)得分(SoftMax
领取专属 10元无门槛券
手把手带您无忧上云