腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
张量
形状
参
数来
做
一些
有用
的
事情
?
、
我尝试
使用
传入
张量
的
形状
来形成输出,有点像这样: sz = tf.shape(x)[1]我该
如何
解决这个问题呢?
浏览 5
提问于2021-05-12
得票数 0
回答已采纳
1
回答
毕氏
张量
标引
、
、
我目前正致力于将
一些
代码从tensorflow转换为py手电筒,我遇到了 func
的
问题,没有直接
的
函
数来
转换它。我想做
的
基本上是索引,我有两个
张量
,特征
张量
形状
的
[minibatch, 60, 2]和索引
张量
[minibatch, 8],比如第一个
张量
是
张量
A,第二个
张量
是B。在Tensorflow中,它直接用tf.gather(A, B, batch_dims
浏览 1
提问于2019-07-17
得票数 3
回答已采纳
1
回答
使用
PyTorch在指定维上应用神经网络
的
一个问题
我想知道
如何
做
以下
事情
:假设我们想要维64
的
一些
输出特性,那么我想要获得一个新
的
形状
(4,5,64)对象
浏览 7
提问于2021-12-15
得票数 0
1
回答
用另一个
张量
标引
张量
我有一个
张量
xi
的
形状
(?, 20, 10)和另一个
张量
y_data
的
形状
(?, 20, 1)。我想
使用
y_data
张量
来“索引”xi
张量
,以便
做
一些
类似tf.exp(xi[y_data] - tf.log(tf.reduce_sum(xi, axis=2))
的
事情
。例如,tf.exp(xi[:, :, 4] - tf.log(tf.reduce_sum(xi,
浏览 3
提问于2017-11-27
得票数 1
回答已采纳
1
回答
不调用run()
的
稀疏
张量
的
形状
稀疏tensor.shape方法返回一个
张量
对象,该对象似乎对提取稀疏
张量
的
实际
形状
没有任何用处,而不是求助于运行函数。:这是没
有用
的
。返回: TensorShape(Dimension(4),Dimension(4)) 我可以
使用
此输出并将其转换为整数
的
列表或元组,而无需调用run()。然而,我不
浏览 3
提问于2016-10-27
得票数 0
1
回答
keras/tensorflow广播用于
张量
乘法
、
、
我有两个
张量
:
张量
a有
形状
(n, 1),
张量
b有
形状
(p, q),其中p和q都很小,但是n很大。我想把它们
的
“外积”
张量
c作为
形状
为(n, p, q)
的
张量
,这样它
的
元素是我应该
如何
使用
tensorflow/keras广播或函
数来
实现这一点而不需要循环呢
浏览 2
提问于2020-02-28
得票数 1
回答已采纳
1
回答
如何
使用
断言
做
一些
有用
的
事情
?
、
、
、
我想用assert
做
一些
比aborting更
有用
的
事情
,包括刷新
一些
打开
的
文件,以及打印堆栈跟踪。 我读过几篇关于断言
的
文章,比如,其中讨论了
如何
实现断言。但是,我想用我自己
的
断言处理程序来替换,甚至在第三方库中也是如此,第三方库是我
的
程序所
使用
的
。我理解大多数(但不是所有)编译器(gcc、MSVC、clang) &库(Qt,boost),我
使用<
浏览 0
提问于2013-02-14
得票数 1
回答已采纳
1
回答
Theano / Keras:将
张量
的
K-first值设置为一个值
、
、
我有一个自定义
的
Keras层,我
使用
Theano作为后端,我想执行以下操作:例如,在一个简单
的
FF层中,
如何
将
张量
a
的
前N个值设置为值x?self, x, mask=None): a
浏览 7
提问于2017-01-29
得票数 1
回答已采纳
1
回答
沿
张量
的
第二维聚集元素
、
假设values和
张量
T都有
形状
(N,K)。现在,如果我们从矩阵
的
角度来考虑它们,我想让T
的
每一行都获得对应于values最大值
的
索引
的
行元素。我可以很容易地找到这些索引:它返回
形状
为(N)
的
张量
。现在,我
如何
从T中收集这些索引,以便获得某种
形状
的
N?我试过了 result = tf.gather(T,max_indi
浏览 0
提问于2017-02-11
得票数 2
回答已采纳
2
回答
在自定义Keras度量中获取y_pred和y_true长度
、
、
、
背景:from keras import backend as K return K.mean(K.equal(y_true, K.round(y_pred)), axis=-1) 这里,y_pred和y_true是表示一定
形状
的
nump
浏览 0
提问于2019-02-10
得票数 0
1
回答
在TF 2.1中展平非常粗糙
的
张量
、
、
我最终迁移到了TF 2.1,并且我正在尝试将我
的
代码移植到原生TF 2.1。所以这里有一个问题:
如何
将不同等级
的
粗糙
张量
重塑为一维
张量
?本质上,我有一组权重矩阵,例如。[3,3,1,32], [32], [21632,20], [20], [20,10], [10] (这些是
形状
,不是值),我想把整个怪物展平成一个一维
张量
。
做
这件事最有效
的
方法是什么?更好
的
是,我
如何
编写一个函
数来
浏览 6
提问于2020-05-07
得票数 0
1
回答
沿更深维更新
张量
中
的
值
、
、
我有MxNxC
形状
的
张量
A,其中M代表例子数,N是特征数,C是3欧拉旋转角。还有一个类似
形状
的
张量
B,而不是角,而是坐标。我们需要
的
是把这两个
张量
转换成一个包含仿射变换矩阵
的
张量
,这样它
的
形状
就像MxNx4x4。我不知道
如何
一起迭代这些
张量
,我寻找和,但是它们只在第一个维度迭代。我要找
的
是
一些
方法,像下面这样<
浏览 0
提问于2018-11-23
得票数 0
回答已采纳
2
回答
Tensorflow -Map-函数
、
、
、
、
我有一个关于tf
的
map函数
的
问题。我在
使用
这个函数时遇到了奇怪
的
行为。如果我按照手册中
的
说明进行操作y = tf.map_fun(lambda x: x*x, label_tensor)然而,如果我想实现我自己
的
函数,它似乎不起作用。它总是将一个
张量
传递给指定
的
函数,而不是用来处理
张量</
浏览 55
提问于2018-09-10
得票数 3
回答已采纳
1
回答
如何
在tensorflow中获得特定值和
形状
的
张量
?
、
、
、
我想把一个特定
形状
的
张量
设为0.9。在tensorflow中有以下命令: tf.ones_like() 所以我把
形状
放在那里,我得到了1
的
向量。我想要做同样
的
事情
,但
使用
其他值,如0.9,所以我想将
形状
放在tf.ones_like中,但我希望
张量
的
值为0.9 我该怎么
做
呢?
浏览 10
提问于2019-05-19
得票数 1
回答已采纳
1
回答
TensorFlow中
张量
运算
的
并行化
、
、
我正在尝试并行不同
的
张量
操作。我知道tf.vectorized_map和/或tf.map_fn可以相对于第一个轴并行输入
张量
,但这不是我想要
的
。我正在寻找一种方法来并行化一组可能具有不同
形状
的
张量
上
的
for循环。(如果可能,我对任何其他库都是开放
的
,例如JAX、numba等。) 谢谢!
浏览 3
提问于2021-07-07
得票数 1
1
回答
在tensorflow中看不到
张量
形状
、
我正在尝试在tensorflow中训练模型,并获得
一些
张量
的
形状
。但是即使我
使用
形状
函数,我也看不到
张量
形状
。我只能看到以下输出。 我应该怎么
做
才能看到
张量
的
形状
?
浏览 27
提问于2021-08-27
得票数 1
1
回答
在tensorflow中用
张量
乘法替换for循环
、
、
、
、
我想在tensorflow中进行以下标准化,但我不确定
如何
做
。 我有一个
张量
a,它
的
形状
是(c,c),在这种情况下,假设是c=16。我有另一个
形状
为b
的
张量
,它
的
形状
是(w,w,c),w= 32,c=16 (因此b
的
维度是高度w,宽度w和深度/通道c)。在这两种情况下,我都忽略了批量维度,但您可以假设a和b具有相同
的
批量维度/样本数量。我想做
一些</em
浏览 32
提问于2021-04-06
得票数 1
回答已采纳
1
回答
如何
在tensorflow中
的
一些
索引之间填充值?
2-D
张量
,如: [0,1,0,0,0,1]][[0,0,1,1,1,0],我该怎么处理tensorflow
浏览 0
提问于2018-03-07
得票数 0
1
回答
torch.topk在tf.nn.top_k中
的
融合
、
、
Pytorch提供torch.topk(input, k, dim=None, largest=True, sorted=True)函
数来
计算给定维数dim上给定input
张量
的
k最大元素。我有一个(64, 128, 512)
形状
的
张量
,我
使用
torch.topk
的
方式如下-我发现类似的tensorflow实现如下我
的
问题是
如何
将dim=1参
浏览 6
提问于2022-01-20
得票数 1
回答已采纳
1
回答
将特定
的
TensorFlow变量还原到特定层(按名称还原)
、
、
假设我训练了一个TensorFlow模型并保存了它,现在有了一个不同
的
模型,我想对模型中
的
一些
层(它们具有相同
的
形状
)
使用
保存模型中
的
一些
权重。现在,我能够找到
如何
从模型(带有特定名称)中保存特定变量,但我无法找到任何示例来按名称还原这些变量。 例如,假设在我保存
的
模型中,我保存了一个名为"v1“
的
权重
张量
(具有某种
形状
)。在我
的
新模型
浏览 5
提问于2016-10-09
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorFlow 小抄(一)
TensorFlow 的简单例子 Linux 中国
Pytorch中张量的高级选择操作
TensorFlow基础入门
2.2tf基础(一)——3种张量(常量、变量与占位符)的基本使用
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券