腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(54)
视频
沙龙
1
回答
jetson
nano
上
TensorRt
模型
(
pytorch-
>
onnx
>
TensorRT
)
的
准确性
降低
、
、
、
我在
jetson
nano
上
推断
TensorRt
模型
。它通过
onnx
从pytorch转换而来。在推理时,
TensorRt
模型
的
精度已经急剧下降。它是一个目标检测类型
的
模型
。代码链接:https://github.com/NVIDIA/
TensorRT
/issues/467
浏览 124
提问于2020-03-31
得票数 0
回答已采纳
1
回答
将keras序列
模型
转换为张量rt
、
、
、
如何将角点序列
模型
转换为张量-rt?我正在研究人脸识别,我用keras序列
模型
建立了人脸编码
模型
。现在我想在jtson
上
实现这一点。这是
模型
架构: model = Sequential() model.add(Dense
浏览 2
提问于2020-01-24
得票数 1
回答已采纳
2
回答
Torchscript与
TensorRT
的
实时推理
、
、
、
我已经训练了一个对象检测
模型
,用于生产实时应用程序.我有以下两个选择。有人能建议什么是最好
的
方式运行
Jetson
的
最佳性能推断吗?任何其他建议也是受欢迎
的
。将
模型
转换为ONXX格式并与
TensorRT
一起使用 将
模型
保存为Torchscript并在C++中运行推理
浏览 9
提问于2021-02-08
得票数 2
1
回答
jetson
nano
上
的
Onnx
到
tensorrt
arcface
模型
转换错误(分段故障核心转储)
、
、
、
、
我正在将
onnx
版本
的
arcface
模型
转换为
tensorrt
。我正在遵循nvidia
的
官方文档进行这个过程。但是,我得到了一个错误
的
分割错误核心转储。请提供您最好
的
建议。我在
jetson
nano
上
运行它。
浏览 33
提问于2019-11-05
得票数 1
2
回答
使用
tensorRT
运行deeplab v3+
、
、
我正在尝试使用
tensorRT
优化deeplab v3+
模型
,我得到了以下错误:=== Automatically deduced input nodesconvert_tf2uff_nodeKeyError: 'logits/semantic/biases/read' 据我所知,这是由uff转换器不支持
的
某些层造成
的
吗有没有人成功地将deeplab
模
浏览 21
提问于2018-11-15
得票数 2
2
回答
如何将原始
的
yolo权重转换为
TensorRT
模型
?
、
、
我开发了一个改进版本
的
yolov4 4-微型
模型
。我想将这个已开发
的
模型
转换成一个
TensorRT
模型
,但是在参考了附加
的
URL之后,我发现我只能转换原来
的
v4-微型
模型
。我
的
问题是,其他人如何将他们
的
原始
模型
转换为
TensorRT
? 提前谢谢你。
浏览 16
提问于2022-04-06
得票数 0
1
回答
Tensorflow与Tensorflow Lite
的
性能比较
、
、
、
在将TensorFlow
模型
转换为TensorFlow精简版格式时,是否存在性能损失?因为我从不同
的
边缘设备获得了这些结果: ? 当Nvidia
Jetson
与树莓派( TensorFlow Lite )
模型
进行比较时,Nvidia
Jetson
与TensorFlow
模型
(
TensorRT
优化)具有更高
的
准确性
,这有意义吗?
浏览 110
提问于2020-04-09
得票数 1
回答已采纳
2
回答
如何将pytorch
模型
转换为
TensorRT
?
、
、
、
、
我已经在Nvidia GPU
上
训练了分类
模型
,并保存了
模型
权重(checkpoint.pth)。如果我想在
jetson
nano
中部署这个
模型
并对其进行测试。 我应该把它转换成TenorRT吗?如何将其转换为
TensorRT
? 我对此还不熟悉。如果有人能纠正我,那将是很有帮助
的
。
浏览 54
提问于2021-04-21
得票数 0
2
回答
如何在Tegra X2
上
使用TesnorFlow-GPU
模型
进行推理?
、
、
、
、
我是
Jetson
x2董事会
的
新手。现在我怀疑,如果在
浏览 2
提问于2018-11-23
得票数 1
回答已采纳
2
回答
基于
TensorRT
的
Jetson
优化tensorflow
模型
、
、
我试图加快分割
模型
(UNET-Mobileenet-512x512)。我将我
的
tensorflow
模型
转换为具有
tensorRT
精度模式
的
FP16。而且速度比我预期
的
要慢。经过
tensorRT
运算后,我得到了14 have。您可以看到,unet 256x256
的
分割速度是146 FPS。下面是使用
TensorRt
优化tensorflow保存
模型</em
浏览 10
提问于2021-02-07
得票数 6
回答已采纳
2
回答
Nvidia
Jetson
上
的
Tensorflow Lite
、
、
、
、
有人在Nvidia
Jetson
产品
上
使用过Tensorflow Lite吗?我想使用我
的
Jetson
Nano
进行推理,并希望使用GPU与tf-lite进行推理。是否可以选择使用完整
的
Tensorflow库(我不希望使用Nvidia
TensorRT
引擎)?
浏览 3
提问于2020-03-27
得票数 3
2
回答
无法将PyTorch
模型
导出到
ONNX
、
、
我正在尝试将经过预先训练
的
火炬
模型
转换为
ONNX
,但会导致以下错误:我在一个预先训练过
的
彩色
模型
上
尝试这个:!现在,当我尝试将
ONNX
转换为
TensorRT
时,我遇到了一个新
的
可能相关
的
问题。我得到以下错误: [
TensorRT
] ERROR:
浏览 34
提问于2020-12-29
得票数 5
回答已采纳
2
回答
如何可视化
TensorRT
网络图?
、
我们当前
的
流程:tf2->
onnx
->
TensorRT
对话(所有16、32和8 bits选项)谢谢!
浏览 7
提问于2021-01-14
得票数 4
1
回答
TensorFlowLite、TendorFlow-TRT和
TensorRT
的
主要区别是什么?
、
、
、
我正在使用珊瑚吞吐板和Nvidia
Jetson
TX2。这就是我如何了解TensorFlow-Lite,TensorFlow-TRT和
TensorRT
的
.我有一些关于他们
的
问题:使用TensorFlow动物园提供
的
模型
浏览 6
提问于2020-09-07
得票数 1
1
回答
正在
TensorRT
上
添加多个推断(无效资源句柄错误)
、
、
、
、
我正在尝试使用
Jetson
Nano
在管道中运行两个推论。第一个推论是使用MobileNet和
TensorRT
进行目标检测。我用于第一个推断
的
代码几乎是从AastaNV/TRT存储库复制而来
的
。唯一
的
区别是我更改了该代码,使其驻留在Inference1类中。 第二个推理作业使用第一个推理
的
输出来运行进一步
的
分析。对于这个推断,我使用tensorflow (不是
TensorRT
,但我假设它是在后端调用
的
?)使
浏览 88
提问于2019-10-14
得票数 0
1
回答
如何实时运行基于
TensorRT
的
深度学习
模型
?
、
、
、
我用
TensorRT
优化了我
的
深度学习模式。C++接口在
Jetson
TX2
上
通过优化
模型
对图像进行推理。这个接口提供了平均60 FPS (但不稳定)。推论在50和160 FPS范围内)。我需要运行这个系统作为实时实时修补
Jetson
。我已经尝试设置高优先级
的
进程和线程提供抢占。我期望在每次推理中都能
浏览 1
提问于2019-03-24
得票数 0
1
回答
为了进行物体检测,
jetson
nano
可以同时处理多少个IP摄像头视频源
、
、
、
、
Jetson
Nano
可以同时处理多少传入
的
视频源,以便进行人员计数和物体检测。假设我有4个IP摄像头,2个摄像头馈送,我需要做物体检测,另外2个我想要计算人
的
数量。我是否需要4个
Jetson
nano
,或者我可以使用一个板来处理所有4个提要。
浏览 45
提问于2020-07-06
得票数 0
1
回答
Cnn Modell与单精度fp32/int8 8
的
关系
、
、
、
我目前正在写关于人工智能推理
的
硬件和框架
的
BA论文.在我
的
研究中,我查找了
TensorRT
并找到了我不太明白
的
ab表。 但我不明白它与fp32和int 8有什么关系,以及这张表想告诉我什么。谢谢你
的
回答
浏览 9
提问于2022-06-18
得票数 -1
1
回答
将经过tensorflow训练
的
神经网络部署到torch C++
的
最佳方式是什么?
、
、
、
网络
的
权重需要从Tensorflow中训练
的
模型
导入。我将使用火炬编写网络
的
C++版本,但由于一些问题,我不能在火炬中训练网络。我可以使用哪些方法来完成此操作?
浏览 1
提问于2020-05-13
得票数 0
1
回答
在
Jetson
上
转换TF2.0保存
的
TensorRT
模型
、
、
、
、
我正试图在
Jetson
上将TF 2.0 saved_model转换为
tensorRT
。import tens
浏览 2
提问于2019-11-14
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券