首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >[python][onnxruntime]自动获取输入输出信息

[python][onnxruntime]自动获取输入输出信息

作者头像
云未归来
发布2025-07-16 13:48:20
发布2025-07-16 13:48:20
8400
代码可运行
举报
运行总次数:0
代码可运行
代码语言:javascript
代码运行次数:0
运行
复制
import onnxruntime as ort

# define the priority order for the execution providers
# prefer CUDA Execution Provider over CPU Execution Provider
available_providers = ort.get_available_providers()
print(available_providers)
providers = ['CUDAExecutionProvider', 'CPUExecutionProvider']
# initialize the model.onnx
sess = ort.InferenceSession(r"E:\official-model\yolov8\yolov8n.onnx", providers=providers)

# get the outputs metadata as a list of :class:`onnxruntime.NodeArg`
outputs= sess.get_outputs()
output_name = outputs[0].name
print(output_name)

output_shape = outputs[0].shape
print(output_shape)

# get the inputs metadata as a list of :class:`onnxruntime.NodeArg`
inputs = sess.get_inputs()
input_name = inputs[0].name

input_shape = inputs[0].shape
print(input_name)
print(input_shape)

结果:

['TensorrtExecutionProvider', 'CUDAExecutionProvider', 'CPUExecutionProvider'] output0 [1, 84, 8400] images [1, 3, 640, 640]

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-07-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档