腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
运行
tflite
模型
时
出现问题
(
tflite
模型
的
结果
为
nan
)
、
、
我训练了一个
模型
把素描图片转换成彩色图片。中间是基本事实,左边是原创,右边是判断。这个
结果
是由model.h5
运行
的
,但是当我使用model.
tflite
运行
程序时,有一个错误
的
结果
。这是我
的
转换代码
tflite
_convert --keras_model_file=G:/pix2pix/generator.h5 --output_file=G:/pix2pix/conver
浏览 17
提问于2020-03-04
得票数 1
1
回答
如何将Tensorflow
模型
与
tflite
_diff_example_test进行比较
、
、
我已经训练了一个检测
模型
,当嵌入tensorflow示例应用程序时,它做得很好。在用export_
tflite
_ssd_graph冷冻后,用toco转化为
tflite
,效果确实很差,而且有很大
的
“多样性”。阅读
的
答案,在一个类似的问题上失去准确性,我想尝试
tflite
_diff_example_test在tensorflow对接机。
运行
平稳。我真的很感激任何帮助,这使我能够比较两个图
的
输出使用张量给定
的
测试。
浏览 0
提问于2018-09-10
得票数 0
回答已采纳
1
回答
将预先训练
的
Tensorflow
模型
转换为Tf-lite
时
的
Nan
输出
、
我们在转换经过预先训练
的
Tensorflow
模型
时
遇到了问题,我们将其作为以下文件snapshot_140.ckpt.meta对于tensorflow lite,当我们使用转换后
的
tflie文件进行预测时,所有的预测都在
Nan
而正常
的
tensorflow
模型
加载
时
给出了正确
的
回归预测。然后,将
TFlite
_c
浏览 1
提问于2019-05-22
得票数 2
1
回答
如何向从tensorflow文件转换而来
的
tensorflow lite文件添加元数据
、
、
我正在尝试添加一个tensorflow lite文件到Android studio,但是当我添加它
时
,我得到一个错误,说找不到元数据。我让tensorflow
模型
在我
的
笔记本电脑上远程工作,准确率达到70%。我使用以下代码将tensorflow转换为tensorflow lite。= converter.convert() f.write(
tflite
_model) Android
浏览 42
提问于2021-04-09
得票数 0
1
回答
Tensorflow SDK与MLKit SDK
、
我们有一个奇怪
的
问题需要帮助解决。这里有一个场景:我们有一个使用Tensorflow SDK
的
本地android应用程序和一个能识别不同鱼类种类
的
tflite
模型
。这个解决方案在从摄像机获取输入时有不同
的
结果
,但是当使用相机滚动
的
图片时,它工作得很好,并且为不同
的
鱼种提供稳定
的
概率。我们也有一个本地
的
iOS应用程序,使用谷歌
的
MLKit与相同
的
tensorflow
浏览 1
提问于2020-03-09
得票数 2
回答已采纳
1
回答
将
TFLite
(TensorFlow)转换为MLModel (苹果)
、
、
、
、
我正在尝试将
TFLite
脸网格
模型
转换为MLModel (苹果)。
TFLite
模型
描述:看一看苹果()提供
的
CoreMLTools似乎是可能
的
,但所有示例代码都显示了来自Keras
的
对话,而不是
TFLite
的
对话(尽管它显然得到了支持):如何将
TFLite
模型
转换为MLModel
模型
?
浏览 7
提问于2020-08-23
得票数 1
回答已采纳
1
回答
tensorflow lite推理返回所有
nan
、
、
、
、
我创建了我
的
tensorflow
模型
:import tensorflow as tftf, 0.09799999743700027]converter = tf.lite.TFLiteConverter.from_keras_model# enable Tenso
浏览 1
提问于2021-07-05
得票数 0
回答已采纳
3
回答
将TensorFlow Keras
模型
转换为Android .
tflite
模型
、
、
、
图像
的
背景和大小相似,如下所示:现在,下面的Python代码
运行
良好。据我理解,我需要创建一个具有所有提取
的
图像特性
的
.h5文件和一个包含
模型
的
.
tflite
文件。应答后
的
更新# Convert the model.model = Model(inputs=base_model.input= conv
浏览 15
提问于2022-04-22
得票数 0
回答已采纳
1
回答
iOS应用程序抛出带有自定义Tensorflow
tflite
模型
的
错误线程4: EXC_BAD_ACCESS (code=1,address=0x0)
、
、
我创建了自定义
的
tflite
模型
。接下来从这里下载了这个示例:
浏览 1
提问于2020-01-17
得票数 1
回答已采纳
2
回答
在flutter中使用
tflite
处理自定义
模型
时
,应用程序崩溃。我该如何修复它?
、
、
、
我已经建立了一个自定义
的
tflite
模型
,它是从Keras hdf5
模型
转换而来
的
。但是当使用转换后
的
模型
时
,虽然进行预测时应用程序在android中崩溃,但当我使用从互联网下载
的
移动网络
tflite
模型
时
,该应用程序
运行
良好。我需要做哪些更改?问题是在
模型
转换还是在应用程序中?我尝试使用支持移动网络
的
tflite</e
浏览 5
提问于2019-08-26
得票数 3
1
回答
在TensorflowLite中,OpenCL委托会生成较大
的
数值错误
、
、
我将一个
模型
从Keras转换为Tensorflow Lite,并尝试在Ubuntu18.04和Android11(基于高通
的
三星Galaxy S20)上
运行
该
模型
。在这两种情况下,我都得到了与原始Keras
模型
几乎相同
的
结果
。 但是,当我尝试使用OpenCL委托
时
,我得到了不正确
的
结果
。在Ubuntu上(使用CUDA SDK提供
的
NVidia GPU和OpenCL库),
结果
显示出很
浏览 33
提问于2021-01-14
得票数 0
1
回答
重塑tensorflow输出张量
、
、
、
、
我正在使用Azure customvision.ai训练一个对象检测
模型
。
模型
输出是tensorflow,保存
的
模型
是.pb、.tf或.
tflite
。
模型
输出类型指定为float321,13,13,50 然后,我将.
tflite
推送到Google Coral Edge设备上,并尝试
运行
它(以前使用Google Cloud训练
的
.
tflite
模型
可以工作最后,
模型
尝试
运行</
浏览 16
提问于2020-06-23
得票数 2
2
回答
无论输入是什么,Tensorflow lite
模型
的
输出总是提供相同
的
输出
、
、
、
、
我
的
目标是
运行
我在ESP32微控制器中制作
的
Keras
模型
。我让所有的库都能正常工作。我已经使用google Collab创建了一个Keras
模型
,当我在google Collab中随机提供测试数据
时
,它看起来工作得很好。该
模型
有两个输入特征和四个不同
的
输出。(多输出回归
模型
) 但是,当我在ESP32中导出
模型
并将其加载到我
的
c++应用程序中
时
,输入是什么并不重要,它总是预测相同<
浏览 64
提问于2020-07-30
得票数 2
回答已采纳
2
回答
Tensorflow对象-API:将ssd
模型
转换为
tflite
并在python中使用它
、
、
、
、
我很难将给定
的
tensorflow
模型
转换为
tflite
模型
,然后使用它。我已经发布了一个,其中我描述了我
的
问题,但没有分享我正在工作
的
模型
,因为我是不允许
的
。因为我找不到这样
的
答案,所以我尝试转换一个公共
模型
()。 是来自
的
colab教程。我只是
运行
整个脚本而没有更改(它是相同
的
模型
),并下载了生成
的
模型
(有
浏览 8
提问于2021-09-24
得票数 0
1
回答
巨蟒
的
负荷-流场
模型
、
、
我正在使用Tensorflow Lite进行一个TinyML项目,该项目包括量化
模型
和浮点
模型
。在我
的
管道中,我使用tf.keras API训练我
的
模型
,然后将
模型
转换成
TFLite
模型
。最后,将
TFLite
模型
量化为int8
模型
。我可以使用API model.save和tf.keras.model.load_model保存和加载“正常”
的
tensorflow
模型
浏览 3
提问于2021-06-25
得票数 2
回答已采纳
1
回答
把我自己
的
凯拉斯CNN
模型
转换成TensorFlow Lite。TensorFlow Lite演示应用程序
的
检测
结果
出错
、
、
、
我正在与凯拉斯CNN合作,
为
我自己建立
的
图像分类。目前,我
的
PC机上
的
检测
结果
很好( 300幅测试图像中约有290幅被正确检测到)。现在我需要让我
的
模型
在Android手机上
运行
。我在手机上安装了。到目前为止,它对预装
模型
和一些随机预培训
模型
都很有效,我在网上发现了这些
模型
。可悲
的
是,如果我转换
模型
做
TFLite
,它将显示错误
的
浏览 1
提问于2018-11-27
得票数 0
1
回答
如何在
tflite
中使用posenet
模型
的
输出
、
、
、
、
我使用
的
是来自here
的
posenet
的
tflite
模型
。输入1*353*257*3输入图片,返回4个维度数组1*23* 17 *17,1*23*17*34,1*23*17*64,1*23*17*1,输出步长
为
16,如何获取输入图片上所有17个姿态点
的
坐标?我尝试打印out1数组
的
热图中
的
置信度分数,但每个像素
的
置信度接近0.00。private ImageView imageView; private static
浏览 40
提问于2019-03-13
得票数 2
2
回答
如何在颤振中使用训练过
的
tensorflow
模型
?
、
、
、
、
我训练了一个tensorflow
模型
来预测输入文本
的
下一个单词。我将它保存为一个.h5文件。我可以在另一个python代码中使用该
模型
来预测word,如下所示:from tensorflow.keras.preprocessing.text importsequence_text], maxlen = 11 -1)) 是否有一种方法可以直接使用颤振内部
的
模型
浏览 9
提问于2021-03-04
得票数 5
2
回答
将keras
模型
转换为tensorflow lite会产生"FailedPreconditionError“
、
、
、
我在keras中有一个
模型
,它使用带有双向包装器
的
1层LSTM,我想将其转换为tensorflow lite。predictor = Nonepredictor = load_model(
浏览 3
提问于2019-09-16
得票数 0
1
回答
从
TFLite
模型
获取
TFLite
版本信息
、
、
我有一个
TFLite
模型
。如何获取用于创建
模型
的
TFLite
版本?最好
的
处理方式是什么?如何从
模型
中获取
TFLite
版本。
浏览 75
提问于2021-06-08
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorFlow Lite Android部署介绍
TensorFlow推出新接口,简化 ML移动端开发流程
跨越重重“障碍”,我从 PyTorch 转换为了 TensorFlow Lite
用安卓手机解锁目标检测模型YOLOv5,识别速度不过几十毫秒
如何优化 TensorFlow Lite 运行时内存?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券