腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
python
脚本将输入转换到连接到android应用程序的firebase的tensorflow lite ML Kit中
、
、
、
、
我已经训练了一个keras模型(转换为ML工具包的.tflite ),它不接受来自安卓传感器的原始
数据
作为输入,而是接受一些
预处理
的
数据
。
数据
的
预处理
太复杂了,用Java无法完成,但是使用
python
脚本就足够可行了。因此,我想知道是否有一种方法可以使用
python
对原始
数据
输入进行
预处理
,然后将其提供给我的.tflite模型。
浏览 1
提问于2020-01-06
得票数 1
1
回答
使用SQl和
Python
的
数据
管道
、
、
、
我需要使用
Python
创建一个
数据
管道。我想用
Python
语言连接MySql,读取
数据
帧中的表,执行
预处理
,然后将
数据
加载回Mysql Db。我能够使用MySql连接器连接到mysql,然后对
数据
帧进行
预处理
。但是,我无法将这些
数据
帧从
Python
加载回Mysql。错误: ValueError:未知类型str96
python
。
浏览 20
提问于2021-04-05
得票数 0
1
回答
数据
预处理
步骤与模型的集成
、
、
、
、
Java从存储系统中获取
数据
。 为了更好地处理这一情况,我希望你对此有所有的意见。我不想在两个地
浏览 1
提问于2020-01-22
得票数 0
1
回答
在SageMaker中部署自定义
预处理
和后处理脚本
、
、
我正在尝试将一些
python
脚本转换为SageMaker中的可调用端点。我的
预处理
(特征工程)和后处理脚本都是用
python
编写的,其中有一些相互依赖的脚本和方法。
预处理
步骤也不一定来自SKLearn,它们是自定义函数,每次都需要从
预处理
端点调用原始
数据
,然后使用另存为第二端点的模型进行预测。第三个端点将用于后处理步骤,并连接这3个端点,我们希望每次都将
数据
从原始格式转换为输出格式。我们目前有一些普通的
python
脚本,它们使用一些高度定制的函数对<e
浏览 21
提问于2021-07-24
得票数 0
2
回答
从C++调用
Python
脚本以持续流式传输
数据
、
、
在C++代码中,我调用 system("
python
file.py") 运行包含模型的
Python
脚本,以及
预处理
和后处理步骤。我希望模型能够处理大量的顺序
数据
,但我希望它是实时的(所以要尽可能快)。因此,我想把我的
python
文件分成两个部分--一个是
预处理
步骤(比如加载模型/文件),另一个是实际的推断步骤(每秒对每个
数据
片段运行)。 但是,如何在我的C++代码中做到这一点呢?Inference.py将不知道
预处理
步骤
浏览 29
提问于2019-12-11
得票数 2
1
回答
我可以在大查询操作符气流中添加gcs中可调用的
python
吗?
、
、
但是这个json文件在被推送到大查询之前需要进行
预处理
。我计划使用气流操作员gcs_to_bq。在这种情况下,如何处理json
数据
?请给我提点想法。我也可以使用
python
_operator,但是如果有任何干净的解决方案来使用现有的操作符,那么它也很好。 提前谢谢你
浏览 3
提问于2020-07-28
得票数 1
回答已采纳
2
回答
数据
预处理
Python
、
、
我在
Python
中有一个DataFrame,需要对
数据
进行
预处理
。对
数据
进行
预处理
的最佳方法是哪一种,知道一些变量具有很大的规模,而另一些则没有,
数据
也没有很大的偏差。
浏览 6
提问于2016-04-12
得票数 0
2
回答
Azure
数据
工厂-
Python
自定义活动
、
我正在尝试创建一个
数据
工厂,使用
Python
活动(类似于.Net)从源文件中提取
数据
并对它们进行一些
预处理
。
数据
预处理
后,需要将文件上传到blob.我有一个
python
代码已经准备好这样做了,但是我想探索一下我是否可以通过将
Python
代码注入其中来使用Data自定义活动来完成这个任务。
浏览 0
提问于2018-01-18
得票数 0
回答已采纳
1
回答
使用BERTopic发布无关主题
目前,我正在学习如何使用BERTopic和
python
的新技术,并遵循了一份指南。该指南最初是为某种twitter
数据
编写的,但我想我会尝试另一组
数据
。当我使用“文章
数据
摘要”时,结果如下所示,我认为使用bertopic的好处之一是不对
预处理
数据
进行
预处理
,也没有对
预处理
数据
的指导。 我认为它显示了某些主题
浏览 19
提问于2022-12-03
得票数 0
1
回答
保存OneHot编码器对象
python
、
、
在
python
中有没有保存OneHotencoder对象的方法?原因是我在训练
数据
和测试
数据
的
预处理
中使用了该对象,我们正在构建一个包含相同训练模型的API,它将在用户创建时由来自网站的真实
数据
注入。因此,首先需要对
数据
进行
预处理
,然后模型可以预测o/p。 谢谢
浏览 7
提问于2017-12-24
得票数 4
回答已采纳
1
回答
Google中用于预测的
预处理
数据
(云功能不支持Tensorflow)
、
、
、
、
我使用Google Cloud Functions向Cloud ML Engine发送用于预测的
数据
。 这是因为nlt
浏览 4
提问于2018-09-27
得票数 1
回答已采纳
1
回答
如何在不使用笔记本进行内置算法的情况下对s3上的训练
数据
进行
预处理
我想避免在训练之前使用sagemaker笔记本和
预处理
数据
,比如简单地将csv格式更改为protobuf格式,如下面的内置模型的第一个链接所示。在下面的示例中,它解释了如何在sagemaker
python
-sdk的帮助下使用sklearn管道进行
预处理
。
浏览 10
提问于2019-03-28
得票数 1
1
回答
Python
:并行化GPU和CPU工作
、
、
、
、
现在,
预处理
例程从SSD中获取
数据
,进行
预处理
,并形成用于学习的
数据
结构。所有这些时间,ML培训过程等待着。然后,ML过程接受这些
数据
并使用它来训练模型。现在
预处理
在等待。然后他们就绕来走去。计划如下:一个单一的
数据
结构将存储一组
数据
点。每一步训练算法都采用随机子集对模型进行训练(用TensorFlow在GPU上进行训练)。 同时,我希望另一个线程对下一组
数据
点进行
预处理
。当
预处理
就绪时,它将用新的
浏览 4
提问于2016-07-05
得票数 2
回答已采纳
2
回答
Python
-Modelica接口:
数据
、
你认为将
数据
(例如测量日期)输入模型(dymola)的最佳方法是什么?是否有可能将
数据
从
python
导入modelica (例如,导入组合式时刻表)?我的想法如下: 如有任何建议,我将不胜感激。
浏览 3
提问于2015-09-24
得票数 1
1
回答
tensorflow to输出的结果与
python
不同
、
、
、
、
这个过程基本上是获取图像
数据
,通过经过训练的模型(从keras传递学习),并输出预测的类。在这个例子中,我想检查图像是属于狗还是猫。示例目标图像url: Problem:虽然我可以在
python
中得到0.70014906的预测。我的分机输出只有0.4576922。
浏览 17
提问于2022-11-01
得票数 0
回答已采纳
1
回答
当回调-
Python
- Django - Bokeh - Webdevelopment时存储
数据
的最佳方法
、
、
、
、
(后端无状态)用户在前端的操作->回调调用-> ajax ->这里我需要得到所描述的新
数据
->从-> ajax返回-> source.change.emit()获取新
数据
。粗体标记的部分存储在REDIS atm (用
python
编码)中。当一个图表中有多个图形/行时,回调需要几秒钟(对于每个大小为300万值的数组,大约1秒)。有没有办法在总体上提高这个速度。
浏览 1
提问于2019-03-26
得票数 0
回答已采纳
4
回答
如何在
python
中扩展类?
、
、
在
python
中,如何扩展类?假设
python
3.1 谢谢
浏览 4
提问于2013-03-20
得票数 108
回答已采纳
1
回答
AWS SageMaker上的ML管道:如何创建长时间运行的查询/
预处理
任务
、
、
、
、
我目前正在使用AWS Lambda和Step函数来运行我的ML管道的查询和
预处理
作业,但由于Lambda的15m运行时限制而受到限制。我的当前进程 I让我的
数据
科学家为模型的查询和
预处理
步骤编写
python
脚本(在git中),并将它们(通过Terraform)部署为lambda函数,然后使用Step函数将ML管道步骤排序为DAG (查询->
预处理
-> deploy )查询lambda从我们的
数据
仓库(Redshift)中提取
数据
,并将未处理的
数据</
浏览 2
提问于2020-11-03
得票数 1
1
回答
在Pandas中将60K行的大
数据
名写入csv时出错
、
、
、
我试着分两部分去做 #saving preproccesed dataframe to csv train.to_csv('C:/Users/Documents/Tesfile_Preprocessed.csv
浏览 4
提问于2018-01-07
得票数 1
回答已采纳
1
回答
Bash管与壳体展开
、
我已经将bash管道中的
数据
源从cat ${file}更改为cat file_${part_number},因为
预处理
导致${file}在2GB处被截断,分割输出消除了
预处理
问题。我最初的管道是:使用原始管道,如果我正在测试对postprocessor.py或
预处理
器的更改-n 3 - | jq -c '.' |
python
pos
浏览 4
提问于2015-10-04
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python数据预处理概述
Python机器学习-数据预处理
Python数据分析-数据预处理
Python数据分析-Pandas预处理数据(一)
Python机器学习(九)-数据预处理(续
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券