腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
训练
:
重用
先前
的
任务
id
、
我正在使用reuse_last_task_
id
=True覆盖现有
任务
(具有相同
的
项目和
任务
名称)。但该实验包含torch模型,因此不会覆盖现有
任务
,而是创建一个新
任务
。如何将模型从
任务
中分离出来?
浏览 13
提问于2020-11-02
得票数 1
1
回答
火车:我可以重置
任务
的
状态吗?(从“中止”返回到“运行”)
、
我不得不在中间停止
训练
,这将
训练
状态设置为Aborted。后来,我从最后一个检查点继续它,但是状态仍然是Aborted。此外,自动培训度量不再出现在仪表板中(尽管自定义度量仍然存在)。编辑:在继续
训练
时,我使用Task.get_task()而不是Task.init()检索
任务
。也许这就是
训练
数据不再更新
的
原因?Edit2: --我也尝试过Task.init(reuse_last_task_
id
=original_task_
id
_string),但是它只
浏览 0
提问于2020-06-30
得票数 1
回答已采纳
1
回答
重新
训练
BERT模型
、
、
、
、
我已经使用pytorch为分类
任务
训练
了大约一百万个文本数据
的
BERT模型。在用新数据测试这个模型后,我得到了假阳性和假阴性。现在我只想用FN和FP重新
训练
现有的模型。我不想将FN和FP附加到现有的数据集,然后再次
训练
整个模型。如何仅使用这些FN和Fp重新
训练
此bert模型,而不是
先前
训练
的
模型。
浏览 31
提问于2021-11-23
得票数 0
1
回答
如何在我们自己
的
数据集上
训练
一个计算机模型?
、
、
、
、
我试着用经过预先
训练
的
bvlc_reference_caffenet.caffemodel从图像中识别物体。对于只包含一个对象
的
图像,我得到了很好
的
结果。对于具有多个对象
的
图像,我从预测中删除了argmax()项,该项给出了类标签
的
最大概率。 尽管如此,对于我得到
的
标签来说,准确性还是很低
的
。因此,我正在考虑在我自己
的
数据集上
训练
相同
的
caffemodel (包含多个对象
的
图像)。
浏览 5
提问于2015-12-23
得票数 0
1
回答
让气流
的
行为像Luigi一样:如果
任务
的
输出只需要获得一次,如何防止
任务
在DAG
的
未来运行中重新运行?
、
、
我来自使用Luigi
的
经验,在Luigi中,如果某个
任务
成功地生成了一个文件,并且该
任务
也未被修改,那么重新运行DAG将不会重新运行该
任务
,而是
重用
其
先前
获得
的
输出。有什么方法可以获得与AirFlow相同
的
行为吗? 目前,如果我重新运行dag,它将重新执行所有
任务
,无论它们在过去是否生成了成功(且未更改)
的
输出。因此,基本上我需要一个
任务
被标记为成功,如果它
的
代码是没有改变
浏览 9
提问于2021-09-13
得票数 0
2
回答
组合来自不同神经网络
的
层
我正在使用tensorflow使用两个不同
的
数据集来
训练
同一神经网络
的
两个实例。网络本身非常简单,只有一个输入输出层和6个隐藏层(每一层都是一个20兆神经元,后面跟着一个非线性激活函数)。我可以用两个不同
的
数据集
训练
网络,这很好。现在,我想要做
的
基本上是创建一个新
的
网络,它是这两个经过
训练
的
网络
的
组合。特别是,我希望输入和前3层来自
训练
好
的
网络之一,后3层和输出层来自另一个网络。我
浏览 6
提问于2017-02-20
得票数 1
1
回答
从一个不同于
训练
中
的
句子中预测下一个单词
、
、
、
我正在建立一个自定义解码器专用
的
变压器模型,这是关于下一个单词预测
任务
的
训练
。
训练
过程类似于chat GPT模型--模型
的
输入是一个长度为K
的
句子(例如K=30),目标是这句话向右移动一句,例如:“想喝杯茶”-输出 如果我在指定长度
的
句子上
训练
我
的
模型,比如K=30,当它被提供更短
的
句子时,它将如何在推理模式下执行,比如长度3?
浏览 0
提问于2023-02-01
得票数 0
1
回答
如何在加载预
训练
参数然后评估验证数据集时使用chainer.links.BatchNormalization
、
我使用预
训练
的
imagenet模型来使用ResNet101和BN层来
训练
另一个数据集。审阅者评论之一:我
的
答案是基于这样
的
假设,即您正在新数据集(包括
训练
/验证/测试集)上应用预
训练
模型。也许我错了 具体地说,如果使用预
训练
模型,则会
重用<
浏览 0
提问于2018-04-13
得票数 0
2
回答
在Keras中多次调用"fit_generator()“
、
、
、
、
我有一个生成器函数,它生成(输入,目标)
的
元组,我
的
模型在这个元组上使用Keras中
的
fit_generator()方法进行
训练
。 我
的
数据集被分成9个相等
的
部分。我希望使用fit_generator()方法对数据集执行留一交叉验证,并保持
先前
训练
的
学习参数不变。我
的
问题是,在模型上多次调用fit_generator()会让它从头开始重新学习之前
的
训练
和验证集上
的
浏览 21
提问于2019-06-13
得票数 3
回答已采纳
1
回答
如何从gensim word2vec模型推断新
的
词向量?
、
、
我想使用新
的
文本数据集将新词添加到经过
训练
的
gensim word2vec模型中。但是,我希望保留旧
的
单词嵌入,只将数据集中
的
新单词添加到现有模型中。这意味着用新文本数据集简单地重新
训练
旧模型不是一种选择,因为它将重新调整也在新文本数据集中
的
先前
单词嵌入
的
向量。你能对这项
任务
有什么建议吗?我想要一些像Gensim
的
doc2vec推断功能,你给模型一些文本输入,它给出一个向量作为输出。谢谢。
浏览 3
提问于2018-03-10
得票数 5
1
回答
如何安全地取消TimerTask?
、
我一直在开发Android应用程序,我使用Timer和TimerTask对象在特定时间后执行一个
任务
。如何安全地取消
任务
?
浏览 1
提问于2012-05-07
得票数 3
回答已采纳
1
回答
如何定期重新
训练
keras模型
、
、
、
、
假设我在初始时有4000个数据点,我使用索引0到3999
的
数据点
训练
了一个模型,然后保存了该模型。现在,5天后,我加载了保存
的
模型,现在我使用索引5到4004
的
数据来重新
训练
保存
的
模型。
训练
是从上次学习
的
权重开始,还是像在新模型中一样重新初始化权重?数据是时间序列数据。
浏览 23
提问于2020-10-16
得票数 0
1
回答
如何利用Genism在Word2vec模型中进行在线培训
、
、
、
这意味着,如果您保存模型,您可以继续
训练
它以后。我查阅了样本数据,假设我
的
词汇表中有一个词是以前
训练
过
的
(即“女性”)。现在,在我
的
new_sentence中,我在前一个词汇表中有一些已经存在
的
单词(“妇女”),还有一些在前一个词汇表中不存在
的
新单词(“女孩”)。在更新了词汇表后,我在语料库中既有新词也有旧词。我用Model.wv‘’women‘检查过,在更新和
训练
新句子之后,向量被更新。另外,得到一个新单词
的
单词嵌入向量,即Mode
浏览 1
提问于2021-05-26
得票数 0
回答已采纳
1
回答
调用free时内存使用量不会减少
、
、
、
、
我有一个使用C
的
Windows,它将在WebSocket上作为后台进程运行。此过程将接受包含大型图像数据(base64格式)
的
请求。我
的
问题是,为什么进程不释放分配
的
内存或
重用
先前
分配
的
内存?
浏览 0
提问于2017-11-20
得票数 3
1
回答
如何在GPT-3上保存预培训
的
API?
、
我有个关于GPT-3
的
问题。如我们所知,我们可以给网络提供一些例子,并“调整”模型。output1 = gpt2.submit_request(prompt1) 然而,我无法保存这个“预培训”API.每次我要重新
训练
它
的
时候-有什么方法可以
重用
它吗?
浏览 4
提问于2021-04-29
得票数 2
回答已采纳
2
回答
如何在Keras中使用权重进行再
训练
、
、
、
、
我在Colab
训练
一个模型,但是,我关闭了我
的
电脑,这个
训练
停止了。每隔5个时期,我就会保存权重。我想是的,但我不知道是怎么回事。如何使用
先前
保存
的
权重继续
训练
? 谢谢。
浏览 1
提问于2019-10-24
得票数 2
1
回答
如何在数据库中保存和
重用
我
的
模型
、
、
、
、
从数据输入到最终预测,我已经准备好了完整
的
管道。我有10个模型到位(编写功能,以自动化整个过程),然后,选择一个模型
的
准确性。现在,我需要存储所有的模型(因为随着数据
的
变化,任何模型都可以有更好
的
准确性),并使用来自我
的
训练
特性
的
新
的
输入值来
重用
它。提
浏览 6
提问于2022-01-07
得票数 1
回答已采纳
1
回答
理解tf.contrib.seq2seq.TrainingHelper
的
问题
、
、
、
我成功地构建了一个序列,使用1.1版本
的
类在tensorflow中对模型进行排序。 要知道,我使用TrainingHelper来
训练
我
的
模型。但是,这个助手是否将
先前
解码过
的
值提供给解码器,以便进行
训练
,还是仅仅是为了了解实际情况?如果没有,我如何才能将
先前
解码
的
值作为输入输入,而不是地面真值?
浏览 5
提问于2017-05-07
得票数 9
回答已采纳
3
回答
如何在原有模型基础上继续
训练
支持向量机
、
、
众所周知,支持向量机
的
目标函数是迭代
训练
的
。为了继续培训,如果我们想要在相同
的
训练
数据集中继续,至少可以存储迭代中使用
的
所有变量。然而,如果我们想要在稍微不同
的
数据集上进行培训,那么我们应该如何充分利用以前
训练
过
的
模型呢?或者这种想法有意义吗?我认为如果我们
训练
一个K均值模型是相当合理
的
。
浏览 7
提问于2014-01-17
得票数 4
回答已采纳
1
回答
在推理过程中模型头部之间
的
切换
、
我有200个神经网络,我用文本转移学习来
训练
它们。除了接受不同
任务
训练
的
头部外,它们都有相同
的
重量。是否有可能将这些网络合并成一个与Tensorflow一起使用
的
模型,这样当我用输入(文本,我)调用它时,它会返回我
的
预测
任务
i。这里
的
想法是只存储共享
的
权重一次,以保存模型大小,并且只计算我们想要预测
的
任务
的
头,以便保存计算。重要
的
一点是把所有这些
浏览 3
提问于2022-09-02
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
基于BERT预训练模型的命名体识别任务
微信上,领导给你“安排任务”,千万不要回复“收到”,高情商的回答会让领导重用你
一个简单有效的长尾任务训练方法
退休副部舅舅说:微信上,领导给你“安排任务”,千万不要回复“收到”,高情商的回答会让领导重用你
中文任务全面超 BERT,NLP 无监督预训练模型 ERNIE 真有官方说的那么好?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券