腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
bert
上
训练
新
数据
集
、
、
、
、
我是新来伯特的 我有一个amazon评论
数据
集
,我想要根据评论预测星级 我知道我可以使用预先
训练
好的
bert
模型,如here所示 但我想在我自己的
数据
集
上
训练
bert
模型。我是否可以在任何
数据
集
的预
训练
模型
上
应用这种“微调”,以获得更准确的结果,或者我是否必须做一些其他事情来从头开始
训练
模型 如果我确实想从头开始
训练
一个模型,我
浏览 61
提问于2021-10-03
得票数 0
1
回答
bert
中的反向传播
、
、
我想知道,当人们说预
训练
的
bert
模型时,是否只
训练
了最终的分类神经网络 或 通过反向传播和分类神经网络,transformer内部是否有任何更新
浏览 121
提问于2021-02-04
得票数 1
回答已采纳
1
回答
重新
训练
BERT
模型
、
、
、
、
我已经使用pytorch为分类任务
训练
了大约一百万个文本
数据
的
BERT
模型。在用
新
数据
测试这个模型后,我得到了假阳性和假阴性。现在我只想用FN和FP重新
训练
现有的模型。我不想将FN和FP附加到现有的
数据
集
,然后再次
训练
整个模型。如何仅使用这些FN和Fp重新
训练
此
bert
模型,而不是先前
训练
的模型。
浏览 31
提问于2021-11-23
得票数 0
2
回答
你能用特定于任务的体系结构从零开始
训练
BERT
模型吗?
、
、
BERT
对基本模型的预
训练
是通过一种语言建模方法完成的,在这种方法中,我们
在
句子中掩蔽了一定百分比的标记,并让模型学习那些缺失的掩码。然后,我认为,为了完成下游任务,我们添加了一个
新
的初始化层,并对模型进行了微调。 然而,假设我们有一个巨大的句子分类
数据
集
。从理论
上
讲,我们能否从零开始初始化
BERT
的基本体系结构,同时
训练
额外的下游任务特定层+基模型权值,只使用这个句子分类
数据
集
形成scratch,
浏览 2
提问于2020-05-15
得票数 7
回答已采纳
2
回答
用于下一句预测的
BERT
、
、
、
我试图使用我自己的
数据
集
对
Bert
模型进行微调,以进行下一句预测,但它不起作用。谁能告诉我我的
数据
集
应该是什么结构,以及如何使用拥抱面孔
训练
器()进行微调?def train(
bert
_model,
bert
_tokenizer,path,eval_path=None): out_dir = "/content/drive/My Drive/next_sentence= BertTokenizer
浏览 6
提问于2021-04-04
得票数 0
1
回答
领域特定
数据
的蒙面语言建模
、
、
、
一开始,我考虑从零开始对语言模型(比如
BERT
)进行预培训,但不幸的是,我的
数据
并不能帮助以前的模型学习
新
的连接,更不用说从头开始学习嵌入式了。现在,我想到的是用我自己的词汇表创建一个转换器模型,它由特定于域的
数据
中的单词组成(在用空格分隔它们之后,而不是使用转换器令牌器)。这样,词汇量就会更小,位置和关系也会更快、更容易地了解。
浏览 0
提问于2021-04-24
得票数 1
1
回答
BERT
+自定义图层
训练
性能随时代而下降
、
、
、
我正在
训练
一个分类模型,
在
BERT
之上使用自定义层。在此期间,该模型的
训练
性能随着时代的增加而下降(
在
第一个时代之后)。我不确定在这里要修复什么-是模型还是
数据
?(对于
数据
,它是二进制标签,每个标签的
数据
点数量是平衡的)。编辑:原来我使用的转换器库和tf版本不匹配。一旦我解决了这个问题,
训练
效果就很好了! 谢谢!
浏览 6
提问于2020-07-26
得票数 1
1
回答
基于Pytorch的
Bert
NER迁移学习/再培训
、
、
、
通过参考下面的文章,我使用Pytorch框架
训练
了一个基于
Bert
的NER模型。
在
使用这种方法对模型进行培训之后,我使用torch.save()方法保存了该模型。现在,我想用
新
的
数据
集
重新
训练
模型。提前谢谢。
浏览 17
提问于2022-08-06
得票数 1
1
回答
通过Huggingface转换器更新
BERT
模型
、
、
、
、
我正在尝试使用内部语料库更新预
训练
的
BERT
模型。我看过Huggingface的transformer文档,你会发现我有点困惑,below.My的目标是使用余弦距离计算句子之间的简单相似度,但我需要为我的特定用例更新预先
训练
的模型。我试图“重新
训练
”或更新模型,我假设special_token_1和special_token_2表示来自我的“内部”
数据
或语料库的“新句子”。这是正确的吗?总而言之,我喜欢已经预
训练
的
BERT
模型,但我想使用另一个内部
数据
浏览 53
提问于2019-10-30
得票数 9
1
回答
NLP
BERT
模型
在
情感分析中的局限性
、
、
、
我正在读一本纸,作者们用中国的伯特模型来评估中国的在线公众情绪,以回应政府
在
新
冠肺炎期间的政策。为了实现这一点,作者
在
第8页到第9页中进一步指出,“为了
训练
分类员,我们从每个
数据
集
(总共10,541个帖子)随机抽取了大约5,000个帖子,按创建后的
数据
进行分层。我的问题是,结合
BERT
情感分析模型使用人工注释的帖子有什么价值?具体来说,我对伯特作为一种技术的理解是,它消除或至少最小化了为情感分析的目的对文本样本进行预标记的必要性,而且我不清楚为什么即使
浏览 0
提问于2022-07-20
得票数 0
回答已采纳
1
回答
如何将
BERT
预
训练
嵌入与我自己的
新
数据
集
一起使用?
、
、
我的
数据
集
和自然语言处理任务与作者预先
训练
的模型(https://github.com/google-research/
bert
#pre-training-with-
bert
)的大型语料库有很大的不同有没有什么示例代码/GitHub可以帮助我用自己的
数据
训练
BERT
?我希望得到像glove这样的嵌入。 非常感谢!
浏览 48
提问于2019-06-13
得票数 2
1
回答
具有列车、开发、测试、预测模式的
BERT
、
我正在和
BERT
一起做一个文本分类任务。我基本
上
是
在
使用。这段代码使用train.tsv和dev.tsv (有标签)来微调
BERT
,使用test.tsv (没有标签)来进行预测。但是,我需要使用train-dev-test拆分来
训练
模型(train set),计算超参数和损失函数(dev set),并评估性能(test set)。与常规的
训练
-开发-测试拆分一样,所有拆分都包括标签。我还有第四个未标记的
数据
集
可以进行预测。你知道有哪个仓库实现了4种模式
浏览 3
提问于2020-03-12
得票数 0
1
回答
用Keras和Python创建NER模型
、
、
因此,我的
数据
集中的每一行都有1到5个单词(有些单词可以是数字)。是否可以使用该模型来检测字符串(地址、公司或日期)
在
较大文本中的位置?我认为这种模型被称为NER模型(命名实体识别)。我想使用我的模型从文本中提取特定的实体,
在
本例中是公司、地址或日期。基本
上
我需要一些基于Keras模型
浏览 4
提问于2021-03-27
得票数 3
1
回答
是否有可能将伯特送至seq2seq编解码器NMT (用于低资源语言)?
、
、
、
、
我计划预先培训和使用
BERT
,因为我的工作是小
数据
集
和低/下资源语言。那么,是否有可能将伯特提供给seq2Seq编解码器?
浏览 0
提问于2020-02-22
得票数 0
2
回答
是否有任何理由对伯特进行关于具体文本的预培训?
、
、
、
因此,官方的伯特英语模型是
在
维基百科和BookCurpos (来源)(来源)
上
培训的。我的模型能变得更准确吗,因为我把它
训练
成电影相关的文本而不是一般的文本?有这种用法的例子吗?要明确的是,问题在于
数据
集
的上下文(而不是大小)的重要性。
浏览 0
提问于2021-02-07
得票数 1
回答已采纳
2
回答
用
BERT
检测语法错误
、
、
我们对
bert
-base-uncased(
BERT
)模型和CoLA
数据
集
进行了精细调整,以完成句子分类任务.
数据
集
是有语法错误和没有语法错误的句子的组合。然后,再
训练
的模型被用来识别有或没有错误的句子。除了建立分类器外,我们还可以使用
BERT
的其他方法吗?
浏览 0
提问于2021-01-06
得票数 3
1
回答
增量式培训QnA记录最少的
BERT
--以获得更好的结果
、
、
、
我们已经与班组QnA发布的列车
数据
集
(https://github.com/google-research/
bert
,https://rajpurkar.github.io/SQuAD-explorer它产生了
新
的检查点,伯特对我们
在
文本文件
上
提出的大多数问题都给出了很好的答案。然而,有一些问题它回答错了,因此我们正在努力进一步调整我们的问题和我们的文本文件的已知答案。我们
在
最后生成的检查点基础上进行
浏览 0
提问于2019-03-16
得票数 2
2
回答
BERT
模型的
训练
和使用
BERT
嵌入
、
、
、
、
我一直
在
阅读
BERT
,并使用
BERT
嵌入进行分类任务。我读过很多文章,但我对它的理解仍然不是100% (我自学了NLP,所以我对资源的访问可能会受到一些限制)。首先,我将描述我的任务。我计划使用
BERT
嵌入进行分类,因为它是如何封装含义和语言的。不幸的是,
在
我的语言(爱尔兰语)中没有伯特模型,所以我研究了自己的
训练
。我知道伯特基本
上
是变压器编码器的“延伸”。以下是我的问题: 我认为这是相当明显的,但是要检查的是,预先
训练
过的
BERT</em
浏览 17
提问于2020-08-18
得票数 2
3
回答
Deeppavlov -定制意图
、
、
、
大家好-我可以使用上面深度巴洛夫的预先
训练
的模型来进行预先创建的意图分类。然而,我想使用deeppavlov来创建我自己的意图分类模型,使用我自己的意图和文本。总共会有5到7个意向。text,intent Where is McDonald's?
浏览 7
提问于2020-08-07
得票数 0
3
回答
精密微调预培训变压器
、
、
预先
训练
的变压器(GPT2,
Bert
,XLNET)由于其传输学习能力而广受欢迎和有用。为了克服过拟
浏览 0
提问于2020-08-12
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在RLHF偏好数据集上,SFT模型怎样来训练
Bert-vits2 v2.0.2本地训练整合包现有数据集
Tensorflow Object Detection API(2)—训练自己的数据集(上)
DHVT:在小数据集上降低VIT与卷积神经网络之间差距,解决从零开始训练的问题
如何用python制作自己的训练数据集
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券