腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
预
训练
的
Bert
,Elmo获得两个单词之间的相似度分数
、
、
、
、
我正在尝试使用
预
训练
的维基
模型
来比较Glove,Fasttext,
Bert
,Elmo在两个单词之间的相似度。Glove和Fasttext有
预
训练
的
模型
,可以很容易地与python中的gensim word2vec一起使用。Elmo和
Bert
有这样的
模型
吗?
浏览 74
提问于2019-09-15
得票数 1
1
回答
bert
中的反向传播
、
、
我想知道,当人们说
预
训练
的
bert
模型
时,是否只
训练
了最终的分类神经网络 或 通过反向传播和分类神经网络,transformer内部是否有任何更新
浏览 121
提问于2021-02-04
得票数 1
回答已采纳
2
回答
用于命名实体识别的PyTorch Huggingface NLP
、
、
、
、
直到最后一次(11月至2月),我一直在使用库,并获得了一个F分数 of 0.81为我的命名实体识别任务,通过微调
模型
。tokenized_texts], maxlen=MAX_LEN, dtype="long", truncating="post", padding="post") 完整的代码在这个中可用。为了避免
浏览 0
提问于2019-02-25
得票数 5
2
回答
在poolingLayer -nlp中加载
BERT
嵌入
模型
时出现"Param nlp不存在“错误
、
我的NLP管道使用来自johnsnowlabs的
预
训练
的
BERT
嵌入
模型
"
bert
_base_uncased“。但是当加载这个下载的
模型
时,我得到了以下异常。
浏览 32
提问于2021-04-02
得票数 1
回答已采纳
1
回答
针对不同语言的特定领域微调
BERT
?
、
、
、
我想对一个预先
训练
好的
BERT
模型
进行微调。但是,我的任务使用特定领域内的数据(比如生物医学数据)。此外,我的数据也是一种不同于英语的语言(比如荷兰语)。现在,我可以微调荷兰
bert
-base-荷兰案例
预
训练
模型
。然而,我该如何对生物医学
BERT
模型
进行微调,比如BioBERT,它属于正确的领域,但语言错误?如果我在没有对
模型
进行任何更改的情况下进行微调,我担心
模型
不会很好地学习任务,因为它是在完全
浏览 4
提问于2021-01-28
得票数 2
1
回答
HuggingFace变压器如何在添加额外的keras层后冻结变压器
、
、
、
、
我想在
预
训练
的
BERT
模型
的最后一层之后添加一个回归层。所以它应该是这样的:output = output[1]但我不知道如何冻结
BERT
模型
,只
训练
回归层。
浏览 32
提问于2021-05-13
得票数 0
2
回答
在小型定制语料库上
预
训练
语言
模型
、
、
、
、
我很好奇是否可以在文本生成中使用迁移学习,并对特定类型的文本进行再培训/
预
训练
。例如,有一个经过预先
训练
的
BERT
模型
和一个小型的医学语料库(或任何“类型”)文本,就可以生成一个能够生成医学文本的语言
模型
。假设你没有大量的“医学文本”,这就是为什么你必须使用转移学习。我把它说成是一条管道,我把它描述为: 从我的新文本中获取新的标记,并将它们添加到现有的经过预先培训的语言
模型
中(例如,vanilla <em
浏览 5
提问于2020-04-24
得票数 7
1
回答
为什么
BERT
模型
必须保持10%的掩码标记不变?
、
、
我正在读
BERT
模型
论文。在
预
训练
BERT
模型
的掩蔽语言
模型
任务中,本文表示
模型
将随机选择15%的令牌。我认为
模型
只需要替换为掩码或其他单词就足够了。为什么
模型
必须随机选择一个单词并保持不变?
预
训练
过程是只预测掩码令牌,还是预测15%的整个随机令牌?
浏览 151
提问于2020-09-23
得票数 2
回答已采纳
1
回答
如何在
训练
过程中保持
模型
固定?
、
、
、
、
我正在尝试实现一个
模型
,该
模型
使用来自不同数据集的多个
预
训练
BERT
模型
的编码,并使用完全连接层获得组合表示。在这方面,我希望
BERT
模型
应该保持固定,只有完全连接的层应该得到
训练
。PS:我不想把每个
BERT
模型
的输入编码都去掉,然后把它们当作输入。
浏览 29
提问于2020-04-28
得票数 0
回答已采纳
1
回答
通过TF-hub导入后冻结
BERT
层并对其进行
训练
?
、
我想通过tf-hub函数hub.module(
bert
_url,trainable = True)导入
BERT
预
训练
模型
,并将其用于文本分类任务。我计划使用一个大型语料库来微调
BERT
的权重,以及几个输入为
BERT
输出的密集层。然后我想冻结
BERT
的层,只
训练
BERT
之后的致密层。我怎样才能有效地做到这一点呢?
浏览 25
提问于2020-03-29
得票数 0
1
回答
在
bert
上
训练
新数据集
、
、
、
、
我是新来伯特的 我有一个amazon评论数据集,我想要根据评论预测星级 我知道我可以使用预先
训练
好的
bert
模型
,如here所示 但我想在我自己的数据集上
训练
bert
模型
。我是否可以在任何数据集的
预
训练
模型
上应用这种“微调”,以获得更准确的结果,或者我是否必须做一些其他事情来从头开始
训练
模型
如果我确实想从头开始
训练
一个
模型
,我应该从哪里开始呢?
浏览 61
提问于2021-10-03
得票数 0
1
回答
通过Huggingface转换器更新
BERT
模型
、
、
、
、
我正在尝试使用内部语料库更新
预
训练
的
BERT
模型
。我看过Huggingface的transformer文档,你会发现我有点困惑,below.My的目标是使用余弦距离计算句子之间的简单相似度,但我需要为我的特定用例更新预先
训练
的
模型
。我试图“重新
训练
”或更新
模型
,我假设special_token_1和special_token_2表示来自我的“内部”数据或语料库的“新句子”。这是正确的吗?总而言之,我喜欢已经
预
训练
的<
浏览 53
提问于2019-10-30
得票数 9
1
回答
Tensorflow Transformer解码器输出未给出预期结果
、
、
、
我已经使用tensorflow设计了一个转换器
模型
。该
模型
的目标是生成一个文本序列,理想情况下是一个问题,然后是一个给定输入句子的答案。<~>A man is walking past a brick wall由于某些原因,即使在将
模型
训练
到100个时期之后,我也没有得到想要的输出。我非常确定网络正在从
训练
中学习,考虑到输出的构建方式,这是非常有希望的,但这里的主要问题是问题答案是由不在源句中的单词组成的。 有没有办法指示
浏览 2
提问于2020-01-28
得票数 0
1
回答
使用领域文本
预
训练
BERT
/RoBERTa语言
模型
,估计需要多长时间?哪个更快?
、
、
我想使用领域语料库(情感相关文本)
预
训练
BERT
和RoBERTa传销。使用50k~100k单词需要多长时间。由于RoBERTa没有经过
训练
来预测下一个句子的目标,比
BERT
少一个
训练
目标,并且具有更大的小批量和学习率,我假设RoBERTa会快得多?
浏览 28
提问于2020-02-09
得票数 1
回答已采纳
1
回答
在JupyterNotebook中下载的
模型
位于何处?
、
、
、
、
当我运行这个命令时,我可以看到我下载了
模型
。那么,这些下载的
模型
/数据/令牌器存储在我的机器中的什么地方? 谢谢!
浏览 12
提问于2020-12-27
得票数 0
1
回答
使用谷歌云平台TPU v3对
BERT
进行
预
培训
、
、
、
我们正在尝试使用我们准备的语料库对
BERT
进行
预
训练
。在本教程()的帮助下,我尝试使用云壳使用TPU v3对
BERT
进行
预
训练
,但云壳的使用限制为每周60小时,这不允许我们有效地执行非常耗时的计算,如
BERT
预
训练
。如果我们想在谷歌云平台上使用TPU v3对
BERT
进行不间断的
预
训练
,最好的方法是什么? 如果可能的话,如果你能提供一个具体的流程,那将是非常有帮助的。
浏览 4
提问于2021-11-09
得票数 0
1
回答
如何为领域特定的表征学习任务
训练
bert
模型
?
、
、
、
我正在尝试为一些特定类型的文本生成良好的句子嵌入,使用句子转换
模型
测试相似度,而使用kmeans进行聚类并不能给出好的结果。有什么需要改进的想法吗?我正在考虑在我的数据集上
训练
任何句子转换器
模型
(它们只是句子,但没有任何标签)。如何特别针对ny数据重新
训练
现有
模型
以生成更好的嵌入。谢谢。
浏览 5
提问于2020-12-08
得票数 0
1
回答
BERT
和GPT2的主要区别是什么?
、
我读了很多文章,人们都说
BERT
对NLU有好处,而GPT对NLG有好处。但它们在结构上的关键区别在于是否在自我注意中添加了掩膜,并以不同的方式
训练
了
模型
。那么我能否得出这样的结论:“
BERT
的
预
训练
参数对NLU有好处”,“GPT2的
预
训练
参数对NLG有好处”?或者,这两者之间还有什么其他关键的区别,使人们得出我在开始时提到的结论?
浏览 8
提问于2021-03-29
得票数 0
3
回答
如何阻止
BERT
将特定的单词拆分成单词片段
、
、
、
、
我正在使用
预
训练
的
BERT
模型
将文本标记化为有意义的标记。然而,文本中有许多特定的单词,我不希望
BERT
模型
将它们分成几个单词。有什么解决方案吗?例如:tokens = tokenizer.tokenize("metastasis"
浏览 0
提问于2020-05-29
得票数 4
1
回答
spark nlp中的多语言
bert
、
、
我想知道是否有
预
训练
的多语种
Bert
在sparknlp中可用?如你所知,
Bert
经过了109种语言的
预
训练
。我想知道是不是所有这些语言都在spark
bert
中? 谢谢
浏览 24
提问于2020-10-19
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
完胜 BERT,谷歌优秀 NLP 预训练模型开源
基于BERT预训练模型的命名体识别任务
【LLMs-BERT-2018】BERT模型-开创精彩的大规模预训练语言模型热潮(下)
SparK项目原作解读:卷积模型的首个BERT预训练
微软亚研提出VL-BERT:通用的视觉-语言预训练模型
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券