腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
通过
Huggingface
转换器
更新
BERT
模型
、
、
、
、
我正在尝试使用内部语料库
更新
预训练的
BERT
模型
。我看过
Huggingface
的transformer文档,你会发现我有点困惑,below.My的目标是使用余弦距离计算句子之间的简单相似度,但我需要为我的特定用例
更新
预先训练的
模型
。如果你看一下下面的代码,这正是
Huggingface
文档中的代码。我试图“重新训练”或
更新
模型
,我假设special_token_1和special_token_2表示来自我的“内部”数据或语料库的“新句子
浏览 53
提问于2019-10-30
得票数 9
1
回答
问答中的问题生成+NLP
、
、
、
(然后,他将
通过
将其添加到生成聊天机器人故事的工具中来进一步处理每个excel )。 是什么支配着国际投资信托基金?我可以在现有的语言
模型
(如spacy
模型
)的基础上创建任何
模型
来生成实体,然后生成问题吗?
浏览 3
提问于2019-11-11
得票数 2
2
回答
Tensorflow和
Bert
到底是什么,它们之间有什么区别?
、
我对NLP很感兴趣,我想出了Tensorflow和
Bert
,两者似乎都来自谷歌,似乎都是目前情绪分析最好的东西,但我不明白它们到底是什么,它们之间有什么区别.有人能解释一下吗?
浏览 3
提问于2021-05-02
得票数 0
回答已采纳
1
回答
BERT
标记器和
模型
下载
、
、
、
、
但是,由于公司网络的安全性,以下代码不会直接接收
bert
模型
。tokenizer = BertTokenizer.from_pretrained('
bert
-base-multilingual-cased', do_lower_case=False)所以我想我必须下载这些文件并手动输入
浏览 5
提问于2020-01-12
得票数 6
回答已采纳
1
回答
用Tensorflow vs PyTorch实现
BERT
、
、
BERT
是Google开发的NLP
模型
。最初的
BERT
模型
是由TensorFlow团队建立的,也有一个使用PyTorch构建的
BERT
版本。这两种模式的主要区别是什么?
浏览 0
提问于2020-05-07
得票数 1
回答已采纳
1
回答
Rasa与
HuggingFace
的集成管道
、
我正在尝试将Rasa配置为使用在
HuggingFace
预先训练好的
模型
。pipeline: - name: LanguageModelFeaturizer我们可以在Rasa配置中包含多个
HuggingFace
管道吗?示例 - model_name: "<
浏览 1
提问于2021-04-08
得票数 0
2
回答
如何从本地/colab目录加载预培训的
BERT
模型
?
、
嗨,我从这里下载了伯特预培训
模型
(https://storage.googleapis.com/
bert
_
模型
/2018年_10_18/外壳_L-12_H-768_A-12.zip),并保存到gogole当我试图在colab中加载
模型
时,得到“我们假设”/content/驱动器/My Drive/
bert
_training/uncased_L-12_H-768_A-12/config.json“。
浏览 0
提问于2019-12-06
得票数 5
回答已采纳
1
回答
下载
模型
时发生的类'src.transformers.modeling_tf_
bert
.TFBertMainLayer'>已经注册到< Custom>TFBertMainLayer
、
、
我一直在尝试使用预训练
模型
。使用collab模板中默认的所有内容,使用从
huggingface
/pytorch-transformers到
bert
-base-uncased的torch.hub.load()作为“
模型
”model = torch.hub.load('
huggingface
/pytorch-transformers', 'model', '
bert
-base-uncas
浏览 4
提问于2020-04-23
得票数 1
3
回答
将
BERT
模型
转换为TFLite
、
、
、
我有这个代码的语义搜索引擎建立使用预先训练的
bert
模型
。我想将此
模型
转换为tflite,以便将其部署到google mlkit。我想知道如何转换它。我想知道是否有可能将其转换为tflite。但我不知道从何说起 代码: from sentence_transformers import SentenceTransformer # Load the
BERT
model.sentence-transformers/blob/master/docs/pretrained-models&
浏览 59
提问于2020-04-01
得票数 3
1
回答
由于代理问题,Hugginface
Bert
Tokenizer从源构建
、
、
我遇到了类似的东西:
BERT
tokenizer & model download 上面的链接是关于下载
Bert
模型
本身的,但我只想使用
Bert
Tokenizer。通常我可以这样做: from transformers import BertTokenizer
bert
_tokenizer_de=Be
浏览 125
提问于2021-10-18
得票数 0
回答已采纳
1
回答
Tensorflow预测两个句子相互追逐的可能性
、
、
我对TensorFlow非常陌生,因此我不知道需要什么样的
模型
配置才能实现这一点。这里有一些我需要
模型
来预测的例子。], { }, "part": "computer in the room." "label": 0] 我需要
模型
来预测标签要做到这一点,我需要什么
模型
架构?
浏览 11
提问于2021-01-12
得票数 0
回答已采纳
1
回答
BertTokenizer加载问题
、
、
、
TEST_BATCH_SIZE = 8 N_FOLD = 5 TRAIN_CSV = ".csv" API = "#" MODEL_NA
浏览 0
提问于2022-06-16
得票数 1
回答已采纳
1
回答
如何在
HuggingFace
变压器库中获取预训练的
BERT
模型
的中间层输出?
、
、
、
、
(我正在学习关于
BERT
word嵌入的 author教程,在本教程中,作者访问了
BERT
模型
的中间层。)我想要的是使用
HuggingFace
的Transformers库访问TensorFlow2中
BERT
模型
的单个输入令牌的最后4层。如何在TF/keras/TF2中实现这一点,以获得输入令牌的预训练
模型
的中间层?(稍后,我将尝试为句子中的每个令牌获取令牌,但现在一个令牌就足够了)。我正在使用
HuggingFace
的
BERT
浏览 8
提问于2020-04-27
得票数 7
回答已采纳
1
回答
未从transformers中指定时,是随机选择的预训练
模型
、
、
、
我正在尝试使用
huggingface
的
模型
来实现一个QA系统。我不理解的一件事是,当我没有具体说明我正在使用哪个预先训练好的
模型
进行问答时,这个
模型
是随机选择的吗?, }) 输出: {'score': 0.5135612454720828, 'sta
浏览 19
提问于2021-02-03
得票数 1
回答已采纳
2
回答
用于命名实体识别的PyTorch
Huggingface
NLP
、
、
、
、
直到最后一次(11月至2月),我一直在使用库,并获得了一个F分数 of 0.81为我的命名实体识别任务,
通过
微调
模型
。tokenized_texts], maxlen=MAX_LEN, dtype="long", truncating="post", padding="post")
浏览 0
提问于2019-02-25
得票数 5
1
回答
在Colab TPU上运行Pytorch堆叠
模型
、
、
、
、
我正试着在Colab多核TPU上运行我的
模型
,但我真的不知道怎么做。我尝试了,但我得到了一些错误,我不能修复它,但我认为可能有更简单的等待来完成它。关于我的
模型
: def __init__(self,...): elif ...: self.
bert
_model = others_model.from_pretrained() # <em
浏览 2
提问于2020-12-03
得票数 1
1
回答
错误:'utf-8‘编解码器无法解码7526-7527位置的字节:无效的连续字节
、
、
我在直接下载
Bert
模型
(公司的隐私政策)时遇到连接问题,所以我在https://github.com/
huggingface
/transformers/blob/master/src/transformers/tokenization_
bert
.py下载了BertTokenizer 并得到了我的
模型
令牌器的txt文件。“
bert
-base-多语言大小写”:"https:/
浏览 13
提问于2020-01-13
得票数 0
回答已采纳
2
回答
如何从
huggingface
下载
模型
?
、
https://
huggingface
.co/models 例如,我想下载'
bert
-base-uncased',但找不到‘下载’链接。请帮帮忙。或者它是不可下载的?
浏览 813
提问于2021-05-19
得票数 1
回答已采纳
1
回答
transformers AutoTokenizer.tokenize引入额外的角色
、
、
我正在使用
HuggingFace
转换器
AutoTokenizer来标记化小段文本。但是,这种标记化在单词中间拆分不正确,并且在标记中引入了#字符。我尝试了几种不同的
模型
,结果都是一样的。Communications', 'P', '##ty', 'Ltd', '[SEP]'] 下面是我用来生成令牌的代码 tokenizer = AutoTokenizer.from_pretrained("tokenizer_
bert
.jso
浏览 53
提问于2021-11-10
得票数 2
回答已采纳
1
回答
如何使用伯特-微型使用变压器?
我试着用这行加载
bert
-base-uncased但我该怎么用伯特·蒂尼
浏览 0
提问于2022-02-20
得票数 2
回答已采纳
点击加载更多
相关
资讯
Google发布24个小型BERT模型,直接通过MLM损失进行预训练
GitHub万星NLP资源大升级:Pytorch和TF深度互操作,32个最新模型
云端开炉,线上训练,Bert-vits2-v2.2云端线上训练和推理实践(基于GoogleColab)
用 Hugging Face 进行预训练模型微调:NLP任务轻松搞定!
如何用AI构建文字视觉炼金术——从语义解析到动态艺术的完整指南
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券