腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
BERT
对
给定
的
字符
长度
或
句子
中
的
单词
数量
进行
分类
、
、
我有一个标题
的
数据集,它们
的
描述和对应于描述是否有效
的
0
或
1。我希望能够根据
BERT
以及描述
的
字符
数/字数来
分类
它们是否有效。我该怎么做呢?
浏览 25
提问于2019-06-13
得票数 0
1
回答
变压器
对
RNN
的
基本怀疑
、
、
、
、
我有一个基本
的
疑问。请澄清这一点。现在,变压器也做同样
的
事情,除了非顺序。但是我已经看到,基于
BERT
的
模型
的
输出可以用作word嵌入。如果我有句“外面很热吗?”现在,我将应用word2Vec并获得密集表示,并将其传
浏览 0
提问于2022-07-29
得票数 0
回答已采纳
2
回答
用
BERT
检测语法错误
、
、
我们
对
bert
-base-uncased(
BERT
)模型和CoLA数据集
进行
了精细调整,以完成
句子
分类
任务.数据集是有语法错误和没有语法错误
的
句子
的
组合。然后,再训练
的
模型被用来识别有
或
没有错误
的
句子
。除了建立
分类
器外,我们还可以
使用
BERT
的
其他方法吗?
浏览 0
提问于2021-01-06
得票数 3
1
回答
如何处理多个输入
的
一个输出?
、
、
、
我想培养一个预测新闻头条情绪
的
模型。我每天都有多个无序
的
新闻标题,但只有一个情绪得分。把所有的标题连成一个字串,但这感觉有点不对,因为LSTM
或
CNN将
使用
不存在
的
跨句词关系。每天标题
的
数量</em
浏览 0
提问于2022-05-07
得票数 0
1
回答
用Keras和Python创建NER模型
、
、
我做了一个Keras模型来检测
字符
串值是Address,Company还是Date。我只
使用
了不同
的
公司名称,不同
的
日期共振峰和不同
的
街道地址
进行
培训。因此,我
的
数据集中
的
每一行都有1到5个
单词
(有些
单词
可以是数字)。是否可以
使用
该模型来检测
字符
串(地址、公司
或
日期)在较大文本
中
的
位置?我认为这种模型被称为NER模型(命名实体识
浏览 4
提问于2021-03-27
得票数 3
1
回答
BERT
嵌入应该在标记
或
句子
上
进行
吗?
、
、
、
、
我正在制作一个
句子
分类
模型,并在其中
使用
BERT
单词
嵌入。由于数据集非常大,我将所有
句子
组合在一个
字符
串
中
,并在由这些
句子
生成
的
标记上
进行
嵌入。s = " ".join(text_list) len(s) 这里s是
字符
串,text_list包含我想要在其上嵌入
单词
的
句子
。 然后我将
字符
串标记
浏览 20
提问于2020-08-27
得票数 1
2
回答
伯特字嵌入
中
的
元素是什么?
、
、
、
据我所知,伯特是一个字嵌入,可以微调
或
直接
使用
。这对嵌入词本身意味着什么?每个
单词
标记还有一个向量吗?如果是,如何考虑上下文?如果不是,嵌入
的
格式是什么?
浏览 0
提问于2020-02-11
得票数 3
回答已采纳
1
回答
当我有没有标签
的
文本文档数据集时,如何
使用
BERT
的
微调?
、
、
、
我
对
使用
BERT
进行
各种NLP/文本挖掘任务有了基本
的
了解。当谈到伯特
的
微调时,我总是看到微调是
使用
一些
分类
任务来执行
的
。那么,当我有一组完全没有标签
的
文档时,我应该如何改进
BERT
模型给出
的
单词
/
句子
嵌入向量?我知道,
BERT
模型最初是针对没有标签
的
数据
进行
培训
的
浏览 0
提问于2020-05-27
得票数 2
2
回答
Word2Vec
的
使用
、
、
、
、
抱歉,基本
的
怀疑, 我想知道我是否可以直接
使用
我
的
Word2Vec
进行
分类
而不
使用
LSTM。我
的
假设是,这是不可能
的
,因为
单词
的
顺序不会被考虑在内。因此,它不会用于
分类
。但是我们
使用
BERT
嵌入来
进行
分类
。但是在这种情况下,伯特根据
句子
的
上下文生成嵌入。因此,我们可以
使用
它<
浏览 0
提问于2022-07-29
得票数 2
1
回答
如何从Tensorflow checkpoint (ckpt)文件
中
预测
BERT
-base
中
句子
中
的
掩蔽词?
、
、
、
、
我有基于
BERT
的
模型检查点,这是我在Tensorflow
中
从头开始训练
的
。我如何
使用
这些检查点来预测
给定
句子
中
的
掩蔽词?例如,假设
句子
是,"CLS abc pqr MASK xyz SEP“,我想预测掩码位置
的
单词
。 我该怎么做呢?我在网上搜索了很多,但每个人都在
使用
BERT
来完成特定于任务
的
分类
任
浏览 24
提问于2019-09-11
得票数 0
1
回答
如何为领域特定
的
表征学习任务训练
bert
模型?
、
、
、
我正在尝试为一些特定类型
的
文本生成良好
的
句子
嵌入,
使用
句子
转换模型测试相似度,而
使用
kmeans
进行
聚类并不能给出好
的
结果。有什么需要改进
的
想法吗?我正在考虑在我
的
数据集上训练任何
句子
转换器模型(它们只是
句子
,但没有任何标签)。如何特别针对ny数据重新训练现有模型以生成更好
的
嵌入。谢谢。
浏览 5
提问于2020-12-08
得票数 0
1
回答
从
给定
的
单词
中生成段落
、
将根据现有语料库上
的
语言模型,列出一组
单词
,并尝试
使用
这些
单词
生成
句子
。什么是正确
的
(也是最简单
的
)方法来做到这一点? 我试图找到一个基于LSTM
的
解决方案,但是一旦我给网络提供了不止一个
单词
,事情就变得更加棘手了。
浏览 0
提问于2022-04-07
得票数 2
1
回答
命名实体识别任务
中
的
条件随机场是双向
的
吗?
、
、
、
我正在
使用
条件随机场算法
对
我标记
的
实体
进行
分类
。我想知道这个算法是不是像
BERT
一样是双向
的
?感谢您在这个问题上
的
任何线索!
浏览 0
提问于2019-09-18
得票数 2
1
回答
使用
非英语文本
的
预训练模型
的
BERT
句子
嵌入
、
、
、
、
我正在尝试应用
BERT
句子
嵌入来从瑞典语文本
字符
串语料库
中
查找
给定
瑞典语文本片段
的
相似
句子
。来自sentence_transformers (SBERT)
的
句子
BERT
似乎是理想
的
选择。'The quick brown fox jumps over the lazy dog.']然而,他
浏览 8
提问于2020-10-29
得票数 0
2
回答
如何利用AI/ML/NLP提取
句子
中
单词
之间
的
关系
、
、
、
让我们举一个例子: 在所有的三句话
中
,我想分别摘取被监视
的
东西(坏
的
、死
的
、死
的
)。我应该用什么方法来实现这一点呢?
浏览 0
提问于2021-01-13
得票数 0
1
回答
如何
使用
预先训练过
的
模型
进行
文本
分类
?精调模型与预训练模型
的
比较
、
、
我想知道微调后
的
模型与不经过精细调整
的
模型相比有多大
的
改善,我想比较一下预先训练
的
模型(
BERT
)和通过对文本
分类
的
预训练模型
进行
微调所获得
的
模型(微调
BERT
)
的
性能,我知道如何微调
BERT
来
进行
文本
分类
,但不太清楚如何直接
使用
BERT
来实现classification.what呢?下面是微调模型
浏览 12
提问于2022-08-05
得票数 0
1
回答
文档情感
分类
的
Bert
模型
、
、
、
、
我
的
输入不是一句,而是文件(包括几个
句子
),我不会删除点。我想知道在这种情况下只
使用
第一个令牌
的
嵌入是否可以。如果没有,我该怎么办?
浏览 0
提问于2023-04-24
得票数 0
回答已采纳
1
回答
使用
像
BERT
这样
的
预训练模型
进行
文档
分类
、
、
、
我正在寻找对文档
进行
分类
的
方法。对于ex。我有一堆带有文本
的
文档,我想标记文档是否属于体育、食品、政治等。我可以
使用
BERT
(对于
单词
>500
的
文档)来实现这一点吗?
浏览 7
提问于2021-02-10
得票数 1
2
回答
去除
Bert
中用于文本
分类
的
SEP标记
、
给定
一个情感
分类
数据集,我想
对
Bert
进行
微调。 正如你所知道
的
,
BERT
创造了预测下一个
句子
的
方法,
给定
当前
句子
。因此,为了让网络意识到这一点,他们在第一句话
的
开头插入了一个[CLS]令牌,然后添加了[SEP]令牌来分隔第一句话和第二句话,最后在第二句话
的
末尾添加了另一个[SEP] (我不明白他们为什么要在末尾附加另一个令牌无论如何,对于文本
分类</em
浏览 190
提问于2020-01-13
得票数 6
1
回答
用于标记
分类
的
Tensorflow
BERT
-在训练和测试时排除pad-标记
的
准确性
、
、
、
、
我正在
使用
tensorflow
的
预训练
BERT
模型
进行
基于标记
的
分类
,以自动标记
句子
中
的
因果。为了访问
BERT
,我
使用
了来自huggingface:
的
TFBertForTokenClassification-Interface 我用来训练
的
句子
都是根据
BERT
-tokenizer转换成记号(基本上是
单词
到数字<
浏览 0
提问于2020-07-08
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
数据分析精选案例:3行代码上榜Kaggle学生评估赛
如何通过几行 Python 代码,使用BERT进行词嵌入?
用于自然语言处理的BERT-双向Transformers的直观解释
使用NLPAUG 进行文本数据的扩充增强
五问BERT:深入理解NLP领域爆红的预训练模型
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券