腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Pytorch
:
使用
nn.Embedding
对
分类
特征
进行
编码
、
我是
Pytorch
的新手。我学到了一些关于如何
使用
pytorch
构建一个简单的NN模型的教程,例如(this one)。我发现他们更喜欢用
nn.Embedding
来
编码
分类
特征
。我的问题是:(1)为什么不
使用
一个热
编码
?(2)
nn.Embedding
是随机初始化的,我认为嵌入的数值不会被训练,因为它们被视为输入。如果
nn.Embedding
随机初始化
分类
特征
,是
浏览 33
提问于2020-09-11
得票数 1
1
回答
是否有可能将火把和火炬的几何模型结合起来?
、
我正在处理一个
使用
图形数据的节点
分类
问题。通过简单地将网络应用于单个节点(例如,忽略图形结构),我
使用
了
PyTorch
对
节点
进行
分类
,并
使用
PyTorch
几何方法应用GNN (例如GCN)
对
节点
进行
分类
。是否可以将
PyTorch
中的模型作为
PyTorch
几何中的最后一层?我
对
这将如何工作感到有点困惑,因为
对
to
浏览 0
提问于2022-12-16
得票数 1
回答已采纳
1
回答
用于开发编解码器模型的
nn.embedding
是如何工作的?
、
、
、
、
在中,它教如何开发一个简单的
编码
器-译码器模型,并注意
使用
pytorch
.然而,在
编码
器或解码器中,定义了self.embedding =
nn.Embedding
(input_size, hidden_size在中,
nn.Embedding
被定义为“存储固定字典和大小的嵌入的简单查找表”。因此,我感到困惑的是,在初始化过程中,这个查找表来自哪里?它是否为索引初始化了一些随机嵌入,然后
对
它们
进行
训练?
浏览 6
提问于2020-10-05
得票数 0
回答已采纳
1
回答
one-hot
编码
会导致功能不均衡的问题吗?
、
、
、
、
我们知道,在数据挖掘中,我们经常需要对
分类
特征
进行
一次性
编码
,因此,一个
分类
特征
将被
编码
为几个"0/1“
特征
。有一个特例让我感到困惑:现在我的数据集中有一个
分类
特征
和一个数字
特征
,我将
分类
特征
编码
为300个新的"0/1“
特征
,然后
使用
MinMaxScaler对数字
浏览 2
提问于2018-12-03
得票数 0
1
回答
属性的
特征
缩放
、
、
、
我
使用
两个要素来训练
分类
模型,例如要素A和B。要素A比要素B更重要。要素A具有序数数据,因此我
对
其
进行
了标注
编码
,其值范围为1到5。要素B也是
分类
要素,并且在标注
编码
后
对
其
进行
了热
编码
由于上述
编码
,
特征
A具有从1到5的值,而
特征
B具有多列,并且每个列值要么为0,要么为1。现在,在我的模型训练之后,我的模型过于偏向于
特征
A,因为它的值范围是1到5
浏览 26
提问于2020-01-03
得票数 1
1
回答
使用
字符级LSTM的
Pytorch
- Token嵌入
、
、
、
我正在尝试训练一个神经网络来
对
一系列的单词
进行
分类
。根据我试图复制的一篇论文,我需要同时拥有令牌级嵌入和字符级令牌嵌入。例如,以这句话为例:我需要两个嵌入-一个是用于令牌级嵌入的普通
nn.Embedding
层(非常简单!):另一个是字符级的BiLSTM嵌入: [[T,h,e], [s,h,o,p], [i,s], [o我试着用
PyTorch</em
浏览 0
提问于2020-12-03
得票数 0
1
回答
不兼容的行维度
、
、
、
我们的任务是
对
所有文本和
分类
特征
进行
编码
,并再次将它们组合成数据矩阵,但我得到了错误的不兼容的行维度。我到目前为止的工作:<code>A0</code><code>A1</code>
浏览 16
提问于2021-03-14
得票数 0
回答已采纳
1
回答
在用于
分类
特征
的Bernoulli NB和用于数值
特征
的高斯NB的一个数据集上实现混合朴素贝叶斯
、
、
、
、
我有一个包含2个数字描述性
特征
和3个
分类
描述性
特征
的数据集。我已经对
分类
特征
进行
了
编码
,并
对
神经
特征
进行
了缩放。现在我想
使用
混合朴素贝叶斯
分类
器,该
分类
器包含用于
分类
特征
的Bernoulli NB和用于数值
特征
的高斯NB。我曾尝试在sklearn模型中
使用
StackingClassifier的
浏览 0
提问于2020-06-06
得票数 0
1
回答
单个词具有多个范畴
特征
的词嵌入
、
、
、
我正在寻找一种方法来实现在
Pytorch
中
使用
LSTM层实现word嵌入网络,这样
nn.Embedding
层的输入与单词I的向量具有不同的形式。嵌入层的作用是
进行
一些自动的
特征
缩减/提取。 如何向嵌入层提供这样的表单数据?或者你有什么更好的建议?
浏览 3
提问于2019-10-08
得票数 0
回答已采纳
1
回答
PyTorch
中的可微图像压缩操作
、
、
、
在CNN
分类
模型训练中,在计算损失时,我在
PyTorch
中
对
图像应用
编码
jpeg压缩。当我调用loss.backward()时,它还必须通过
对
图像执行的
编码
和压缩操作
进行
反向传播。这些压缩算法(例如
编码
和JPEG压缩)是否是可微的,否则如何通过这些操作反向传播损失梯度? 如果这些操作不是可微的,那么在执行H.264
编码
和JPEG压缩的
PyTorch
中是否存在可微压缩算法?
浏览 9
提问于2020-04-10
得票数 2
1
回答
在未见数据上实现sklearn的FeatureHasher
、
、
、
一直是
对
所有这些信息
进行
编码
的有用工具。我计划
使用
经过训练的模型
对
新的/未见的索赔数据
进行
预测,这些数据将在每天的基础上
进行
评分。我将对每日提取的索赔数据
进行
散列,这些数据具有相同的哈希维度,因此,在对模型
进行
培训的
特征
数量与每日提取的
特征
数量之间没有差异,允许我
使用
经过训练的模型对传入的索赔数据
进行
预测。是否以相同的方式
对
这些信息<e
浏览 0
提问于2020-04-27
得票数 0
3
回答
从scikit-learn中的one-hot-encoding回溯
分类
特征
?
、
、
、
、
我
使用
scikit learn中的OneHotEncoder,
使用
one-hot of-K方案
对
我所有的
分类
整数
特征
进行
了
编码
。根据结果,实际影响预测模型的参数只有51个。我想研究这些参数,但它们的
编码
方式如上所述。你知道如何提取哪个
分类
整数
特征
对应哪个热
编码
数组吗?谢谢!
浏览 0
提问于2015-11-28
得票数 0
1
回答
如何利用火把多头注意力
进行
分类
任务?
、
、
、
、
我有一个数据集,其中x形状是(10000,102300),例如(样本,
特征
长度,尺寸)和y(10000),这是我的二进制标签。我想
使用
多头注意力
使用
PyTorch
。我从
PyTorch
上看到了文档,但没有解释如何
使用
它。如何
使用
我的数据集
进行
分类
使用
多头注意力?
浏览 3
提问于2022-09-30
得票数 0
1
回答
跟踪Crisp-DM时,何时对
分类
数据
进行
一次热
编码
、
、
我有一个数据集,其中包含15个
分类
特征
(2和3个级别因素,这是不序数)和3个连续的数字
特征
。鉴于大多数机器学习算法都需要将数字数据作为输入
特征
,并且实际上自动地
对
其
进行
一次性
编码
(随机森林、glmnet等),那么在数据预处理过程中不应该执行一次热
编码
来探索
编码
特征
数据之间的关系吗?还是最好先探索原始
分类
数据之间的关系,然后在运行算法之前才
进行
编码
? 基本上,我的问
浏览 0
提问于2020-07-31
得票数 5
回答已采纳
2
回答
回归分析中如何区分
分类
变量和序数变量?
、
、
、
、
我正在对与房屋有关的数据
进行
线性回归分析。现在我有23个
特征
。其中一些明显是序号(例如年份、房间数、楼层)。有些特性是绝对的,我
对
如何在
编码
为数字格式时如何处理它们感到困惑。我
对
使用
哪种
编码
方法犹豫不决:一次热
编码
(用于
分类
)或只是序号映射(序数数据)。我知道,像肤色、性别、地区、国籍这样的
分类
特征
显然必须用虚拟
编码
来
编码
。同样清楚的是,这样的
分类</em
浏览 0
提问于2015-12-07
得票数 0
回答已采纳
2
回答
为什么连续
特征
在决策树模型中比
分类
特征
更重要?
、
、
、
、
我的预测模型中既有
分类
特征
,也有连续
特征
,我希望选择(和排序)最重要的
特征
。 我
使用
一个热
编码
将所有的
分类
变量转换为虚拟变量(为了更好地解释我的logistic回归模型)。一方面,我
使用
LogisticRegression (sklearn),并通过
使用
它们的系数
对
最重要的
特征
进行
排序。通过这种方式,我将
分类
变量和连续变量都视为最重要的特性。另一方面,当我想<em
浏览 0
提问于2020-01-15
得票数 9
回答已采纳
1
回答
embeddings_regularizer在
pyTorch
中的等价性
、
在
pyTorch
或
nn.Embedding
中,这等同于什么?
浏览 0
提问于2020-12-05
得票数 4
回答已采纳
2
回答
使用
scikit-learn
对
大数据集
进行
一次性
编码
、
我有一个很大的数据集,我计划
对
其
进行
逻辑回归。它有很多
分类
变量,每个变量都有数千个
特征
,我计划
对
这些
特征
使用
一个热
编码
。我将需要以小批的方式处理数据。我的问题是,如何确保在第一次运行期间,一个热
编码
可以看到每个
分类
变量的所有功能?
浏览 0
提问于2014-07-26
得票数 2
4
回答
分类
编码
前后的标准化?
、
、
、
、
所以我有一个训练集,它只有一个
分类
特征
和4个可能的值。我已经
使用
了一
对
k
分类
编码
方案来处理它,这意味着现在我的Pandas DataFrame中还有3列,其0/1取决于当前值。DataFrame的其他
特征
主要是位置和价格的纬度-经度等距离,所有这些都是数字的。 应该标准化(均值和单位方差为零的高斯分布),并在
分类
编码
前后
进行
规范化吗?我在想,在
编码
后
进行
规范化可能是有益的
浏览 0
提问于2017-11-13
得票数 8
回答已采纳
1
回答
使用
Catboost
分类
器转换
分类
列
、
、
、
我正在尝试将CatBoost应用于我的一个列,以获取
分类
功能,但得到以下错误: CatBoostError: Invalid type for cat_feature[non-default value我可以
使用
one-hot
编码
,但这里的许多人说CatBoost似乎更好地处理这一点,并且不太容易过度拟合模型。 我的数据由三列组成,“国家”、“年份”、“电话用户”。
浏览 324
提问于2021-04-13
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
图神经网络入门示例:使用PyTorch Geometric 进行节点分类
《使用一种新的算法对肝脏数据进行分类》
“企业架构”使用TOGAF 企业连续体对架构描述进行分类
研究人员使用机器学习技术对编码器进行去匿名化
matlab使用长短期记忆(LSTM)神经网络对序列数据进行分类
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券