腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
PySpark
ML
中
创建
自定义
转换
器
、
、
、
、
我是Spark SQL DataFrames和
ML
on它们(
PySpark
)的新手。如何
创建
自定义
标记
器
,例如删除停用词并使用
中
的一些库?我可以扩展默认的吗?
浏览 1
提问于2015-09-01
得票数 31
回答已采纳
1
回答
如
何在
PySpark
ML
中
创建
自定义
标记
器
、
、
、
、
, words=['Hi','I','heard','about','spark']) 有没有办法通过
PySpark
中
的Tokenizer或RegexTokenizer来实现这一点?
浏览 8
提问于2018-01-16
得票数 2
回答已采纳
1
回答
星火DataFrame如何区分不同的VectorUDT对象?
、
、
、
、
= {}d['old_DenseVector'] =
pyspark
.mllib.linalg.DenseVector(data)d['old_SparseVector
浏览 1
提问于2016-07-31
得票数 7
回答已采纳
1
回答
为什么
PySpark
只执行
自定义
`SQLTransformer`
中
的默认语句
、
、
、
我用
PySpark
编写了一个
自定义
的SQLTransformer。并且必须设置默认SQL语句才能执行代码。我可以在Python中保存
自定义
转换
器
,加载它并使用Scala或/和Python执行它,但是尽管_transform方法
中
还有其他东西,但只执行默认语句。
浏览 1
提问于2018-11-13
得票数 0
1
回答
如
何在
Spark2.4
中
加载
自定义
变压
器
、
、
我试图在Spark2.4.0
中
创建
一个
自定义
转换
器
。保存它很好。$.load(<console>:40)这意味着它找不到我的变压
器
的构造函数,这对我来说是没有意义的。令我困惑的是,等效的
PySpark
代码工作得很好:from
pyspark
.
ml
import Transformerfrom
浏览 0
提问于2019-04-18
得票数 2
回答已采纳
2
回答
如
何在
PySpark
中
创建
自定义
估计
器
、
、
、
、
我正在尝试在
PySpark
MLlib
中
构建一个简单的
自定义
Estimator。我有一个,它可以编写一个
自定义
的转换
器
,但我不确定如
何在
Estimator上做到这一点。
PySpark
-learn似乎有一个适合
自定义
模型()的文档,但是Scikit没有。((x-self.model['mean']) > self.threshold * self.model['std']) def decision
浏览 2
提问于2016-05-17
得票数 22
2
回答
如
何在
pyspark
中
可视化决策树模型/对象?
、
、
、
有没有办法在
pyspark
中
可视化/绘制使用mllib或
ml
库
创建
的决策树?另外,如何获取信息,
如
叶节点中的记录数。谢谢
浏览 2
提问于2017-08-16
得票数 4
1
回答
SparseVector与DenseVector在使用StandardScaler时的比较
、
、
、
、
我使用下面的代码来规范
PySpark
DataFramefrom
pyspark
.
ml
org.apache.spark.mllib.feature.StandardScalerModel.transform(StandardScaler.scala:160) at org.apache.spark.
ml
.feature.StandardScale
浏览 5
提问于2016-12-21
得票数 3
回答已采纳
1
回答
如何将稀疏向量作为列添加到
Pyspark
Dataframe
、
我想将一个(1*8)稀疏向量作为列添加到
Pyspark
数据框架
中
。
浏览 21
提问于2021-10-28
得票数 1
2
回答
无法将<class‘
pyspark
.
ml
.linalgs.parseVector’>类型转换为向量
、
、
、
、
row.clicked>>> row.features>>> type(row.features) <class '
pyspark
.
ml
.linalg.SparseVector
浏览 2
提问于2016-12-10
得票数 6
回答已采纳
1
回答
火花放电
中
ML
算法的训练
、
、
、
我对
Pyspark
还不熟悉,我试图在
Pyspark
中
创建
一个
ML
模型--我的目标是
创建
一个TFidf向量器并将这些特性传递给我的支持向量机模型。我试过这个findspark.init() #dataset is a pandas dataframe w
浏览 0
提问于2018-02-26
得票数 0
回答已采纳
1
回答
如何使JSON方法可序列化为用于
自定义
火花变压
器
、
我正在使用
pyspark
(2.3.0) api来
创建
一个
自定义
转换
器
。我想要
创建
一个简单的转换
器
,它将任何功能作为param。我试着在TypeConverters中使用标识来实现它。密码有效。我在param中发送一个函数对象,因为我想用它来处理_transform方法
中
的数据。因此,问题是如何修改这段代码,以便通过将转换
器
设置为PipelineModel对象
中
的一个阶段,并使用该对象的
pyspark
编写
器</
浏览 3
提问于2020-05-12
得票数 0
2
回答
如何从Spark
中
的“Set Set Sum of Squared Error”值计算K-means聚类模型的精度?
、
、
我正在与Spark合作,想知道如何获得
创建
的K-means聚类模型的精确值。有没有办法计算从“Set Sum of Squared Error”值
创建
的模型的精确度?提前感谢:)
浏览 0
提问于2018-05-17
得票数 1
2
回答
如何打印用于预测
PySpark
中
特定行的示例的决策路径/规则?
、
、
如
何在
星火DataFrame
中
打印特定样本的决策路径?下面的代码打印出整个模型的决策路径,如何使其打印特定样本的决策路径?import
pyspark
.sql.functions as Ffrom
pyspark
.sql importDataFrame from
pyspark
.
ml
.class
浏览 3
提问于2018-07-31
得票数 8
回答已采纳
1
回答
实例化时将SparkSession传递给
自定义
变压
器
、
我正在为我的皮斯喀特项目写我自己的变压
器
,我遇到了一个问题:from
pyspark
import keyword_onlyfrom
pyspark
.
ml
.param.shared import (HasInputCol, HasInputCols, HasOutputCol然而,它不起作用: &quo
浏览 1
提问于2019-05-17
得票数 0
回答已采纳
1
回答
PySpark
中
的分层交叉验证
、
我正在使用python
中
的Apache Spark API,
PySpark
(--version 3.0.0),理想情况下,我希望以分层的方式执行
标记
数据的交叉验证,因为我的数据非常不平衡!from
pyspark
.
ml
.tuning import CrossValidator 在scikit-learn
中
,这可以通过定义一个StratifiedKFold并将其放在任何网格搜索函数的cv参数
中
来实现这确保了训练给定估计
器
的每个K倍都以比例表示的方式包含
浏览 23
提问于2020-09-01
得票数 1
1
回答
如何设置
自定义
PySpark
变压
器
的参数,一旦它是一个适合的
ML
管道
中
的阶段?
、
、
我已经为我自己的Python算法编写了一个
自定义
的
ML
Pipeline Estimator和Transformer,它遵循所示的模式。然而,在该示例
中
,估计者的_fit()方法将_transform()所需的所有参数方便地传递到模型/转换
器
中
。但是我的转换
器
有几个参数来控制应用转换的方式。当我在
ML
Pipeline之外使用我的估计
器
和转换
器
时,这种方法工作得很好。但是,一旦我的估计
器
对象作为阶段添加到P
浏览 14
提问于2018-02-06
得票数 0
回答已采纳
2
回答
Spark/
Pyspark
: SVM -如何获得曲线下面积?
、
、
在这里,您可以看到我到目前为止是如何做到的: svm = LinearSVC(maxIter=5, regParam
浏览 2
提问于2018-01-25
得票数 1
回答已采纳
2
回答
保存
ML
模型以供将来使用
、
、
、
我对一些数据应用了一些机器学习算法,
如
线性回归、Logistic回归和朴素贝叶斯,但我试图避免使用RDDs,并开始使用DataFrames,因为比火星雨下的数据更多(见图1)。 我使用DataFrames的另一个原因是,
ml
库有一个非常有用的类来调优模型-- --这个类在拟合模型后返回模型,很明显,这个方法必须测试几种场景,然后返回一个 (参数的最佳组合)。
浏览 5
提问于2015-10-08
得票数 23
回答已采纳
1
回答
使用
PySpark
和Step函数处理Sagemaker作业
、
、
、
、
这就是我的问题:我必须使用
PySpark
编写的
自定义
代码来运行Sagemaker处理作业。framework_version="2.4", instance_count=2, role=role_arn, instance_type="
浏览 1
提问于2020-11-28
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何在Python中创建一个自定义函数
如何在Spark中处理结构化流式数据,如日志文件或传感器数据?
一个Python大数据处理利器:PySpark入门指南
PySpark,大数据处理的Python加速器!
不会编程,谷歌的AutoML也可让你训练定制的机器学习模型
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券