腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
'
None
Type
‘
对象
上
转换
pyspark
dataframe
失败
、
我有一个有很多列的
pyspark
数据帧'data3‘。我试着对它运行kmeans,除了前两列,当我运行我的代码时,任务总是
在
TypeError
上
失败
:浮动()参数必须是一个字符串或数字,而不是'NoneType‘,我做错了什么?
浏览 14
提问于2019-08-01
得票数 0
回答已采纳
1
回答
pyspark
.pandas API:构造共生矩阵,.dot()不支持数据作为输入。
、
、
、
我试图使用
pyspark
.pandas API在数据库
上
构造数据的共生矩阵。该代码
在
熊猫中运行良好,但在使用
pyspark
.pandas时出现了错误。coocc = psdf.T.dot(psdf)我得到了这个错误我查过医生了。
pyspark
.pandas.
DataFrame
.dot() 以串联作为输入。我尝试使用psdf.sque
浏览 8
提问于2022-10-14
得票数 0
回答已采纳
1
回答
在
DataFrame
中将RDD
转换
为
PySpark
、
、
我无法将RDD数据
转换
为
pyspark
中的
Dataframe
。from
pyspark
.sql.types import StructType, StructField, StringType:阶段5.0中的任务0
失败
1次,最近的
失败
:
在
阶段5.0中丢失任务0.0 (TID 7) (IP-10-172-239-64.us-west-2计算程序):org.apac
浏览 5
提问于2021-04-02
得票数 0
1
回答
如何在Scala中将
DataFrame
转换
为DynamicFrame
对象
、
、
我正在尝试将一些
pySpark
代码
转换
为Scala,以提高性能。
在
AWS (它使用Apache )中,会自动为您生成一个脚本,它通常使用DynamicFrame
对象
加载、
转换
和写入数据。但是,DynamicFrame类并不具有与
DataFrame
类相同的所有功能,有时您必须将其
转换
回
DataFrame
对象
,反之亦然,以执行某些操作。下面是我如何在
DataFrame
中将DynamicFrame
对象
<e
浏览 1
提问于2018-05-17
得票数 3
回答已采纳
1
回答
pyspark
错误:'
DataFrame
‘
对象
没有属性'map’
、
、
我正在使用
Pyspark
2.0通过读取csv来创建一个
DataFrame
对象
,使用:我使用以下命令找到数据的类型
type
(data)
pyspark
.sql.
dataframe
.
DataFrame
我正在尝试将数据中的一些列
转换
为LabeledPoint,以便应用分类。from
pyspark
.sql.types
浏览 4
提问于2016-09-08
得票数 6
1
回答
pyspark
.pandas.frame.
DataFrame
饼图
、
、
、
、
如何为
pyspark
.pandas.frame.
DataFrame
生成相同的饼图?piefreq.plot.pie() 对于pandas.core.frame.
DataFrame
,我使用以下代码成功地生成了我想要的饼图
浏览 12
提问于2022-06-25
得票数 2
回答已采纳
1
回答
星星之火1.6:如何将从Scala jar生成的RDD
转换
为吡火花RDD?
、
、
、
我正在尝试创建一些POC代码,演示如何从
PySpark
调用Scala函数,结果是一个
PySpark
.RDD。sc.parallelize(List.range(1, 10))这就是我
在
PySpark
端访问它所做的事情:>>> jrdd = foo.getTestRDD(sc._jsc.sc()) >>>
type
浏览 18
提问于2017-05-05
得票数 0
回答已采纳
1
回答
PYSPARK
:-
在
不丢失null值的情况下分解
dataframe
中的数组:“
DataFrame
”
对象
没有属性“_get_object_id”
、
、
、
调用下面的
对象
时出错是
在
不丢失空值的情况下分解
dataframe
中的数组,但在调用列时我得到错误,说
对象
没有属性‘_ code.This _ object _id’。from
pyspark
.sql import SparkSessionfrom
pyspark
.sql import Row from
pyspark
.sql.types import ArrayTyp
浏览 2
提问于2018-07-05
得票数 2
3
回答
我可以将pandas数据帧
转换
为spark rdd吗?
Pbm: a)读取一个本地文件到Panda
dataframe
中,比如PD_DF。b)操纵/海量PD_DF并添加列到
dataframe
中。c)需要使用spark将PD_DF写到HDFS。
浏览 0
提问于2015-04-15
得票数 4
2
回答
如何在火花放电中将密集向量的关系式
转换
成
DataFrame
?
、
、
、
、
0.0, 0.0, 0.0]), DenseVector([0.0, 1.0, 1.0, 0.0, 0.0, 1.0, 0.0, 0.0, 0.0, 0.0, 0.0, 1.0, 0.0])] fields = [StructField(k, _infer_
type
(v), True) for k,_infer_
type
raise TypeError(&
浏览 3
提问于2016-12-26
得票数 11
回答已采纳
1
回答
用电火花将稠密向量
转换
成数据
、
、
、
我正试图将密集向量
转换
为
dataframe
(最好是星火),并附带列名并遇到问题。from
pyspark
.ml.linalg import SparseVector, DenseVector temp: <
type
'n
浏览 0
提问于2018-09-27
得票数 3
回答已采纳
3
回答
如何在ipython中将Spark RDD
转换
为pandas数据帧?
、
、
、
、
我有一个RDD,我想把它
转换
成pandas
dataframe
。我知道要将RDD
转换
为普通的
dataframe
,我们可以这样做但我想将RDD
转换
为pandas
dataframe
,而不是普通的
dataframe
。我该怎么做呢?
浏览 1
提问于2016-01-16
得票数 35
1
回答
实例化时将SparkSession传递给自定义变压器
、
(让我们称之为my_transformers.py,我想:“好吧,我需要一个SparkSession
对象
来完成这个工作……所以让我们把它放在__init__方法
上
吧”。, HasOutputCol): def __init__(self, spark=
None
, inputCol='my_input', output_col)然后,
在
我的另一个模块/笔记本
上
: import
浏览 1
提问于2019-05-17
得票数 0
回答已采纳
3
回答
错误: AttributeError:'
DataFrame
‘
对象
没有属性'_jdf’
我想要执行k-折叠交叉验证,使用吡火花来细化参数,我使用的是
pyspark
.ml。我得到了属性错误。AttributeError:
DataFrame
对象
没有属性“_jdf”from
pyspark
import SparkConf, SparkContext from
pyspark
.ml.classification importDecisionTreeClassi
浏览 3
提问于2019-04-10
得票数 20
1
回答
PySpark
PCA:如何将数据行从多列
转换
为单列DenseVector?
、
、
、
、
= hiveContext.sql("SELECT * FROM my_table")<class '
pyspark
.sql.
dataframe
.
DataFrame
有一篇优秀的StackOverflow文章展示了如何在
PySpark
:中执行PCA>
浏览 1
提问于2016-10-06
得票数 4
回答已采纳
1
回答
与单独运行相比,具有多个聚合的吡火花旋转数据要长/冻结得多。
、
、
我想将用户的长格式
转换
为宽格式,例如:我做错了什么?df_groupby.pivot('day').agg(*aggs) aggs只是不同列(如f.sum(f.col(numeric_col))或f.first(f.col(string_col
浏览 1
提问于2021-01-28
得票数 1
1
回答
星火
DataFrame
如何区分不同的VectorUDT
对象
?
、
、
、
、
我正在尝试理解
DataFrame
列类型。当然,
DataFrame
不是一个物化的
对象
,它只是一组Spark的指令,将来要
转换
成代码。但我认为,这个类型列表代表了
在
执行操作时JVM中可能出现的
对象
类型。()root |-- SparseVectorvector (nullable = true) 但是当我一行
浏览 1
提问于2016-07-31
得票数 7
回答已采纳
1
回答
我是否需要使用普通的python,除了
pyspark
,或者
pyspark
拥有我所需要的所有东西?
、
、
、
我知道python在库中是非常全面的,但是当我们切换到
pyspark
时,如果我们需要的东西还没有
在
pyspark
中可用呢?你能把它们混合在一起,用python编写一部分代码,用
pyspark
编写一部分代码吗?
浏览 4
提问于2017-08-30
得票数 0
3
回答
“
DataFrame
”
对象
没有属性“withColumn”
、
我正在尝试比较两个pandas数据帧,但是我得到一个错误,因为'
DataFrame
‘
对象
没有'withColumn’属性。可能的问题是什么?import pandas as pdpd_df1=pd.
DataFrame
(df1.dtypes
浏览 24
提问于2019-07-11
得票数 2
1
回答
不需要两次指定参数的python包装函数
、
、
我有一个函数来执行一些数据处理,例如: df:
DataFrame
, prev_fmt: str,from functools import wraps import
pyspark
浏览 4
提问于2022-10-07
得票数 0
点击加载更多
相关
资讯
PySpark,一个大数据处理利器的Python库!
PySaprk之DataFrame
遇见YI算法之初识Pyspark(二)
大数据下Python的三款大数据分析工具
Dataiku DSS Code Recipe 介绍
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
云直播
活动推荐
运营活动
广告
关闭
领券