腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
Pyspark
在
dataframe
中
乘以
列
值
(
Python
)
、
、
---------+---------------+---------------------+-----------------+----------------- 我需要做的是创建另一个DF,每个
值
都
乘以
一个系数minutos_llamadas_movil0.2 --> minutos_llamadas_fijo 0.1 --> sms_enviados 这意味着我必须将每
列
中
的每一项
乘以
不同的
值
,即: minut
浏览 70
提问于2021-05-02
得票数 0
回答已采纳
2
回答
添加带有随机数据的新
列
、
、
、
我想要在
dataframe
中
添加一个包含0或1的
值
的新
列
。from random import randint 但我得到了以下错误 / withColumn /
python
/
pyspark
/sql/
dataframe
.py“,第1313行,
在
withColumn AssertionError( c
浏览 4
提问于2017-01-04
得票数 13
回答已采纳
2
回答
如何
将
值
传递给表
中
的
pyspark
变量?
、
、
这可能是一个愚蠢的问题,但我有一个表,其中的每一
列
都包含要传递给变量的
值
: select sfObject from db.tblwhere Id = {} 我看到的是一个名为sfObject的
列
,它的预期
值
为'ValueA‘,我得到一个
pyspark
.sql.
dataframe</em
浏览 1
提问于2020-06-10
得票数 1
回答已采纳
1
回答
如何
在
PySpark
中
获取
列
的最后
值
、
、
这个问题非常琐碎,但是我
在
PySpark
的世界里是全新的,我面临着很多问题,即使是简单的任务。我已经试过了 df["A"][-1],但我错了。请注意,如果可能的话,我希望可以为
PySpark
和
Pyspark
中<
浏览 1
提问于2019-06-21
得票数 0
回答已采纳
6
回答
Pyspark
:通过搜索字典替换
列
中
的
值
、
、
、
、
我是
PySpark
的新手。deviceDict = {'Tablet':'Mobile','Phone':'Mobi
浏览 5
提问于2017-05-15
得票数 23
回答已采纳
5
回答
DataFrame
对象没有属性“col”
在
“火花:最终指南”
中
,它说: df.col("count") 但是,当我
在
包含
列
count的
dataframe
上运行后的代码时,就会得到错误'
DataFrame<
浏览 2
提问于2018-08-12
得票数 9
3
回答
查看Spark
Dataframe
列
的内容
、
、
、
我
使用
的是Spark 1.3.1。 我正在尝试查看
Python
中
Spark
dataframe
列
的
值
。有了Spark
dataframe
,我可以
使用
df.collect()来查看数据帧的内容,但在我看来,Spark
dataframe
列
还没有这样的方法。例如,数据帧df包含一个名为'zip_code'的
列
。所以我可以做df['zip_code'],它会变成一个
浏览 1
提问于2015-06-30
得票数 43
回答已采纳
3
回答
将SCALA === (三等号)转换为用于火花
列
的
Python
、
、
、
我
在
Scala中有一段用于
Python
转换的代码 searchTermsInputTable:
DataFrame
使用
Dataset,它不受
Pyspark
===支持,用于
列
,该
列
也不支持 我
如何
克服这一问题并将其转换
浏览 3
提问于2022-03-18
得票数 0
1
回答
多列上的多聚合
、
、
我
使用
Python
在
Pyspark
框架
中
。我试图
使用
groupby
在
不同的列上应用不同的聚合。我有一个包含col1、col2、col3、col4
列
的df,我想做这样的事情:df.groupby("col1").sum("col2", "col3").avg("col4") 但是我发现了一个错误:"/usr/lib/spark/
浏览 4
提问于2019-09-27
得票数 0
回答已采纳
2
回答
如何
检查来自不同数据帧的
列
值
?
、
、
、
我有两个
pyspark
数据帧,我想检查第一个数据帧
列
值
是否存在于第二
列
dataframe
.If第一个数据帧
列
值
不存在于第二个数据帧
列
中
,我需要确定这些
值
并将其写入list.Is有没有更好的方法来
使用
pyspark
df[Name].show()OracleOracle.NET
python
浏览 37
提问于2020-09-03
得票数 0
回答已采纳
1
回答
PySpark
- Spark数组与
DataFrame
列表是否不同?
、
、
、
、
如果我有一个包含arrays的Spark,我可以通过
DataFrame
在这些数组上
使用
Python
List方法吗?
如何
将Spark
DataFrame
array<double>转换为
Python
列表? 下面是一个示例,其中包含一些UDF。我不确定为什么
使用
最大
值
可以,但是
使用
len就不行了。最后,我想用原始数组
列
中
的采样
值
创建一个新
列
。这也会得到一
浏览 1
提问于2016-10-28
得票数 4
回答已采纳
1
回答
将一
列
中
的
值
乘以
另一
列
中
的
值
,忽略熊猫
中
的零,而不需要硬编码?
、
我希望将
列
中
的
值
乘以
其他
列
中
的
值
。我通常通过
在
熊猫中
使用
以下公式指定
列
来
乘以
所
使用
的
值
,例如
dataframe
.column1 *
dataframe
.column2。下面是示例
DataFrame
:我想把
值
乘以
如下: PRO_RATE X DEF_POINT2
浏览 1
提问于2019-08-24
得票数 0
回答已采纳
2
回答
如何
拆分
dataframe
列
值
,并将前两个字符串仅取到新
列
、
我
在
dataframe
中有一个
列
,它的字符串
值
如下"Software part not present"nullnull
浏览 5
提问于2022-09-30
得票数 0
10
回答
如何
将新
列
添加到星火
DataFrame
(
使用
PySpark
)?
、
、
、
、
我有一个火花
DataFrame
(
使用
PySpark
1.5.1),并希望添加一个新的
列
。我尝试过以下几种方法,但都没有成功: spark_new_col = sqlContext.createDat
浏览 13
提问于2015-11-12
得票数 179
回答已采纳
1
回答
在
Pyspark
/Hive
中
处理更改的数据类型
、
、
、
在
解析
pyspark
中
不一致的数据类型时,我遇到了一个问题。如下面的示例文件所示,SA键总是包含一个字典,但有时它可以显示为string
值
。当我尝试获取
列
SA.SM.Name时,会得到如下所示的异常。 对于SA.SM.Name
列
,
如何
将null设置为除了JSONs之外的
值
的
pyspark
/hive。有人能帮帮我吗?/usr/lib/spark/
python
/
浏览 6
提问于2020-10-10
得票数 0
1
回答
如何
将所有的日期格式转换为日期
列
的时间戳?
、
、
、
我
使用
的是
PySpark
版本3.0.1。我正在将csv文件读取为具有2个日期
列
的
PySpark
数据帧。但是,当我尝试打印模式时,两
列
都被填充为字符串类型。 ? ? 上面附加的屏幕截图是
Dataframe
和
Dataframe
模式。
如何
使用
pyspark
将date
列
中
的行
值
转换为时间戳格式?我已经尝试了很多东西,但所有的代码都需要当前的格式,但
浏览 16
提问于2020-12-30
得票数 2
1
回答
在
Dataframe
上
使用
where()或filter()时出错
、
、
、
我想检查
Dataframe
列
first_id
中
的
值
是否
在
我所拥有的in的
python
列表
中
,如果是,那么它应该传递过滤器。first_id_list = [1,2,3,4,5,6,7,8,9] 我用
python
编写,id_<em
浏览 5
提问于2019-11-19
得票数 0
回答已采纳
1
回答
windowPartitionBy和
pyspark
中
的重新分区
、
、
、
我
在
SparkR中有一个小代码,我想把它转换成
pyspark
。我对这个windowPartitionBy并不熟悉,并且重新分区。你能帮我了解一下这段代码是做什么的吗?
浏览 34
提问于2020-12-18
得票数 0
回答已采纳
2
回答
可以从Scala调用
python
函数吗?
、
、
、
、
我正在创建一个火花作业,它要求
使用
用
python
编写的函数将
列
添加到
dataframe
中
。其余的处理是
使用
Scala完成的。我已经找到了
如何
从
pyspark
调用Java/Scala函数的示例: 我发现用另一种方式发送数据的唯一例子是
使用
pipe。我是否可以将整个
dataframe
发送到
python
函数,让函数操作数据并添加其他
列
,然后将结果数据返回给调
浏览 3
提问于2017-09-15
得票数 5
1
回答
如何
使用
pyspark
将数值转换为分类变量
有一系列数值变量的
pyspark
数据帧。 例如 我的
dataframe
有一个从1到100的
列
值
。1-10 - group1<== 1到10的
列
值
应包含group1作为
值
11-20 - group2。。。91-100 group10
如何
使用
pyspark
dataframe
实现这一点?
浏览 15
提问于2019-04-10
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
一个Python大数据处理利器:PySpark入门指南
python yield在函数中起返回值中的使用
PySpark,大数据处理的Python加速器!
Python开源数据分析工具TOP 3!
PySaprk之DataFrame
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券