腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
根据
其他
2
列
中
的
值
向
数据
框
中
添加
新
列
(
需要
Pyspark
)
我想
根据
“joint_pred_x”和"svm_pred_x“
中
的
两个
值
添加
一个名为"nb_pred_x”(x=0,1,2)
的
列
,如果是nb=1,则
添加
0;如果是nb=1,则
添加
1;如果是nb=0,则
添加
2;如果是nb=0,则
添加
3;如果是svm=0,则
添加
3。该解决方案只
需要
是
pyspark
,提前感谢
浏览 10
提问于2020-08-06
得票数 1
2
回答
从列表
中
添加
列
的
pySpark
、
、
、
、
我有一个
数据
文件名,并希望
根据
列表
中
的
值
向
它
添加
列
。 我
的
值
列表将从3-50个
值
变化。我是
pySpark
新手,我试图将这些
值
作为
新
列
(空)附加到我
的
df
中
。我看到了关于如何将一
列
添加
到dataframe
中
的
推荐代码,而不是
浏览 2
提问于2020-05-12
得票数 1
回答已采纳
3
回答
根据
来自
其他
列
的
值
向
数据
框
添加
新
列
、
、
我读了很多关于这方面的问题,但我不知道如何将这些解决方案应用到我自己
的
问题中。我认为我必须使用df.apply或df.assign,但我不明白即使在阅读了文档之后 这是我
的
数据
: d = {'switchopen': [True, True, False, False, False, False, False, False]} df = pd.DataFrame(data=d) 当switchopen == True & switchclose == False打开时它是打开
的
当switcho
浏览 5
提问于2019-01-17
得票数 1
回答已采纳
1
回答
在
pyspark
的
现有dataframe
中
添加
新
列
的
方法是什么?
、
、
、
我已经在现有的
数据
框
中
添加
了一个
新
列
,但它没有反映在
数据
帧
中
。如果我们可以将
数据
帧分配给另一个
数据
帧,我们就可以看到结果test.show() 有没有办法
向
现有的dataframe
浏览 4
提问于2021-01-26
得票数 0
1
回答
如何
根据
列
值
向
数据
框
中
添加
新
列
?
、
我有一个如下
的
数据
框架: 'POS':[939570,3411794,1043223,22511093,2445403122511093 CTT CT 3 2 4 chr1 24454031 CT CTT 2
浏览 3
提问于2021-04-10
得票数 1
1
回答
如何
根据
其他
数据
框
中
的
行
向
数据
框
中
添加
新
列
?
、
、
、
、
我有两个
数据
帧: DF1(我刚刚重新采样): Mi_pollution.head(): 0 10273Milano - P.zza Zavattari 45.476089 9.143509 Benzene µg/m YYYY/MM/DD HH24:MI 我要做
的
是,
根据
污染物创建
新
的
列
,并将它们
添加
到DF
浏览 19
提问于2019-03-22
得票数 0
回答已采纳
1
回答
(将列表
添加
到
列
dataframe
pyspark
)
、
、
、
如果我已经存在
数据
帧,且我想要向
数据
框
中
添加
新
列
sqlContext = SQLContext(sc)row_rdd2 = rdd2.map(lambda x: Row(x)) test_df2 = test_df.withColumn("rating", row_rdd
浏览 0
提问于2020-10-05
得票数 1
1
回答
基于
其他
列
更新
列
的
Pyspark
行
、
df.show()| id|name|| 1| sam|| 3| Jim|+---+----+from
pyspark
.sql.functions import litnew_df =new_column
中
的
值
。
浏览 1
提问于2018-05-02
得票数 0
回答已采纳
1
回答
使用UDF从Apache
中
的
其他
列
创建
新
列
、
、
、
我正在尝试从Apache
中
的
另一
列
中
创建一个
新
列
。这些
数据
(大量缩写)看上去像2018-05-26T00:00:00.000+0000 52018-05-05T00:00:00.000+0000 6 Friday 我尝试过 & & 手册
中
浏览 0
提问于2018-10-26
得票数 0
回答已采纳
2
回答
根据
其他
列
中
的
值
向
df
添加
新
列
、
、
我有一个类似于下面的
数据
帧: A B CGCSE no GQNVQyes VQ 我
需要
根据
B
列
和C
列
的
值
添加
第四
列
。有四种可能
的
结果: EPS、HCI、CAMS、DIGI。它们
需要
如下所示: B C Dno GQ
浏览 29
提问于2020-08-05
得票数 1
回答已采纳
2
回答
根据
R
中
其他
数据
中
是否存在
值
,
向
新
列
添加
新
值
、
、
我有两个名为“用户”
的
数据
集,每个
数据
集都有数千个
数据
集。两者都有一个名为ID
的
特性。users = data.frame("ID" = c(23432,75645,54656
浏览 7
提问于2020-04-27
得票数 3
回答已采纳
1
回答
如何在
值
列表
中
返回显示顶点
的
值
、
、
、
如何
向
数据
库表
中
添加
确切
的
日期和时间,从而
向
该表
中
添加
新
记录 在列表
中
,to value
需要
在查询输出
中
为两
列
。位置1
中
的
值
是显示
值
(在使用它
的
选择对话
框
中
显示
的
值
)。和返回
值
(实际作为
浏览 15
提问于2019-09-02
得票数 0
1
回答
在
pyspark
中
,我希望将
值
数据
框
列传递给函数,并操作
数据
列
中
的
第5个
值
、
我在亚马逊网络服务上
的
电子病历集群上使用
pySpark
V2,并尝试将
数据
框
列传递给函数并操作
列
中
的
各个项mylist = [x for x in range(0, 10)]| 0|| 2|| 4|| 6|| 8|+-----+ 我希望有一个函数对
数据
列
的
第5行<e
浏览 0
提问于2020-02-14
得票数 0
1
回答
如何
根据
多
列
中
的
值
向
R
数据
框
添加
新
列
、
我已经创建了以下
数据
帧"B", 'B', "B")) names(df)<-c("A", "B"
浏览 33
提问于2018-05-31
得票数 -1
回答已采纳
1
回答
Access
中
的
If语句
、
我有一个
数据
库,可以让你拥有蜥蜴或蛇。当然,一个人可以拥有许多蜥蜴和/或蛇。“宠物”字段是一个下拉列表,允许您为每只宠物选择一只蜥蜴或一条蛇,但购买每种宠物
的
费用(有自己
的
字段)是不同
的
。
浏览 5
提问于2016-11-12
得票数 0
1
回答
将列有条件地
添加
到
数据
帧
中
、
、
、
、
我在
PySpark
中有一个
数据
帧。我想有条件地在
数据
框架
中
添加
一
列
。 如果
数据
帧没有
列
,那么
添加
一个带有null
值
的
列
。如果
列
存在,则不执行任何操作,并返回与
新
数据
帧相同
的
数据
帧。如何在
PySpark
中
传递条件语句
浏览 6
提问于2017-01-20
得票数 0
回答已采纳
2
回答
如何
根据
我在
pyspark
中
的
前一个行
值
将分钟
添加
到给定
的
时间戳
、
、
、
、
我有一个
pyspark
数据
帧 +----------+----------+---------------------+ +--------- +----------+---------------------+ 现在,我必须
根据
前一行
中
的
值
向
ReadDateTime
列
浏览 34
提问于2019-12-13
得票数 0
回答已采纳
1
回答
前一行
的
pyspark
dataframe复杂计算
、
我正在使用
Pyspark
,并试图弄清楚如何使用以前
的
列
进行复杂
的
计算。我认为通常有两种方法对以前
的
列
进行计算: Windows和mapwithPartition。我认为我
的
问题太复杂了,不能通过windows解决,而且我希望结果是单独
的
行,而不是
列
。所以我尝试使用mapwithpartition分区。我对这个
的
语法有点问题。例如,以下是代码
的
粗略草稿。prev_rows[0]) yield
浏览 0
提问于2017-10-19
得票数 0
1
回答
有没有什么方法可以找到
pyspark
数据
帧中有
数据
的
列
数
、
我有一个有7
列
的
pyspark
数据
框
,我必须
添加
一个名为" sum“
的
新
列
,并计算在sum
列
中
包含
数据
(非null)
的
列
的
数量。
浏览 8
提问于2020-01-19
得票数 1
回答已采纳
5
回答
更新spark
中
的
dataframe
列
、
、
、
、
查看
新
的
spark API,还不清楚是否有可能修改DataFrame
列
。df.ix[x,y] = new_value 编辑:合并下面所说
的
内容,您不能修改现有的
数据
格式,因为它是不可变
的
,但是您可以返回一个
新
的
数据
格式,并进行所需
的</em
浏览 12
提问于2015-03-17
得票数 95
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
给 Excel 列表中的一列数据补全除自己外的所有其他值,单列变矩阵
一文读懂PySpark数据框
一文读懂 PySpark 数据框
一个Python大数据处理利器:PySpark入门指南
Python模块-Pandas(三)排序、运算及高级函数使用
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券