腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Spark
DataFrame
:
根据
其他
列
添加
新
列
、
我想
添加
一个
新
列
new_col,如果
列
a的值在yes_list中,则在new_col中该值为1,否则为0 from pyspark import SparkContext sc = SparkContext.getOrCreate
浏览 11
提问于2020-07-09
得票数 0
回答已采纳
1
回答
Spark
Dataframe
,使用
其他
列
的函数
添加
新
列
、
、
、
在我的scala程序中,我有一个包含两
列
a和b (都是Int类型)的
dataframe
df。另外,我有一个先前定义的对象obj,其中包含一些方法和属性。在这里,我想使用来自obj的
dataframe
和属性的当前值向
dataframe
df
添加
一个
新
列
。| 2 | 5 | +---+---+ 如果obj有一个属性num: Int = 10和一个方法f(a: Int, b: Int): Int = {a + b - this.num},我想使用f来创建
新
浏览 16
提问于2021-10-21
得票数 0
回答已采纳
2
回答
Scala
dataframe
是否
根据
其他
列
添加
新
列
?
、
6 26 0 7 2 14 1 14 3 21 9 1 9 我希望
新
列
任何人都知道怎么做,因为在那之后,我只需要在
新
的G
列
中显示最大的20个数字 如果之前有人问过这个问题,我很抱歉,并提前表示感谢。
浏览 5
提问于2020-01-16
得票数 0
回答已采纳
2
回答
根据
其他
列
值向
dataframe
添加
新
列
、
、
我有一个数据,其中有两
列
: DNI,电子邮件。:. name2 lastname2 8658685我希望
根据
邮件的不同将num
列
添加
到第一个
dataframe
中,如果电子邮件
列
不存在名称和姓氏组合,我希望
添加
"0“值,它如下所示:. 1N
浏览 2
提问于2020-07-26
得票数 1
回答已采纳
1
回答
添加
新
列
DataFrame
Spark
我尝试通过在
dataframe
中
添加
一个
新
列
来使用SparkSQL。val df= sc.read.json("C:/Users/A661758/Desktop/TEST-XSLT.json")错误:'**UID**‘给定的输入列无法解析: 我使用
Spark
浏览 1
提问于2017-03-14
得票数 1
1
回答
在现有
列
的基础上在
DataFrame
中
添加
新
列
、
、
我有一个包含日期时间
列
的csv文件:"2011-05-02T04:52:09+00:00“。我使用scala,文件被加载到
spark
DataFrame
中,我可以使用jodas时间来解析日期:import sqlContext.implicits._ val df = new SQLContext(sc).load("com.databricks.
spark
.csv", Map("path" ->
浏览 0
提问于2015-04-28
得票数 3
回答已采纳
1
回答
在一个大型数据文件上迭代
for i in df.collect(): events_df.append(v) events_df =
spark
.createDataFrame(events_df, schema)def generate_event(delta_row):
浏览 4
提问于2022-05-13
得票数 2
2
回答
PySpark用
新
列表向
dataframe
添加
新
列
、
、
、
假设我有以下数据: [(1, "a", 23.0), (3, "B", -23.0)], 我想要
添加
新
的x4
列
,但是我在Python中有值,而不是
添加
到
新
列
中,例如x4_ls = [35.0, 32.0]。是否有最佳方法将
新
列</e
浏览 0
提问于2017-02-15
得票数 0
回答已采纳
3
回答
向
Dataframe
添加
新
列
。
新
列
我希望它是一个UUID生成器
、
、
我想向
Dataframe
添加
一个
新
列
,一个UUID生成器。UUID值将类似于21534cf7-cff9-482a-a3a8-9e7244240da7我尝试过在
spark
中使用withColumn方法。val DF2 = DF1.withColumn("newcolname", DF1("existingcolname" + 1) 因此,在所有行中,DF2都将有额外的
列
,其中的newcolname
添加
了
根据</
浏览 2
提问于2016-05-15
得票数 8
回答已采纳
10
回答
如何将
新
列
添加
到星火
DataFrame
(使用PySpark)?
、
、
、
、
我有一个火花
DataFrame
(使用PySpark 1.5.1),并希望
添加
一个
新
的
列
。我尝试过以下几种方法,但都没有成功:
spark
_new_col = sqlContext.createDa
浏览 13
提问于2015-11-12
得票数 179
回答已采纳
1
回答
在scala中将
列
从一个
dataframe
添加
到另一个
dataframe
、
、
我有两个行数相同的
DataFrame
,但是
根据
源,
列
数是不同的和动态的。val
浏览 0
提问于2017-10-31
得票数 9
回答已采纳
1
回答
使用现有
列
使用Scala
添加
新
列
、
嗨,我想在
DataFrame
的每一行中
添加
使用现有
列
的
新
列
,我在Scala中尝试这样做.df是包含可变
列
数的
dataframe
,只能在运行时决定。导入
spark
.implicits._支持基本类型(Int、String等)和Product (case类),以便在以后的版本中
添加
其他
类型的序列化支持。方法映射的参数不足:(隐含证据$7: org.apache.
spark
.sql.Encoderorg.
浏览 2
提问于2017-10-09
得票数 1
1
回答
在pyspark的现有
dataframe
中
添加
新
列
的方法是什么?
、
、
、
我已经在现有的数据框中
添加
了一个
新
列
,但它没有反映在数据帧中。test = customerDf.withColumn("fullname",expr("concat(firstname,'|',lastname)"))有没有办法向现有的
dataframe
添加
一个
新
的
列
(不复制
dataframe
)?
浏览 4
提问于2021-01-26
得票数 0
3
回答
如何
根据
其他
列
的
spark
值在
Dataframe
中
添加
列
、
、
、
我有一个字符串类型的列为"Age“的数据框,我想获取一个包含字符串格式的范围的
新
列
-1、12、17、24、34、44、54、64、100、1000Age-1
浏览 10
提问于2017-07-06
得票数 1
回答已采纳
2
回答
如何在Pyspark中
根据
另一
列
的值选择另一
列
?
我有一个数据帧,其中的一些
列
special_column包含像one,two这样的值。我的数据帧也有
列
one_processed和two_processed。我想
添加
一个
新
的
列
my_new_column,它的值是
根据
来自special_column的处理值从我的
dataframe
中的
其他
列
中获取的。我试过.withColumn("my_new_column", F.col(F.concat(F.col("
浏览 24
提问于2020-02-21
得票数 0
1
回答
将StringType
列
添加
到现有的
DataFrame
中,然后应用默认值
、
、
、
(更重要的是,),这个问题也仅限于向现有的
dataframe
中
添加
一个
新
列
,而我需要
添加
一个
列
以及数据中所有现有行的值。因此,我希望向现有的
DataFrame
添加
一
列
,然后将该
新
列
的初始(“默认值”)值应用到所有行。y| z||true|not true| red|这意味着,我希望向StringType类型的
浏览 4
提问于2016-10-10
得票数 7
回答已采纳
1
回答
Dataframe
上的Pyspark
列
、
、
我正在尝试
根据
某些
列
的值在
dataframe
上创建一个
新
列
。它在所有情况下都返回null。有人知道这个简单的例子出了什么问题吗?df = pd.
DataFrame
([[0,1,0],[1,0,0],[1,1,1]],columns = ['Foo','Bar','Baz'])
spark
_df =
spark
.createDataFrame=
spark
_df.withCo
浏览 2
提问于2018-09-26
得票数 2
回答已采纳
2
回答
SparkR:“无法解析列名...”向
Spark
数据框
添加
新
列
时
我正在尝试将一些计算
列
添加
到SparkR数据框中,如下所示:(unix_timestampOut.minus.In.mins", 第一个命令执行ok,head(Orders)显示
新
列
$$anonfun$resolve$1.ap
浏览 2
提问于2015-12-29
得票数 0
1
回答
Spark
MLlib中的
列
变换
、
、
、
例如,我有一个名为"date“的
列
,其格式为"YYYY-MM-DD”,我希望基于"date“生成一个名为"week”的
新
列
。如果使用pandas.
Dataframe
,可以用Series.apply来完成,我的问题是如何在
Spark
MLlib中做到这一点?df[
浏览 2
提问于2016-09-20
得票数 0
回答已采纳
7
回答
如何更改火花数据中的列位置?
、
、
、
我想知道是否可以更改
列
在
dataframe
中的位置,实际上是否可以更改架构?让我们想象一下,我们使用的是一个有100
列
的
dataframe
,经过一些联接和转换之后,其中一些
列
对于目标表的模式是错误的。 如何移动一个或多个
列
,即:如何更改架构?
浏览 4
提问于2016-06-29
得票数 47
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券