腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(1210)
视频
沙龙
1
回答
如何将
两
列
pyspark
数据
帧
相
减并
相除
?
、
我有这样的
数据
帧
.. A B 1293 2251 935 2473 935 2473 -1.64如果这是不可能的,那么我们可以执行减法运算并存储新的
列
,然后除以该
列
并存储在另一
浏览 101
提问于2019-07-19
得票数 2
回答已采纳
1
回答
在pandas中,
如何将
同一
数据
帧
中的
两
个序列相乘或
相除
?
在pandas中,
如何将
同一
数据
帧
中的
两
个序列相乘或
相除
?我很难找到例子。
浏览 5
提问于2016-07-27
得票数 0
1
回答
包含select where的
pyspark
新
列
、
、
、
我需要在我的
数据
框中创建
两
个额外的
列
,它们基于一个
列
的计算,该计算涉及一个
列
与另一个列上的条件
相除
。我有一个SQL转换的工作示例,但需要用
pyspark
equvilent重写它,并且无法正确完成。EUR| 11.2|+--------+-------+ df.createOrReplaceTempView("tempdf") 以上就是我到目前为止在
pyspark
下面是我想用
py
浏览 29
提问于2021-04-26
得票数 1
回答已采纳
2
回答
PySpark
列
向绑定
在
PySpark
中有什么特定的方法可以像我们在r中那样绑定
两
个
数据
帧
吗? 我需要在
PySpark
中同时绑定
数据
帧
和作为一个
数据
帧
。
浏览 1
提问于2017-08-30
得票数 3
1
回答
按索引为对象及其labelencoders合并
两
个df
、
我有
两
个
数据
帧
。 df1的列为['City','State','Zip'] df2具有与df1
相
同
列
的标签编码器。这里的每个索引都是每
列
的编码标签。 我想按索引合并/合并这些
数据
帧
。如何确定哪个标签属于什么,以及
如何将
它们放到单个
数据
帧
中,其中前三
列
将是原始
列
,其索引['City
浏览 21
提问于2020-08-27
得票数 0
1
回答
在
pyspark
中使用union或append合并
两
个不同宽度的
数据
帧
Df1.unix(Df2)
如何将
其扩展到处理具有不同
列
数的
pyspark
数据
帧
?
浏览 18
提问于2019-02-21
得票数 0
2
回答
如何检查来自不同
数据
帧
的
列
值?
、
、
、
我有
两
个
pyspark
数据
帧
,我想检查第一个
数据
帧
列
值是否存在于第二
列
dataframe.If第一个
数据
帧
列
值不存在于第二个
数据
帧
列
中,我需要确定这些值并将其写入list.Is有没有更好的方法来使用
pyspark
浏览 37
提问于2020-09-03
得票数 0
回答已采纳
2
回答
将一
列
数据
帧
除以另一
列
-除以零
、
我有一个
数据
帧
(dayData),有
两
列
'first'和'average'。我希望将'first‘除以'average’来创建一个新的
列
'second'。使用以下内容:但是,“average”
列
中的值可能为0(因此,当我将这
浏览 5
提问于2016-06-26
得票数 0
2
回答
将MinMaxScaler应用于
PySpark
中的多
列
、
、
我想将MinMaxScalar of
PySpark
应用于
PySpark
数据
帧
df的多
列
。到目前为止,我只知道
如何将
其应用于单个
列
,例如x。from
pyspark
.ml.feature import MinMaxScaler pdf = pd.DataFrame({'x':range(3), 'y':[1,2,5], 'z':[100,200,1000对于
PySpark
中
浏览 0
提问于2020-02-18
得票数 17
回答已采纳
1
回答
根据条件将
pyspark
数据
帧
拆分成多个
数据
帧
、
、
、
、
我有一个
pyspark
dataframe,它包含类似下面的
数据
: id class price place2 B 5 US-5 US8 A 10 CANADA 9 A -30 CANADA 我想找出价格
列
相对于
列
如果关于' class‘的sum(价格)大于’0‘,那么这个
数据
应该进入一个
数据
浏览 18
提问于2021-01-13
得票数 0
回答已采纳
1
回答
Spark 2.0.2 Data Frame -如何添加由现有
列
的前
两
个字符组成的新
列
?
、
、
我来自熊猫的背景,在一个简单的操作上,我正在与Spark 2.0.2 (
PySpark
)作斗争。如何向现有
数据
框添加新
列
,该
数据
框包含现有
列
的前
两
个字符。Diana", 6, "Singapore", 4)], ["FirstName", "Sales", "State", "Cost"])尝试#1 from
pyspark
.sql.fun
浏览 3
提问于2016-11-20
得票数 0
2
回答
用于获取精度、召回、f1score的混淆矩阵
、
、
、
我有一个
数据
帧
df。我已经对
数据
帧
执行了decisionTree分类算法。这
两
列
是执行算法时的标签和特征。该模型被称为dtc。如何在
pyspark
中创建混淆矩阵?features', labelCol = 'label')predictions = dtcModel.transform(test) from
pyspark
.mllib.linalgimport Vect
浏览 0
提问于2019-10-16
得票数 4
3
回答
对子字符串匹配(或包含)加入
PySpark
数据
帧
我想在
两
个
数据
帧
之间执行左连接,但是
列
并不完全匹配。第一个
数据
帧
中的联接
列
相对于第二个
数据
帧
有一个额外的后缀。from
pyspark
import SparkContext ['AB-
浏览 1
提问于2017-08-08
得票数 3
回答已采纳
1
回答
如何合并或连接spark中
列
号不相等的
数据
帧
、
、
、
、
在某些阶段,我需要在单个
数据
帧
中合并或连接3个
数据
帧
。这些
数据
帧
来自spark sql表,我使用了联合函数,它已经合并了
两
个表中具有相同编号的
列
,但我也需要合并不相等的
列
值。我现在很困惑,有没有办法在
pyspark
中合并或连接不相等的基于
列
的
数据
帧
,请指导我
浏览 13
提问于2016-09-22
得票数 0
1
回答
从db中读取阿拉伯文本,并以s3格式存储
、
、
、
我有一个
pyspark
脚本,它读取mysql
数据
,其中包含
数据
帧
中的
列
值,并以aws s3格式存储
数据
,但是在使用aws雅典娜查询时,它显示的是一些随机文本,而不是阿拉伯文。我做错了什么。,
如何将
其转换为阿拉伯语。提前谢谢。
浏览 1
提问于2018-12-05
得票数 1
回答已采纳
2
回答
使用
pyspark
根据多个
列
值删除记录
、
我有一个
pyspark
数据
帧
,如下所示: ? 如果
两
列
uniq_id和date_time具有相同的值,我希望只保留一条记录。 预期输出: ? 我想用
pyspark
来实现这一点。
浏览 28
提问于2020-10-06
得票数 0
回答已采纳
1
回答
如何将
Sklearn SVM实现应用于使用SPARK ML计算的特征( Spark ML中缺少多类SVM )
、
、
、
、
我有220 GB的
数据
。我已经将其作为
两
列
读取到spark dataframe中: JournalID和Text。现在,我的
数据
帧
中缺少27行。使用NGram类,我在dataframe中添加了另外
两
个
列
Unigram和Bigram,其中包含文本
列
中的单字和双字。然后,我使用一元和二元语法列上的
pyspark
的TF和IDF类计算TFIDF,并将其作为另一
列
添加到dataframe中。由于多类支持向量机不存在于
p
浏览 1
提问于2018-12-17
得票数 0
1
回答
如何计算
pyspark
数据
帧
的协方差矩阵?
、
、
、
我有一个很大的
pyspark
数据
框架,其中
列
是一些产品,行是其随时间变化的价格。我需要计算所有产品的协方差矩阵,但
数据
太大,无法转换为pandas
数据
帧
,因此我需要使用
pyspark
进行计算。Here是我的
数据
帧
中
两
列
的一个示例。
浏览 68
提问于2021-06-15
得票数 0
1
回答
Pyspark
pyspark
.sql.functions行为怪异
、
、
、
当我们有超过3个节点来分发
数据
时,
pyspark
.sql.functions下的"last“函数在spark上返回不一致的结果。from
pyspark
.sql.types import DoubleType numeric = sqlContext.createDataFrame
浏览 1
提问于2017-02-02
得票数 1
1
回答
如何将
spark dataframe中的String类型
列
转换为Pandas dataframe中的String类型
列
、
、
我有一个从熊猫
数据
帧
创建的样本spark
数据
帧
-from
pyspark
.sql.types import StringType
浏览 3
提问于2020-09-09
得票数 0
点击加载更多
相关
资讯
Excel–如何将一列数据隔行拆分成两列?
如何从Pandas迁移到Spark?这8个问答解决你所有疑问
将 Excel 表格中每三行合并到一个单元格中,用“、”隔开
Python开源数据分析工具TOP 3!
大数据下Python的三款大数据分析工具
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券