腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
将
Spark
DataFrame
转
换为
HashMap
、
、
、
、
我有一个数据帧,看起来像这样:123 456 0.5456 789 0789 123 1我想要一个如下所示的输出: {'123': {'456': 0.5, '789': 1}, 456: {'123': 0.5, '789': 1}, '789': {
浏览 86
提问于2018-01-27
得票数 1
回答已采纳
1
回答
摧毁星火
DataFrame
、
、
、
、
Spark
版本的1.5和我正试图
将
具有名称值组合的输入数据name转
换为
一个新的数据name,其中所有的名称都被转
换为
列,并将值转
换为
行。I/P
DataFrame
:1 Country US 2 State NY 4 State MH 5 State NJ 5
浏览 10
提问于2016-03-02
得票数 5
1
回答
将
Java ResultSet转
换为
火花
DataFrame
、
、
、
、
我浏览了
Spark
的
DataFrame
,并希望在我用Java开发的程序中使用这个结构。我怎样才能进行这种转换?是否有更简单的方法直接
将
SQL结果转
换为
DataFrame
?编辑:我试图通过下面的详细信息通过SparkSession连接Server .builder() .maste
浏览 4
提问于2016-11-11
得票数 0
2
回答
BSONObject到
DataFrame
的RDD
、
、
、
按照的描述,我正在从Mongo加载一个bson
转
储到
Spark
中。它是有效的,但我得到的是:它基本上应该是包含所有String字段的JSON。我的其余代码需要一个
DataFrame
对象来操作数据。但是,当然,toDF在该RDD上失败了。如何将其转
换为
所有字段均为String的
Spark
DataFrame
?如果能有类似于
spark
.read
浏览 1
提问于2016-10-04
得票数 1
2
回答
Spark
2.2.0-如何
将
DataFrame
写/读到DynamoDB
、
、
、
将
表读入
DataFrame
import org.apache.
spark
.rdd.RDDimport java.util.
HashMap
import.withColumn("Address&quo
浏览 6
提问于2017-12-08
得票数 9
2
回答
如何筛选出包含其他数据帧中的char序列的行?
、
、
因此,如果df2中的值是df1中的“类似”键,我
将
尝试从df1中删除行。我不确定这是否可行,或者是否需要首先将df1更改为列表?
浏览 4
提问于2018-08-02
得票数 1
回答已采纳
3
回答
值registerAsTable不是org.apache.
spark
.rdd.RDD[Tweet]的成员
、
、
在执行齐柏林飞艇教程代码时出错: 错误: value registerAsTable不是org.apache.
spark
.rdd.RDDTweet ).foreachRDD(rdd=> rdd.registerAsTable
浏览 3
提问于2016-02-10
得票数 4
2
回答
如何在Pyspark中使用Scala类
、
、
、
、
假设我在Scala中创建了一个简单的类,它使用了一些apache-
spark
库,如下所示: def exe():
DataFrame
= { df.select(col(column顺便说一句,我还看了一下
spark
代码,我感到有点迷茫,我无法为自己的目的复制它们的功能。
浏览 3
提问于2016-03-15
得票数 29
回答已采纳
2
回答
Pyspark: 202001和202053 (yyyyww) to_date给出null
、
、
、
、
我有一个包含一年周列的
Dataframe
,我想将其转
换为
日期。我写的代码似乎每周都有效,除了“202001”和“202053”,例如: df =
spark
.createDataFrame([(2, "202002"), (3,如何
将
第202001周和第202053周
转
换为
有效日期?
浏览 58
提问于2021-01-16
得票数 2
回答已采纳
1
回答
无法解析重载方法“createDataFrame”
、
StructField("event_timestamp", StringType, true),)) .enableHiveSupport() .getOrCreate() var transaction=
spark
.createDataFrame
浏览 4
提问于2022-06-25
得票数 0
回答已采纳
2
回答
从RDD中的Pandas DataFrames创建
Spark
DataFrame
、
、
我正在尝试
将
每个worker节点(每个元素都是Pandas
DataFrame
的RDD )上的Pandas
DataFrame
转
换为
跨所有worker节点的
Spark
DataFrame
。, and I am using some datetime """ return在完成熊猫处理后,我如何将其转<em
浏览 31
提问于2019-06-05
得票数 0
回答已采纳
1
回答
星火内部地图功能
、
,我希望能够在RDD2中访问RDD1中的值,例如:2.0和3.0是RDD1中相应的值RDD2.map(m => RDD1
HashMap
.get(m._2._1)) 是否有其他方法来实现这一点
浏览 1
提问于2014-06-23
得票数 2
回答已采纳
2
回答
在熊猫(python)中,能不能将星星之火(scala)转换成数据(Python)
、
、
、
Dataframe
是使用scala创建的。val someDF =
spark
.createDataFrame(
spark
.sparkContext.parallelize(someData), StructType(someSchema) )PySpark提供了.toPandas()来
将
火花数据转换成熊猫,但是scala(我可以找到)并没有对应的数据。
浏览 1
提问于2020-04-05
得票数 0
回答已采纳
1
回答
火花df、拼花物体和熊猫df之间的转换
、
、
在创建火花会话之后,我运行了以下代码
spark
_df.select('*').toPandas(我需要火花df和熊猫df的原因是,对于一些较小的
DataFrame
,我想很容易地使用各种熊猫EDA函数,但对于一些较大的,我需要使用火花sql。首先,把地板转向熊猫,然后再点燃df,这似乎有点迂回。
浏览 3
提问于2019-10-20
得票数 0
1
回答
如何在不使用javaRDD的情况下通过
dataframe
从hbase获取数据
如何在不使用javaRDD的情况下使用
dataframe
(
spark
sql)从Hbase获取数据。sqlContext = new SQLContext(jsc);
HashMap
<String, String> map = new
HashMap
<String, String>(); map.put("hbase.columns
浏览 4
提问于2017-05-12
得票数 0
1
回答
火花过滤器未按预期工作..“‘Column”对象不可调用
、
、
、
、
当在
Spark
Dataframe
上的过滤器中使用"and“子句时,它返回
Spark
.SQL.Column而不是
Spark
Dataframe
。但在一个条件下,它工作得很好。如何show()或迭代通过
Spark
Sql列对象?尝试show()函数时抛出错误- 'Column' object not callable.或者如何
将
Spark
.SQL.Column转
换为
Spark
Da
浏览 1
提问于2019-04-23
得票数 0
2
回答
如何
将
RDD[CassandraRow]转
换为
DataFrame
?
、
、
、
、
目前,我正在
将
Cassandrarow RDD转
换为
dataframe
:} 正如您所看到的,我首先将cassandraRow rdd转
换为
是否有其他选择和简单的方法
将
cassa
浏览 5
提问于2017-05-30
得票数 0
回答已采纳
6
回答
如何在
spark
中将rdd对象转
换为
dataframe
、
、
、
如何
将
RDD (org.apache.
spark
.rdd.RDD[org.apache.
spark
.sql.Row])转
换为
数据帧org.apache.
spark
.sql.
DataFrame
。我使用.rdd
将
数据帧转
换为
rdd。在处理之后,我想把它放回数据帧中。我该怎么做呢?
浏览 56
提问于2015-04-01
得票数 150
回答已采纳
1
回答
如何在pyspark中将DenseMatrix转
换为
spark
DataFrame
?
、
、
除了下面使用Scala的示例之外,我没有找到任何用于
将
矩阵转
换为
spark
dataframe
的pyspark代码。有人知道如何使用python吗?How to convert a mllib matrix to a
spark
dataframe
?
浏览 61
提问于2019-01-09
得票数 1
回答已采纳
1
回答
在jupyter笔记本中使用Seaborn时出错(Pyspark)
、
、
home/cloudera/Downloads/WA_Sales_Products_2012-14.csv', TypeError: object of type '
DataFrame
浏览 0
提问于2017-12-28
得票数 0
点击加载更多
相关
资讯
使用Spark将本地文件读取并封装为DataFrame的完整指南
将dataframe数据中的月份的英文名转换为数字月份,比如 ‘July’ 转换为'07?
怎样将mp4转换为flv?mp4转flv用它很方便!
将视频转换为gif用什么软件 视频转gif软件介绍
如何将图片文件转换为PDF文档-图片转PDF的方法分享
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
实时音视频
活动推荐
运营活动
广告
关闭
领券