腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
Scala
中
嵌套
JSON
到
dataframe
、
我
使用
Spark
/
Scala
来发出API请求,并将响应解析为
dataframe
。下面是用于测试目的
的
示例
JSON
响应: 但是,我尝试
使用
下面的来转
换为
JSON
,但是
嵌套
的
字段没有被处理。是否有任何方法
将
JSON
字符串转
换为
带有列
的
dataframe
?
浏览 16
提问于2022-08-22
得票数 0
1
回答
Spark
HiveContext获取与配置单元客户端选择相同
的
格式
、
当配置单元表有像映射或数组这样
的
值时,如果你在配置单元客户端选择它,它们会显示为
JSON
,例如:{"a":1,"b":1}或[1,2,2]。在
Spark
中选择这些对象时,它们是
DataFrame
中
的
贴图/数组对象。当我
使用
Spark
的
HiveContext时,我想
使用
与Hive客户端相同
的
格式。 我该怎么做呢?
浏览 1
提问于2018-07-20
得票数 0
1
回答
使用
databricks在
Spark
(
scala
)中生成带有属性和值
的
XML
、
、
、
、
我想在
scala
spark
中从CSV/
DataFrame
创建一个
嵌套
的
XML。我
使用
Databricks
spark
-XML库
将
DataFrame
转
换为
XML格式。我尝试创建如下所示
的
输出,但无法实现<row></row> <
浏览 15
提问于2018-02-23
得票数 0
回答已采纳
4
回答
在
Spark
流SQL中解析
嵌套
JSON
字符串列
、
、
、
我遵循星火流指南,并能够
使用
sqlContext.read.
json
(rdd)获取
json
数据
的
sql上下文。问题是,
json
字段之一是我希望解析
的
JSON
字符串本身。是否有一种方法可以在
spark
中完成这一任务,或者
使用
ObjectMapper解析字符串并将其连接到其他数据中会更容易吗?为了澄清,
JSON
的
一个值是一个字符串,其中包含带有转义内部引号
的
JSON
数
浏览 12
提问于2016-01-04
得票数 4
回答已采纳
1
回答
spark
_expect_jobj_class中
的
CSV文件创建错误
、
、
sc <-
spark
_connect(master = "local", config = conf, version = '2.2.0')sdf_schema_viewer(sample_tbl
浏览 0
提问于2018-09-10
得票数 1
1
回答
使用
Spark
/
Scala
将
嵌套
的
JSON
转
换为
DataFrame
、
、
、
我有一个
嵌套
的
JSON
,其中我需要转
换为
扁平化
的
DataFrame
,而不需要在其中定义或分解任何列名。val df = sqlCtx.read.option("multiLine",true).
json
("test.
json
") 我
的
数据看起来是这样
的
: [ "symbol": “TEST3
浏览 30
提问于2019-05-08
得票数 0
2
回答
重载方法值
json
与备选方案:(jsonRDD: org.apache.
spark
.rdd.RDD[String])在IntelliJ中
使用
火花
、
、
、
、
我正在尝试
将
JSON
字符串jsonStr转
换为
Scala
中
的
。为此目的
使用
InteliJ。
spark
.sparkContextvar df =
spark
.read.
json
(Seq(jsonStr).toDS)在
使用
错误:(243,29)重载方法值
json
:( org.apache.
spark</e
浏览 3
提问于2020-05-22
得票数 0
回答已采纳
1
回答
读取
json
列和直接数据值列
下面的语句满足了我
的
需要,但它只能在
spark
-shell中运行,而不能在
scala
程序中运行。
spark
.read.
json
(
dataframe
.select("col_name").as[String]).schema输出。 我有一个解决方案,
浏览 14
提问于2020-03-12
得票数 0
2
回答
在数据库中将XML字符串转
换为
Spark
Dataframe
、
、
、
如何从包含XML代码
的
字符串构建
Spark
dataframe
?"xml") .load(xml_file_name)) 但是,如前所述,我必须从包含常规XML
的
字符串构建数据帧
浏览 1
提问于2020-04-21
得票数 0
1
回答
尝试
使用
Spark
1.6 (WrappedArray)从
嵌套
JSON
中收集A值
、
、
、
我试图在
Dataframe
中转换
json
文件,但我被困在基于数组
的
字段中。我
使用
的
是
Spark
1.6和Java。当我读取
嵌套
的
Json
并转
换为
Dataframe
时,我可以读取一些字段,但当我尝试输入特定路径时,会显示错误。
DataFrame
df =
spark
.read().
json
(sc.wholeTextFiles("PATH&
浏览 29
提问于2019-09-11
得票数 0
1
回答
摧毁星火
DataFrame
、
、
、
、
我
使用
的
是火花和
Scala
。
Spark
版本
的
1.5和我正试图
将
具有名称值组合
的
输入数据name转
换为
一个新
的
数据name,其中所有的名称都被转
换为
列,并将值转
换为
行。I/P
DataFrame
:1 Country US 2 State NY 3 Country UK4
浏览 10
提问于2016-03-02
得票数 5
1
回答
在
Scala
中将
dataframe
转
换为
Map时出现编译器错误
我正在尝试
将
下面的
dataframe
: chunkMeta转
换为
scala
中
的
映射: tablename Codetable2 567 table3如果我打印上面的地图,我可以看到数据:
scala
> dataMap.foreach(println) => (table1,432)(table2,567)(table3,987) 但是当我把同样
的
scalaVersion := "2.11.8"
浏览 42
提问于2019-03-12
得票数 1
回答已采纳
1
回答
Spark
Scala
-
将
Dataframe
中包含XML
的
列转
换为
多列
、
、
我有一个包含两列
的
dataframe
,一个pk和一个xml字符串。我需要将xml字符串转
换为
此数据框中
的
列。需要将其转
换为
-05-01|8|
浏览 0
提问于2019-07-24
得票数 1
1
回答
使用
spark
流解析Event Hub复杂数组类型消息
、
、
、
、
我们
嵌套
了
json
消息,但无法解析相同
的
消息: {"Name":"Rohit","Salary":"29292","EmpID":12,"Projects":{"ProjectID":"9191","ProjectName":"abc","Duration":"79"},{"ProjectID&
浏览 19
提问于2021-04-06
得票数 1
回答已采纳
1
回答
星星之火(
Scala
):
将
JSON
字符串转
换为
dataframe
、
、
我希望
将
这个api
的
结果转
换为
一个
dataframe
在上面的代码中,我不能只调用结果。是否有任何方法
将
结果转
换为
dataframe
?
浏览 4
提问于2017-11-01
得票数 0
8
回答
如何在
Spark
2
Scala
中将Row转
换为
json
、
、
、
有没有一种简单
的
方法可以将给定
的
Row对象转
换为
json
? 找到了关于
将
整个数据帧转
换为
json
输出
的
内容:
Spark
Row to
JSON
但我只想把one Row转换成
json
。下面是我想要做
的
伪代码。 更准确地说,我
将
json
读取为
Dataframe
中
的
输入。我正在生成一个新
的
输出,它
浏览 150
提问于2017-01-12
得票数 10
回答已采纳
1
回答
在本地
使用
spark
/
scala
查询数据时,如何更改列中值
的
输出?
、
、
、
、
我
使用
spark
/
scala
本地
将
json
文件转
换为
dataframe
。 我当前
的
dataframe
有一个列‘男性’和‘女性’值,如下所示。我想将
dataframe
中
的
‘男性’更改为'M',以及
使用
Spark
-sql<code>E 215</code>
将
‘where’更改为'
浏览 5
提问于2021-07-19
得票数 1
2
回答
在熊猫(python)中,能不能将星星之火(
scala
)转换成数据(Python)
、
、
、
Dataframe
是
使用
scala
创建
的
。val someDF =
spark
.createDataFrame(
spark
.sparkContext.parallelize(someData), StructType(someSchema) )PySpark提供了.toPandas()来
将
火花数据转换成熊猫,但是
scala
(我可以找到)并没有对应
的
数据。
浏览 1
提问于2020-04-05
得票数 0
回答已采纳
1
回答
Derby
的
另一个实例可能已经启动了数据库/home/cloudera/metastore_db
、
、
、
我正在尝试
使用
Spark
将
普通文本文件加载到配置单元表格中。我
使用
的
是
Spark
版本2.0.2。我已经在
Spark
version: 1.6.0中成功地做到了这一点,我正在尝试在version 2x中做同样
的
事情,我执行了以下步骤:val partfile =
浏览 62
提问于2017-07-03
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券