腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
PySpark
爆炸
array
<
map
<
string
,
string
>>
、
、
、
我正在尝试分解格式为
array
>的列。在DataBricks中使用
PySpark
。数据如下所示: root |-- employment_status:
array
(nullable = true)| |-- element:
map
(containsNull = true) | | |-- value:
string
浏览 71
提问于2021-10-23
得票数 0
回答已采纳
2
回答
pySpark
array
<
string
> !=
string
;
、
、
我试图从包含列表中单词的数据行中提取:下面是粘贴我的代码:from
pyspark
.sql.functionsimport col, udffrom
pyspark
.sql.types import IntegerType(`sentence` IN ('Java', 'Spark')
浏览 3
提问于2021-06-16
得票数 2
回答已采纳
2
回答
Scala如何将
Array
[
Map
[
String
,
String
]]转换为
Map
[
String
,
Map
[
String
,
String
]]
、
、
我希望将这些地图放在另一个地图中,就像这样: columnSchema -> {zipCode->address } 所以它应该是
Map
[
String
,MapString,
String
] 我一开始是这样做的: columns.split(",").
map
(_.split(":")).
map
(x=>
Map
(x(1)->x(0))) 我得到的是:
Array
[scal
浏览 92
提问于2021-04-30
得票数 0
1
回答
使用复杂列(
Array
<
Map
<
String
,
String
>> )为
Array
<
Map
<
String
添加新列
、
、
我使用以下模式从外部源加载Dataframe: |-- B: timestamp (nullable = true) |-- METADATA:
array
(nullable = true) | | |-- M_4:
stri
浏览 2
提问于2019-11-02
得票数 1
1
回答
如何将
map
<
string
,
string
>转换为
map
<
string
,timestamp>
PySpark
?
、
、
、
、
我有一个名为matchtimes的列,我想将它转换为
map
<
string
,timestamp>## Convert afrom
pyspark
.sql.types import *import json ifd: else: ret
浏览 7
提问于2022-07-14
得票数 0
1
回答
有没有一种方法可以使复杂的数据类型数组的结构不使用there函数而被夷平?
、
、
、
我正在尝试将
PySpark
中的一个复杂模式扁平化。数据太大,无法用于
爆炸
函数(我读到
爆炸
函数是一个非常昂贵的函数)。下面是我的模式- | |-- element:
array
(containsNull = true) | | | |-- B:
string
(nullable = true)
浏览 0
提问于2020-07-24
得票数 0
回答已采纳
1
回答
配置单元:将
array
<struct<key:
string
、value:
array
<
string
>>>转换为
map
<
string
、
array
<
string
>>
、
我有一张蜂窝桌,像这样address
string
timezone
string
one_key_value
array
<struct<key:
string
,value:
array
<
string
>>
浏览 0
提问于2018-10-18
得票数 2
1
回答
将
array
<
string
>转换为
string
pyspark
dataframe
、
、
、
、
我有一个
pyspark
dataframe,其中一些列包含字符串数组(其中一列包含嵌套数组)。因此,我无法将数据帧写入csv。| Null +-------+--------------------+---------+ 我对
pyspark
浏览 2
提问于2017-09-11
得票数 5
回答已采纳
1
回答
在PysparkSQL中
爆炸
JSON
、
、
、
我想
爆炸
一个嵌套的json到CSV文件。希望将嵌套的json解析为行和列。from
pyspark
.sql import SparkSessionfrom
pyspark
.sql.types import*from
pyspark
.sql import Row df=spark.read.option("multiline|
浏览 7
提问于2021-11-18
得票数 0
回答已采纳
1
回答
类型错配-数组[
Map
[
String
,
Array
[
Map
[
String
,Long]
val rawFacets:
Array
[
Map
[
String
,
Array
[
Map
[
String
,Long]]]] = response.getFacetFields.asScala.
map
(facetGroup=> { val values = facetGroup.getValues.asScala.
map
(facet=> { <e
浏览 2
提问于2018-05-10
得票数 0
回答已采纳
2
回答
普雷托:将
array
<struct<key:
string
,value:
array
<
string
>>>注入
map
<
string
,
array
<
string
>>
、
、
我有一张桌子address
string
timezone
string
one_key_value
array
<struct<key:
string
,value:
array
<
string
>>
浏览 4
提问于2018-10-25
得票数 7
1
回答
爆炸
阵列-(数据阵列)
pySpark
、
、
、
<
array
<float>>"))然后我将应用一个udf来创建另一个DF。但是我不能转换数据或者应用
爆炸
,而且我收到了错误
pyspark
.sql.utils.AnalysisException: u"cannot resolve 'cast(merged as
array
<= df.withColumn("merged&
浏览 6
提问于2016-10-18
得票数 5
回答已采纳
2
回答
Apache :无法将分组数据保存为CSV
、
、
、
java.lang.Thread.run(Thread.java:748) File "/usr/hdp/current/spark2-client/python/
pyspark
answer, self.gateway_client, self.target_id, self.name) File "/usr/hdp/current/spark2-client/python
浏览 1
提问于2018-05-15
得票数 1
回答已采纳
1
回答
Map
<
String
,dynamic> to
Map
<
String
,
Map
<
String
,
String
>> in Dart
我正在尝试将
Map
<
String
,dynamic>转换为
Map
<
String
,
Map
<
String
,
String
>>
Map
<
String
,
Map
<
浏览 3
提问于2021-02-17
得票数 0
回答已采纳
1
回答
将JSON键值爆出到新行
、
、
、
、
null|我试过的是: explode只适用于
Array
浏览 0
提问于2020-05-26
得票数 2
回答已采纳
3
回答
在Scala中将CSV读入
Map
[
String
,
Array
[
String
]]
、
给定以下格式的csv,将其作为类型
Map
[
String
,
Array
[
String
]]加载到Scala中的最佳方式是什么,第一个键是Col2的唯一值,值
Array
[
String
]]是Col1的所有共现值[
String
]] 此外,我还获得了关于case None => mapping ++ (linesplit(2) ->
Array
(linesplit(1)))行的overloaded methodvalue ++ with alterna
浏览 31
提问于2019-09-12
得票数 0
2
回答
用
Array
<
Map
<
String
,
String
>>列读取Parquet文件
、
、
、
、
我使用Dask读取由
PySpark
生成的Parquet文件,其中一列是字典列表(即
array
<
map
<
string
,
string
>>')。
浏览 2
提问于2019-07-14
得票数 4
回答已采纳
1
回答
如何在
PySpark
中使用Scala接受
Map
[
String
,
String
]
、
、
、
、
根据来自的讨论,我能够从scala代码中为基本类型执行UDF,但我想从接受MapString字符串的
PySpark
调用scala。[
String
,
String
]) :
String
= { // use the
Map
key and value pair} def testUDFFunction2 = udf { x:
Map
[<
浏览 5
提问于2022-08-19
得票数 0
回答已采纳
2
回答
用
Map
<
String
,
Map
<
String
,
String
>> JavaFX填充
Map
<
String
、
、
我的数据地图是
Map
<
String
,
Map
<
String
,
String
>>。第一个键是一个状态名称,值是映射,其中键作为变量,值作为变量值。> column : table.getColumns()) { TableColumn<ObservableList<
String
>,
String
> col = (TableColumn= FXCollections.observableArray
浏览 2
提问于2018-02-20
得票数 0
回答已采纳
1
回答
如何将Hive中的
Array
[Struct[
String
,
String
]列类型转换为
Array
[
Map
[
String
,
String
]]?
、
、
、
、
我在蜂巢表里有一列:数据类型: | |-- element: struct (containsNull= true) | | |-- value:
string
(nullable = true)sqlContext.sql("select * from <tablename> where id='1234
浏览 9
提问于2016-04-26
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
好程序员大数据教程分享Scala系列之Option
改变习惯性 !=null 的判断,只需一秒
Java实现一个简单的Json解析器(一)
与python同类不同道之perl简记
Spark 核心编程RDD 行动算子
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券