腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
Spark
:
如何将
数据
帧
Array
[
String
]更
改为
RDD
[
Array
[
String
]]
arrays
、
scala
、
apache-spark
我以DataFrame
array
<
string
>的身份处理事务我想将其更
改为
RDD
[
Array
[
string
]],但是当我将其更
改为
RDD
时,它被更
改为
org.apache.
spark</e
浏览 14
提问于2017-01-11
得票数 1
0
回答
从
RDD
中提取
RDD
[(
Array
[
String
]) [(
String
,
Array
[
String
]) [
Spark
/scala]
scala
、
apache-spark
、
extract
、
rdd
我有这个问题,我有一个
RDD
[(
String
,ArrayString),我想从中提取一个包含按键分组的值的
RDD
[ArrayString]:val x :
RDD
[(
String
,
Array
[
String
]) = (a,
Array
[ "ta", "
浏览 1
提问于2017-06-06
得票数 0
1
回答
将
Spark
数据
帧
Array
[
String
]更
改为
Array
[Double]
scala
、
apache-spark
、
apache-spark-sql
我有一个
spark
dataframe,它的模式如下: df.printSchema() |-- word:
string
(nullable = true) | |-- element:
string
(containsNull = true) 我需要将其转换为以下模式: root|-- word:
string
(nullable = true) |-- vector: <e
浏览 70
提问于2021-04-08
得票数 1
回答已采纳
1
回答
Spark
:要转换为dataframe的
rdd
格式
scala
、
apache-spark
假设我有以下
rdd
:我想使用.write.format("com.databricks.
spark</em
浏览 0
提问于2016-09-28
得票数 0
1
回答
将包含BigInt的
RDD
转换为
Spark
数据
帧
scala
、
apache-spark
、
apache-spark-sql
、
spark-dataframe
、
scala-collections
嗨,我在
spark
1.6.3中工作。我有一个
rdd
,里面有一些BigInt scala类型。我
如何将
其转换为
spark
数据
帧
?是否可以在创建
数据
帧
之前转换类型?我的
rdd
:
Array
[(BigInt,
String
,
String
, BigInt, BigInt, BigInt, BigInt, List[
String
])] =
Array
(
浏览 0
提问于2017-10-12
得票数 1
2
回答
Scala中org.apache.
spark
.
rdd
.
RDD
[((
String
,Double),(
String
,Double))] to Dataframe
scala
我正在学习Scala/
Spark
。在Scala中,很少有groupby操作会导致下面的
rdd
。现在,我正在尝试将以下内容写入sql dataframe并将其保存在hadoop中。但是,在将其写入sql dataframe时,它会转换为
Array
[((
String
, Double), (
String
, Double))] =
Array
(((Veterans
浏览 14
提问于2018-02-25
得票数 0
回答已采纳
1
回答
将
spark
scala
数据
集转换为特定的
RDD
格式
scala
、
rdd
、
apache-spark-dataset
我有一个
数据
帧
,看起来像这样: +--------------------+-----------------++-, 12949, 71...| [1589]| |[12949, 12949, 71...| [11497]| evaluation_ds:org.apache.
spark
.sql.Dataset[docCompare] = [recommendations:
array
, relevan
浏览 31
提问于2019-03-02
得票数 0
回答已采纳
1
回答
Spark
:
如何将
rdd
.
RDD
[
String
]转换为
rdd
.
RDD
[(
Array
[Byte],
Array
[Byte])]
scala
、
hadoop
、
apache-spark
我正在使用
spark
读取压缩文件这为我提供了
RDD
[
string
]形式的
数据
。如何在scala中将其转换为
RDD
[(
Array
[Byte],
Array
[Byte])]?我在
spark
上使用terasort。Teravalidate需要
RDD
[(
Array
[Byte],
Array
[Byte])]格
浏览 3
提问于2016-10-26
得票数 0
1
回答
如何将
Spark
数组[(
String
,
Array
[
String
])]拆分为单个
rdd
scala
、
apache-spark
、
rdd
我想将下面的
RDD
分割成一个
RDD
(id,(all name same type))。>val test = rddByKey.map{case(k,v)=> (k,v.collect())} (45000,
Array
(Amit, Pavan, Ratan)), (10000,
Array
(Kumar, Venka
浏览 0
提问于2018-03-13
得票数 1
回答已采纳
1
回答
spark
和scala中的
RDD
到DataFrame
dataframe
、
scala
、
apache-spark
、
rdd
def main(args:
Array
[
String
]): Unit = { .builder() <e
浏览 5
提问于2022-10-19
得票数 0
回答已采纳
1
回答
星星之火:将dataframe转换为mllib矩阵
scala
、
apache-spark
、
apache-spark-mllib
我正在尝试转换一个巨大的
数据
帧
(100Mx20K)。由于
数据
分散在多个节点上,并且很难在驱动程序上收集,所以我想通过mllib矩阵进行转换。(
array
(matrixColumns:_*).as("arr")).as[
Array
[Int]].
rdd
.map{ case(arr, index) =>modified: val
rdd
= df.select(
Array
(matri
浏览 3
提问于2022-09-04
得票数 0
回答已采纳
2
回答
将文本文件加载到
Spark
上下文时跳过缺少字段的行
scala
、
apache-spark
、
csv
我需要将一个制表符分隔的文件加载到
Spark
上下文中。但是,有些字段缺少值,我需要过滤掉这些行。我正在使用下面的代码。但是,如果完全缺少该字段(例如,行中少了一个制表符),则此代码将抛出异常。val
RDD
= sc.textFile("file.txt").map(_.split("\t")).filter(_(1).nonEmpty) .filter
浏览 14
提问于2016-08-10
得票数 0
回答已采纳
2
回答
如何处理
spark
中的错误
SPARK
-5063
scala
、
apache-spark
我在println行得到错误消息
SPARK
-5063 println(m.lookup(x(i)))}D是
RDD
[
Array
[
String
]],m是
RDD
[(
String
,
String
)]。或者
如何将
d从
RDD
[
Array
[
String
]]转换为
Array
[
Str
浏览 0
提问于2015-04-23
得票数 10
回答已采纳
1
回答
DataFrame :将列中的数组转换为
RDD
[
Array
[
String
]]
apache-spark
、
dataframe
、
apache-spark-sql
给定一个
数据
帧
:|key| value||foo| bar|+---+----------+val transactions:
RDD
[
Array
[
String
]] = df.select("value").<
浏览 14
提问于2017-01-29
得票数 0
回答已采纳
1
回答
从
RDD
元组中提取嵌套值
apache-spark
以下代码片段: import org.apache.
spark
.sql.functions.input_file_name .
rdd
val
rdd
2 =
rdd
.map(line => (line._1, line._2.split(","))) 返回:
rdd</e
浏览 28
提问于2019-05-21
得票数 1
回答已采纳
2
回答
如何将
kafka流转换为
spark
RDD
或
Spark
Dataframe
scala
、
apache-spark
、
apache-kafka
、
spark-streaming
我试着从Kafka加载
数据
,成功了,但我无法转换为
spark
RDD
,val offsetRanges =
Array
( ) val ssc = new StreamingContext(new SparkConf, Seconds(60)
浏览 1
提问于2016-02-03
得票数 2
1
回答
Spark
2.3:读取
rdd
.map()中的
数据
帧
scala
、
dataframe
、
apache-spark
我希望使用.map()遍历
RDD
的每一行,并希望在映射函数中使用
数据
帧
,如下所示: val
rdd
= ... //
rdd
holding seq of ids in each row .map { case Row(listOfStrings: Seq[
String</em
浏览 13
提问于2021-01-17
得票数 0
回答已采纳
3
回答
斯帕克-Scala中将Dataset[Row]转换为
RDD
[
Array
[
String
]]的最佳方法?
scala
、
apache-spark
、
apache-spark-sql
、
rdd
、
apache-spark-dataset
我正在创建一个火花
数据
集通过读取一个csv文件。此外,我需要将这个DatasetRow转换为
RDD
[ArrayString],以便将它传递给FpGrowth(
Spark
)。val df: DataFrame =
spark
.read.format("csv").option("header", "true").load("/path/to/csv") val ds: Dataset[Row] = df.group
浏览 8
提问于2021-01-08
得票数 3
回答已采纳
1
回答
如何在scala中实现avro到GenericRecord的
数据
帧
转换
scala
、
apache-spark
我陷入了将avro
数据
帧
转换为GenericRecord/ByteArray的困境,在那里我在google上冲浪,他们为我提供了相反的解决方案。有人尝试过在scala中将AVRO
RDD
/Dataframe转换为GenericRecord或ByteArray吗?它会像这样返回给我
数据
帧
。res0: org.apache.
浏览 4
提问于2017-10-16
得票数 0
1
回答
无法在星火中将数组
RDD
隐藏到列表
RDD
中
apache-spark
如何将
ArrayString
RDD
转换为ListString
RDD
?scala> val linesRDD = sc.textFile("/user/inputfiles/records.txt") scala&g
浏览 4
提问于2016-08-25
得票数 2
回答已采纳
点击加载更多
相关
资讯
Spark 核心编程RDD的使用(1)
万字长文,Spark 架构原理和RDD算子详解一网打进!
Spark应用数据分片介绍
Spark 核心编程RDD 行动算子
英雄惜英雄-当Spark遇上Zeppelin之实战案例
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
语音识别
活动推荐
运营活动
广告
关闭
领券