腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
将
字段转
换为
Ints、Doubles等。在中的Scala
、
、
我有一个任务,需要使用
spark
.read.
csv
()
将
csv
数据集加载到星火壳中,并完成以下任务://load the dataset as an
RDD
val dataRDD =
spark
.read.
csv
("block_1.<e
浏览 1
提问于2021-01-27
得票数 0
3
回答
如何用模式推理
将
RDD
[String]写到拼图文件中?
、
、
、
我的
Spark
Streaming作业需要处理
RDD
[String],其中字符串对应于
csv
文件的一行。我事先不知道模式,所以需要从
RDD
推断模式,然后将其内容写入parquet文件。如果我从磁盘中读取一个
csv
文件,我只需使用模式推断
将
所有内容加载到DataFrame中,并立即将其写入parquet。不过,在我的场景中,我的起点是一个
RDD
[String],它是流的结果。
浏览 5
提问于2017-06-14
得票数 2
3
回答
Spark
:
将
CSV
转
换为
RDD
[
Row
]
、
、
、
我有一个.
csv
文件,它包含258列,结构如下。. , "index_257"]val data_
csv
= sc.textFile("~/test.
csv
") 如果我以这种方式进行转换,我必
浏览 20
提问于2017-07-24
得票数 0
回答已采纳
1
回答
如何读取火花放电数据中以第二行为头的
csv
、
、
我正在尝试加载一个
csv
,并将第二行作为标题。如何实现这一目标。请让我知道。谢谢。file_location = "/mnt/test/raw/data.
csv
"delimiter = ","data =
spark
.read.format(file_type) \ .option("inferSch
浏览 4
提问于2020-02-21
得票数 2
回答已采纳
1
回答
转
换为
RDD
失败
、
、
我读取了一个包含两列的
CSV
文件。通过转
换为
RDD
循环访问Dataframe的元素。现在我想为每个元素创建一个DF。下面的代码失败。有谁能帮帮忙。val df1 =
spark
.read.format("
csv
").load("c:\\file.
csv
") //
CSV
has 3 columns for (
row
<- df1.
rdd
.collect
浏览 23
提问于2021-09-06
得票数 0
回答已采纳
3
回答
如何在
spark
scala中编写带有自定义分隔符(ctrl-A分隔)的dataframe/
RDD
文件?
、
、
、
),count("amount").as("cnt")).filter((length(trim($"student_id")) > 1) && ($"student_id").isNotNull)
将
结果保存到文本文件中grouped.select($"club_data", $"student_id_add", $"amount",$"cnt").
rdd
.saveAsText
浏览 34
提问于2018-01-03
得票数 0
回答已采纳
1
回答
无法解析重载方法“createDataFrame”
、
StructField("event_timestamp", StringType, true),)) .enableHiveSupport() .getOrCreate() var transaction=
spark
.createDataFrame
浏览 4
提问于2022-06-25
得票数 0
回答已采纳
1
回答
在一次保存中保存所有字典键
、
、
现在,为了将其输出到
csv
,我迭代了
rdd
的每个键,
将
字典列表转
换为
spark
.sql.
Row
的
rdd
,并从
rdd
创建数据帧,然后使用com.databricks.
spark
.
csv
将
每个数据帧保存到hdfs中的
csv
。city_
rdd
= city_
rdd
.map(lambda kv: kv[1]) # return only data wit
浏览 2
提问于2017-01-20
得票数 0
1
回答
从TSV文件创建DataFrames
、
、
、
到目前为止,我已经设法: 1)制作一个org.apache.
spark
.
rdd
.
RDD
[String]我可以平分:据我所知,我现在必须做一个RDDROW,我可以用以下方法将其转换成一个数据帧:但是我如何从
rdd
拆分转变为
浏览 0
提问于2018-03-16
得票数 0
2
回答
Scala :从
csv
读取具有空值的列的数据
、
、
我已经
将
csv
文件转
换为
数据帧,并想要显示它。(MapPartitionsRDD.scala:52)at org.apache.
spark
.
rdd
.
RDD
.iterator基本上,我尝试使用Scala和
Spark
从
csv
读取数据,其中的列具有空值。
浏览 1
提问于2021-03-25
得票数 0
1
回答
如何
将
列表转
换为
多列行
、
从
csv
文件创建一个DataFrame,处理每一行,希望创建一个具有相同列数的新行。val df =
spark
.read.format("
csv
").load("data.
csv
") val list| value||[X1, X2, X3]|+------------+ 输入文件data.
csv
浏览 1
提问于2019-11-05
得票数 1
回答已采纳
1
回答
(数组/ ML向量/MLlib向量)
RDD
到ML向量
、
、
、
、
我需要将
RDD
转
换为
单列o.a.s.ml.linalg.Vector DataFrame,以便使用ML算法,特别是这种情况下的K-方法。这是我的
RDD
: val parsedData = sc.textF
浏览 0
提问于2016-09-02
得票数 2
回答已采纳
2
回答
JavaRDD<String>到JavaRDD<
Row
>
、
、
我使用以下命令
将
txt文件读取为JavaRDD:现在,我想将其转
换为
JavaRDD,因为在txt我也试过这个:但是说我不能将map函数分配给"Object“
RDD
。
浏览 0
提问于2019-03-21
得票数 2
回答已采纳
1
回答
读取pySpark中的本地
csv
文件(2.3)
、
、
、
、
我使用的是pySpark 2.3,试图读取一个如下所示的
csv
文件:1,0.0008506156837329876,0.0008467260987257776pyspark import sql, SparkConf, SparkContext>> <property at 0x7f47583a5548> data_
rdd
=
spark
.textFile(name=tsv_d
浏览 2
提问于2018-07-11
得票数 1
回答已采纳
3
回答
斯帕克-Scala中将Dataset[
Row
]转
换为
RDD
[Array[String]]的最佳方法?
、
、
、
、
我正在创建一个火花数据集通过读取一个
csv
文件。此外,我需要将这个DatasetRow转
换为
RDD
[ArrayString],以便将它传递给FpGrowth(
Spark
)。val df: DataFrame =
spark
.read.format("
csv
").option("header", "true").load("/path/to/
csv
") val
浏览 8
提问于2021-01-08
得票数 3
回答已采纳
1
回答
Scala: GraphX: error: class数组接受类型参数
、
、
我正在尝试为GraphX构建一个Edge
RDD
。我正在读取
csv
文件并转
换为
DataFrame,然后尝试转
换为
Edge
RDD
: val edgeRDD:
RDD
[
浏览 43
提问于2018-03-06
得票数 0
回答已采纳
2
回答
"java.io.NotSerializableException: org.scalatest.Assertions$AssertionsHelper“
、
、
、
、
test(“This Fails“) { [info] at org.apache.
spark
.
rdd
.RDDOperationScopeorg.scalatest.F
浏览 7
提问于2017-02-07
得票数 11
回答已采纳
6
回答
如何在
spark
中将
rdd
对象转
换为
dataframe
、
、
、
如何
将
RDD
(org.apache.
spark
.
rdd
.
RDD
[org.apache.
spark
.sql.
Row
])转
换为
数据帧org.apache.
spark
.sql.DataFrame。我使用.
rdd
将
数据帧转
换为
rdd
。在处理之后,我想把它放回数据帧中。我该怎么做呢?
浏览 56
提问于2015-04-01
得票数 150
回答已采纳
1
回答
如何
将
csv
转
换为
标签点的
RDD
?
、
、
、
我想在
csv
中的数据集上执行决策树回归。我需要使用
RDD
来做这件事。我尝试了以下方法
将
dataframe转
换为
RDD
:pp_df = pp_df.
rdd
.map(lambda
浏览 1
提问于2018-11-15
得票数 0
4
回答
如何在磁盘上将
spark
DataFrame保存为
csv
?
、
、
例如,结果如下:
将
返回一个数组。如何在磁盘上将
spark
DataFrame保存为
csv
文件?
浏览 1
提问于2015-10-16
得票数 30
点击加载更多
相关
资讯
扩展RDD API三部曲之第二部自定义操作算子
Flume-Kafka-SparkStreaming实战2
我用Rust徒手重写了一个Spark,并把它开源了
大数据有道之spark选择去重
大数据有道之spark筛选去重
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券