腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2444)
视频
沙龙
1
回答
将
大型
spark
数据
帧
从
databricks
写入
csv
失败
、
、
、
、
我在
databricks
中处理大的
spark
数据
帧
,当我试图
将
最终的
数据
帧
写入
csv
格式时,它给了我以下错误: org.apache.
spark
.SparkException:作业已中止。(df,schema=mySchema1) df.write.
csv
("dbfs:/mnt/entracermount1
浏览 40
提问于2019-11-29
得票数 4
1
回答
在Scala中将SQL表直接
写入
文件
、
、
团队成员,我正在处理Azure
databricks
,我可以使用以下选项
将
数据
帧
写入
CSV
文件: df2018JanAgg.option("header", "true") .save("dbfs:/FileStore/output/df2018jan
浏览 28
提问于2019-10-04
得票数 1
2
回答
在Pyspark (
Spark
2.1.1)中,
将
数据
帧
写入
磁盘花费了不现实的长时间
、
、
除了
写入
磁盘之外,所有其他操作(读取、联接、过滤、自定义UDF)都可以快速执行。我尝试保存的
数据
帧
的大小约为400 gb,具有200个分区。sc.getConf().getAll()我正在尝试使用以下命令进行保存: df.repartition(1).write.
csv
("out.
csv
我的一位同事提出了这样一个事实,即我们的服务器中的磁盘可能对并发
写入
有限制,这可能会减慢速度,但仍在对此进行调查。我想知道其他人
浏览 1
提问于2017-11-28
得票数 1
1
回答
如何在
databricks
中使用pyspark
将
所有行
数据
从
spark
dataframe获取到文件
、
、
、
我正在尝试
从
spark
dataframe中获取所有行
数据
到
databricks
中的一个文件中。我能够用很少的计数
将
df
数据
写到文件中。我可以在不跳过
数据
的情况下,
将
完成的
数据
从
dataframe加载到文件中。我已经创建了一个udf,udf
将
打开文件并将
数据
附加到其中。我在
spark
sql df中调用了该udf。
浏览 1
提问于2020-09-30
得票数 0
2
回答
使用sparkR合并
大型
数据
集
、
、
我想知道与“常规R”相比,sparkR是否可以更容易地合并
大型
数据
集?我有12个
csv
文件,大约500,000行乘40列。这些文件是2014年的月度
数据
。我想为2014年创建一个文件。当我运行这段代码时:library(magrittr)sqlContext
浏览 2
提问于2016-01-12
得票数 1
1
回答
使用
spark
进行
spark
数据
帧
写入
-
csv
失败
、
、
我正在尝试使用pysparkn和
spark
-
csv
将
spark
数据
帧
写入
s3,使用以下代码 .withColumnRenamed("x",'a')\ .write\
浏览 3
提问于2015-12-24
得票数 0
1
回答
将
数据
帧
写入
CSV
-
Spark
1.6
、
、
我正在尝试
将
pyspark
数据
帧
写入
CSV
。我用的是
Spark
1.6,我正在尝试这样的东西:df.write.format('com.intelli.
spark
.
csv
).save('mycsv.
csv
')和df.write.format('com.
databricks
.
spark
.
csv
这些代码总是会给出类似于java.lang.Class
浏览 0
提问于2020-03-18
得票数 0
2
回答
Databricks
:转换
数据
框并导出为xls / xlsx
、
对于
Databricks
:转换
数据
帧
并导出到xls / xlsx并保存到blob存储中是可能的吗?使用Python
浏览 41
提问于2019-09-30
得票数 0
4
回答
databricks
:
将
spark
数据
帧
直接
写入
excel
有没有办法把
spark
数据
帧
直接写成xls/xlsx格式?但是我想使用
spark
dataframe来处理我的
数据
。有什么想法吗?
浏览 0
提问于2019-11-29
得票数 5
2
回答
将
文本文件加载到
Spark
上下文时跳过缺少字段的行
、
、
我需要将一个制表符分隔的文件加载到
Spark
上下文中。但是,有些字段缺少值,我需要过滤掉这些行。我正在使用下面的代码。但是,如果完全缺少该字段(例如,行中少了一个制表符),则此代码
将
抛出异常。
浏览 14
提问于2016-08-10
得票数 0
回答已采纳
9
回答
Spark
-如何在没有文件夹的情况下编写单个
csv
文件?
、
、
假设df是
Spark
中的一个
数据
帧
。
将
df
写入
单个
CSV
文件的方法是这会将
数据
帧
写入
名为name.
csv
的文件夹中包含的
CSV
文件,但实际的
CSV
文件将被命名为类
浏览 8
提问于2017-04-27
得票数 38
1
回答
如何在pyspark中将重复列名的
数据
帧
写入
csv
文件
、
、
、
如何在join操作后
将
具有相同列名的
数据
帧
写入
csv
文件。目前,我正在使用以下代码。dfFinal.coalesce(1).write.format('com.
databricks
.
spark
.
csv
').save('/home/user/output/',header = 'true')将在“/home/user/outp
浏览 0
提问于2018-10-03
得票数 6
1
回答
如何用
数据
库
将
CSV
编写到Azure存储Gen2 (Python)
我想写reqular文件到存储,但我得到的是文件夹"sample_file.
csv
“和它下面的4个文件。如何
从
数据
帧
创建正常的
csv
文件到Azure存储Gen2? 我很高兴有任何建议或链接到文章。df.coalesce(1).write.option("header","true").
csv
(TargetDirectory + "/sample_file.
csv
")
浏览 0
提问于2020-12-01
得票数 1
2
回答
在
csv
文件中编写一个大的
、
、
、
我正在使用
Spark
2.3,我需要将一个保存到一个
csv
文件中,我正在寻找一种更好的方法来实现它。使用文件I/O直接
写入
csv
是更好的方式吗?它能保护分离器吗?使用df.coalesce(1).write.option("header", "true").
csv
('mycsv.
csv
')
将
导致在每个文件中
写入
标头,当文件合并时,头部将位于中间。我说错了吗?
从
性能角度
浏览 2
提问于2018-06-06
得票数 1
4
回答
如何在磁盘上将
spark
DataFrame保存为
csv
?
、
、
例如,结果如下:
将
返回一个数组。如何在磁盘上将
spark
DataFrame保存为
csv
文件?
浏览 1
提问于2015-10-16
得票数 30
1
回答
Spark
-
从
csv
文件创建
数据
帧
并删除该文件
、
我正在尝试
从
本地文件系统读取
csv
文件,
从
该文件创建
数据
帧
,删除该文件并返回该
数据
帧
。是的,我必须删除它。因为除了删除之外,所有的事情都是懒惰的,所以应用程序会
失败
,因为当代码执行时,它找不到文件。def do_something() : DataFrame { val file = File.createTempFile("query2Output", ".
csv
")/
浏览 7
提问于2017-03-14
得票数 1
回答已采纳
1
回答
在Scala中使用dataset创建
CSV
、
、
我已经
从
scala中的
数据
集创建了
CSV
文件。它正在创建
CSV
文件,但是它是0字节的。当通过dbutils.fs.head(
csv
_path)读取时,其给出的错误 "java.lang.IllegalArgumentException:无法指向目录:
csv
_path“ ```result_dataset.coalesce(1) .write.format("com.
databricks
.
spark
.
csv
&quo
浏览 35
提问于2020-10-15
得票数 0
3
回答
如何
将
数据
写入
Spark
中的单个(正常)
csv
文件?
、
、
、
我正在尝试
将
数据
帧
保存为本地驱动器中的
CSV
文件。但是,当我这样做时,我会生成一个文件夹,并在该分区文件中
写入
。是否有任何克服这一问题的建议?My Requirement:获取代码中给出的具有实际名称的普通
csv
文件。代码片段: dataframe.coalesce(1).write.mode("overwrite").format("com.
databricks
.
spark
.
csv
").opt
浏览 0
提问于2017-11-01
得票数 2
2
回答
从
azure
databricks
将
Dataframe
写入
/保存到azure文件共享
、
、
、
如何
从
azure
databricks
spark
作业
写入
azure文件共享。 我配置了Hadoop存储键和值。
spark
.sparkContext.hadoopConfiguration.set( df.coal
浏览 59
提问于2020-09-24
得票数 0
回答已采纳
1
回答
正在读取由Dataframewriter Pyspark
写入
的
Csv
文件
、
、
、
、
我使用以下代码
将
数据
帧
写入
CSV
:当我在客户端模式下运行
spark
时,上面的代码片段创建了一个名为avg.
csv
的文件夹,该文件夹在我的工作节点或嵌套文件夹中包含一些带有part-*.
csv
的文件,然后是文件part-* .
csv
。现在,当我尝试读取avg.<e
浏览 0
提问于2019-02-16
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何从Pandas迁移到Spark?这8个问答解决你所有疑问
Spark 2.4重磅发布:优化深度学习框架集成,提供更灵活的流式接收器
Apache Spark 2.4 内置的 Avro 数据源实战
成功从 Hadoop 迁移到 Lakehouse 架构的 5 个关键步骤
基于Azure 数据湖分析与U-SQL实现大数据查询处理
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券