腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
com.databricks.spark.csv
版本
要求
、
、
哪个
版本
的
com.databricks.spark.csv
兼容Spark 1.6.1和Scala2.10.5?
浏览 15
提问于2017-03-08
得票数 1
回答已采纳
1
回答
Spark Dataframe:行对象分隔符
、
、
提前谢谢。例如,假设我有3列 |-- field1: string (nullable = true) |-- field3
浏览 3
提问于2016-04-08
得票数 0
2
回答
在齐柏林飞艇中加入火花CSV依赖性
、
、
、
火花
版本
为1.6proxy = sqlContext.read.load("/user/zeppelin/ProxyRaw.csv",format="
com.databricks.spark.csv
", header="true",::java.lang.ClassNotFoundException:未能找到数据源:
com.databricks.spark.csv
。
浏览 4
提问于2016-11-03
得票数 2
2
回答
火花:将DataFrame写入CSV时出错
、
、
、
、
705)这是我使用的代码的简化
版本
DataFrame df = sqlContext.read().format("
com.databricks.spark.csv
") .option("avg(salary) as avgSalary FROM empTable GROUP BY department"
浏览 0
提问于2018-06-21
得票数 1
1
回答
如何将Pandas DataFrame保存到S3中
、
、
、
我使用Pandas模块在PySpark中工作,得到了Pandas DataFrame。我想将它作为csv保存在s3中的特定存储桶中。result_df.to_csv("s3n://id:pw@bucket_name/")
浏览 5
提问于2015-12-21
得票数 0
1
回答
内置提供者
com.databricks.spark.csv
未在SnappyData v.0.5.2中找到
SnappyData诉0.5.2但是,在从预览版v0.5移到v0.5.2之后,现在我无法从CSV加载数据了。SQLState=38000严重性=-1)SQLState=38000 ThreadDRDAConnThread_28,5,gemfirexd.daemons)在计算表达式时抛出异常“未能找到内置提供者
com.databricks.spark.csv
:CREATE TABLE STAGING_ROAD (ro
浏览 0
提问于2016-08-25
得票数 1
回答已采纳
1
回答
如何在spark中将数据帧转换为csv
、
、
如何在spark中将数据帧转换为csv
浏览 1
提问于2018-01-05
得票数 0
1
回答
如何在spark 1.6中将DataFrame保存为csv文件?
、
、
、
、
myDataFrame.registerTempTable("abc")a.show() # a.write.format("
com.databricks.spark.csv
浏览 2
提问于2017-04-17
得票数 1
回答已采纳
2
回答
如何将spark数据帧保存到HDFS上的csv?
、
、
、
、
Spark
版本
: 1.6.1,我使用pyspark API。3: df.coalesce(1).write.format('
com.databricks.spark.csv
').options(header='true').save('
浏览 0
提问于2017-08-11
得票数 5
1
回答
如何在pyspark中加载gzip压缩的csv文件?
、
、
、
文件名不是以.gz结尾的,我无法将它们改回,因为它们是与其他程序共享的。我试图指定格式和压缩,但找不到正确的键/值。例如,没有起作用。虽然Spark可以处理gz文件,但它似乎是通过文件名来确定编解码器。例如,如果文件以.gz结尾,将会起作用,但在我的例子中不是。
浏览 0
提问于2015-12-07
得票数 4
2
回答
连接Apache中的文件
、
我有这样的档案。code_count.csvAE,2,2008BX,1,2005HU,1,2003像这样的另一份文件。details.csvAE,Aerogon internationalCD,Classic Divide我想要每个代码的总和,但是在最后的输出中,我想要exp_code。像这样Bloomberg Xtern,4 Classic Divi
浏览 1
提问于2017-05-09
得票数 0
回答已采纳
3
回答
spark-shell中未加载CSV格式
、
、
、
、
使用spark 1.6,我尝试了以下代码:它导致了这个错误
浏览 6
提问于2020-04-29
得票数 1
1
回答
根据星火中的时间戳划分Parquet文件的最佳实践是什么?
、
我粗略的计划是: input = sqlContext.read.format('
com.databricks.spark.csv
').load(source, s
浏览 0
提问于2015-07-17
得票数 6
2
回答
SparkR df作为一列读取
、
、
当我以这种方式阅读它时:SparkR将其全部读取为一列
浏览 3
提问于2016-02-12
得票数 1
回答已采纳
2
回答
无法为dataframe添加数据写入中的“引号”
、
它
要求
所有字段都以“引号”为界。目前,该文件不包含在“引号”中。我正在使用Spark2.1.0DataOutputResult.write.format("
com.databricks.spark.csv
"). option("header", true)
浏览 4
提问于2017-04-14
得票数 1
回答已采纳
1
回答
“格式()”在火花放电中加载数据时做什么
、
我开始使用spark,通常在从云中加载数据时,我会看到以下代码我的问题如下:这里我们似乎有两个数据集:一个是
com.databricks.spark.csv
,因为它是一个csv但我的问题是,这个
com.
浏览 0
提问于2017-03-06
得票数 0
3
回答
ApacheSpark2.0 (PySpark) -为csv找到的多个DataFrame错误源
、
、
我正在尝试使用Spark2.0中的以下代码来创建一个dataframe。在执行木星/控制台中的代码时,我面临以下错误。有人能帮我解决这个错误吗? Py4JJavaError:调用o34.csv时出错。:java.lang.RuntimeException: csv (org.apache.spark.sql.execution.datasources.csv.CSVFileFormat,com.databricks.spark.csv.DefaultSource15的多个来源),请指定完全限定的类名。在scala.sys.package$.error(package.scala:27
浏览 1
提问于2018-06-16
得票数 2
回答已采纳
2
回答
将带有字符串的CSV文件读取到RDD spark
、
、
、
、
我输入的CSV文件如下111,rock,sf,"recently,promoted"那么,我如何阅读这篇文章并创建RDD呢?
浏览 1
提问于2017-04-06
得票数 0
1
回答
无法使用Scala将Dataframe中的日期字段写入csv
我使用的是Spark 2.0scala> tgt.write.format("
c
浏览 4
提问于2016-11-24
得票数 0
1
回答
DataFrameReadercsv(路径:字符串)选项,用于跳过空行
、
、
有吗?有跳过空行的选项吗?特别是作为最后一行的空行?
浏览 1
提问于2017-04-18
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spring Boot 2.4 版本的系统运行要求
美国技术伦理组织要求FTC阻止发布新的OpenAI GPT商用版本
微软发布Windows 11 Canary版本,引入SMB签名要求,加强安全性
StarkWare将推出Cairo 1.0版本,支持StarkNet的无许可网络要求
zkSync正在推出zkSync Node Beta版本,具有更简化的设置过程和更低的硬件要求
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券