腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7623)
视频
沙龙
1
回答
从
CSV
加载
Spark
v3
中
的
纯
文本
日期
、
、
、
、
我正在尝试摄取一个非常基本
的
CSV
文件,其中包含Apache
Spark
中
的
日期
。复杂性在于被拼写出来
的
月份。出于分析目的,我希望将这几个月作为
日期
。("dateFormat", "MMMM YYYY") .load("my.
csv
");
Spark
并不喜欢我使用
的
dateFormat。它给了
浏览 7
提问于2021-09-02
得票数 1
回答已采纳
2
回答
使用pyspark
从
csv
文件上传自定义架构
、
、
、
、
我有一个关于使用pyspark将模式
加载
到cdsw上
的
问题。我有一个使用
csv
文件创建
的
数据帧大多数变量
的
数据类型都读错了我知道模式应该是什么样子
的
。 有没有办法,我也可以
从
csv
文件中
加载
浏览 0
提问于2021-04-21
得票数 0
2
回答
如何使用
Spark
-Scala
从
网上下载
CSV
文件?
、
、
世界,目前,我依赖shell命令
中
的
curl来获取
CSV
文件。下面是我想要增强
的
语法:This script should load FB prices from Yahoo.Demo:
spark
-shell -
浏览 2
提问于2016-09-25
得票数 5
1
回答
将
csv
读入包含时间列
的
hdfs将不起作用
、
我想将一个带有时间列
的
csv
读入hadoop,在hadoop
中
,时间列将作为字符串读入。val
spark
: SparkSess
浏览 0
提问于2019-07-25
得票数 0
1
回答
表格
中
不同值类型
的
蜂窝
CSV
Serde格式
、
、
CSV
文件包含以下混乱格式
的
用户调查,并包含许多不同
的
数据类型,如string、int、range。下面的代码用于将
CSV
文件转换为一个Hive表,每个列都正确地分配了它们各自
的
值。" = "\\" STORED AS TEXTFILE; LOAD DATA LOCAL INPATH "/home/cloudera/survey/2016edited.
csv
所有Select查询都会
浏览 1
提问于2018-02-08
得票数 0
1
回答
根据特定
的
列划分
Spark
Dataframe,并将每个分区
的
内容转储到
csv
上
、
、
我使用SMAC1.6.2JavaAPI在Dataframe DF1
中
加载
一些数据,如下所示:A v1B
v3
现在,我需要根据列"Key“
中
的
值子集对DF1进行分区,并将每个分区转储到
csv
文件
中
(使用
spark
)。期望产出:Key ValueA v2B.
csv
B
浏览 1
提问于2016-11-19
得票数 2
回答已采纳
2
回答
如何
加载
大型
csv
文件,验证每一行并处理数据
、
、
、
、
我希望验证
csv
文件
的
每一行,该文件有6亿多行,最多有30列(解决方案必须处理该范围内
的
几个大型
csv
文件)。必须保存每个验证规则
的
结果,然后再显示。一旦数据被验证,第二阶段
的
验证规则将被应用,这一次基于和,平均…。还必须保存每条规则
的
结果。 我要用火花
浏览 0
提问于2018-04-23
得票数 1
2
回答
Pandas to
CSV
列数据类型
、
、
我正在使用Pandas和SQL Alchemy
从
SQL导入数据。其中一个SQL列是datetime。然后我将SQL数据转换成一个Pandas dataframe,
日期
时间列是“datetime64”--这很好。我可以使用Matplotlib根据datetime绘制我
的
任何其他列。然后,我使用以下命令将我
的
熊猫数据帧转换为
csv
:这是为了避免我每次登录时都不得不运行一个相当大
的
sql查询。如果我随后尝试将
浏览 1
提问于2020-07-23
得票数 2
1
回答
Spark
中
从
rdd到Dataframe
的
模式推断
、
、
、
这个问题是()
的
参考。我正在尝试推断
从
rdd到Dataframe
的
模式,下面是我
的
代码 caseheader.split("\\|").map(column => StructField(column.split(":")(0), inferType(column), true))) val df =
spark
.
浏览 3
提问于2020-04-11
得票数 1
回答已采纳
8
回答
如何使用火花-
CSV
包在HDFS上只读取n行大型
csv
文件?
、
、
、
、
我在HDFS上有一个很大
的
分布式文件,每次我使用sqlContext和
spark
包时,它首先
加载
整个文件,这需要相当长
的
时间。df = sqlContext.read.format('com.databricks.
spark
.
csv
').options(header='true', inferschema='true').loaddf_n = sqlContext.read.format('com.databricks
浏览 4
提问于2017-05-31
得票数 20
回答已采纳
1
回答
如何使用
纯
spark
sql查询
CSV
、
我希望
从
spark
-sql CLI获得输出。但是数据在
CSV
中
,用"\t“分隔。有没有办法使用
纯
sql来做到这一点?cmd like:
spark
-sql -e 'select * from
csv
.`xxx` where xxx=xxx' 唯一
的
方法是先创建一个临时视图,然后再查询该视图?
浏览 33
提问于2020-09-18
得票数 1
1
回答
spark
3.1
中
的
日期
和inferSchema选项
、
、
、
我有一个带有
日期
列
的
CSV
文件,如下所示,----------2021-02-152021-04-22root但在火花3.1下面是输出。root我已经检查了
的
火
浏览 1
提问于2021-12-22
得票数 1
回答已采纳
4
回答
如何在Scala中使用Graph.fromEdgeTuples
从
CSV
文件创建图形
、
、
、
、
我是
Spark
和Scala
的
新手,我正在尝试执行一项简单
的
任务,即根据
文本
文件
中
的
数据创建一个图形。来自文档
的
v1
v3
v3</e
浏览 10
提问于2015-09-04
得票数 4
2
回答
火花读取
csv
文件及引号
我有一个
CSV
文件,它包含在双引号(")
中
的
数据。"0001“、"A”、"001“、"2017/01/01 / 12” .option("encoding", encoding) .option("h
浏览 1
提问于2017-07-24
得票数 7
回答已采纳
1
回答
Spark
sql优化技术将
csv
加载
到hive
的
orc格式
、
、
、
、
嗨,我有90 GB
的
数据在
csv
文件
中
,我正在
加载
这些数据到一个临时表,然后
从
临时表到orc表使用select insert命令,但转换和
加载
到orc格式
的
数据,它花了4个小时在火花sql.Is有任何一种优化技术,我可以用来减少这个time.As
的
现在我没有使用任何一种优化技术,我只是使用
spark
sql和
加载
数据
从
CSV
文件到表(
文本
格式),然后从这个临时表到
浏览 2
提问于2020-04-02
得票数 0
1
回答
为什么
Spark
在读取
文本
文件时将RDD ID增加2而不是1?
、
、
在使用
spark
-shell时,我注意到了一些有趣
的
事情,我很好奇为什么会发生这种情况。我使用基本语法将一个
文本
文件
加载
到
Spark
中
,然后简单地重复这个命令。REPL
的
产出如下:myreviews: org.apache.
spark
.rdd.RDD[StringReviews.
csv
&qu
浏览 0
提问于2018-11-29
得票数 0
回答已采纳
1
回答
使用星星之火
从
胶目录
中
读取,而不使用动态框架(胶水上下文)
、
、
、
、
由于我们
的
方案是常量
的
,所以我们使用
的
是
spark
.read(),这比在s3
中
存储数据时
从
选项创建动态框架要快得多 所以现在想要使用动态框架
从
胶水目录
中
读取数据需要很多时间,所以想要使用
spark
Dataframe.read.format
浏览 1
提问于2021-04-12
得票数 3
1
回答
[C++]:将数字数据写入ODS文件,ODS不将其视为数字
、
、
当我通过C++
中
的
ofstream将我
的
计算导出到一个ODS (Apache OpenOffice)文件时,数字会正确地显示在那里,但是我不能在这个特定
的
ODS文件中进行任何计算。例如,当我尝试添加(比如A1上
的
0.9191和A2上
的
0.5757 )时,=SUM(A1:A2)返回零。 1 0.11
浏览 4
提问于2016-09-15
得票数 0
1
回答
Spark
多字符分隔符写入写入
的
数据
中
不可打印
的
字符
、
、
我觉得
spark
2.3很有趣,还没有升级到更高
的
版本 df.select(df[headername]).write.format("
csv
,没有任何附加或转义
的
内容。SEGMENT":0} $ file testf
浏览 32
提问于2021-06-05
得票数 0
回答已采纳
1
回答
将Excel转换为
CSV
-正确转换
日期
字段
、
、
、
、
因此,我现在可以使用我
的
Excel2
CSV
函数了,但是遇到了另一个问题,即我
的
Excel
中
的
日期
字段(‘
日期
打开’,‘
日期
关闭’)被格式化为Excel
中
的
日期
,在转换为
CSV
(ex )时被写成一个整数值我想把那些
日期
写成
纯
文本
。5/ 1 /1995 -或-1995年5月1日,或类似的东西。人类可读
的
浏览 5
提问于2014-09-25
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
数据加载、存储与文件格式
如何在Weka中加载CSV机器学习数据
常见的MySQL数据库问题
excel从外部导入数据之如何导入文本文件数据?
pandas系列学习(三):DataFrame
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券