腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
0
回答
使用
Spark
R
读取
json
文件
时
出错
、
、
我正在尝试
使用
SparkR学习教程。我会按照要求进行设置。但只要我尝试函数"read.
json
(path)“,我就会得到以下错误:我的Java被找到了吗?它是正确的版本吗?图像位于
R
studio中,左侧显示代码,右侧显示控制台结果:
浏览 3
提问于2016-12-31
得票数 0
1
回答
将
JSON
文件
从azure容器
读取
到数据块作为字典
、
、
、
、
我在Azure容器中有一个prefect
JSON
文件
,因为该
文件
是
使用
python字典创建的,我可以在dbutils的帮助下看到该
文件
,甚至可以按头
读取
它,但是head不能
读取
整个
文件
。
使用
spark
.read.
json
(file_path)将
JSON
格式的
文件
读取
为dataframe并抛
出错
误courrpt损坏。 我如何在D
浏览 1
提问于2022-05-23
得票数 0
回答已采纳
1
回答
使用
Pyspark将
文件
从一个目录移动到HDFS中的另一个目录
、
、
、
我试图从一个目录中
读取
所有
JSON
文件
,并
使用
下面的代码将它们存储在中。(效果很好) 但是,当
浏览 1
提问于2021-01-18
得票数 0
回答已采纳
1
回答
从本地计算机
读取
数据
时
出现(PySpark)问题
、
当我
使用
pyspark从我的计算机
读取
数据(DAT
文件
-4 Gb)
时
,一切正常,但当我
使用
pyspark从本地计算机(我公司的其他计算机通过LAN连接)
读取
数据
时
,出现以下错误: '‘Py4JJavaError:调用o304.csv
时
出错
。用法: java.io.IOException:方案没有FileSystem : null '‘ Error picture 如果我
使用
pandas.read_
浏览 26
提问于2020-10-28
得票数 0
1
回答
在scala中
读取
文件
时
获取不兼容的jackson版本
、
、
、
我正在尝试
使用
下面的代码
使用
scala
读取
一个简单的
json
文件
然而,我在读它的时候
出错
了由: com.fasterxml.jackson.databind.JsonMappingException:不兼容杰克逊版本: 2.11.2引起的 "org.apache.<
浏览 5
提问于2022-08-24
得票数 0
3
回答
如何在Apache
Spark
中处理变化的拼图模式
、
、
、
、
,但同一列在其他
文件
中可能具有null值
时
出现,这些值随后被推断为字符串类型。
JSON
数据也被划分为日期,即键具有日期前缀。
读取
JSON
工作得很好。无论当前正在
读取
多少数据,都会从数据中推断出模式。 但是当编写拼图
文件
时
,问题就出现了。据我所知,当我
使用
元数据
文件
编写parquet
时
,这些
文件
包含了parquet
文件
的所有部分/分区的模式。在我看来,这也
浏览 0
提问于2016-12-02
得票数 24
回答已采纳
2
回答
Pyspark中的
JSON
文件
解析
、
、
、
我尝试
使用
以下代码解析
JSON
文件
sqlContext = SQLContext(sc)df.printSchema()| [ 1.34, 0...|
浏览 0
提问于2017-01-09
得票数 5
回答已采纳
2
回答
如何在从
json
创建dataframe
时
不推断架构?
、
、
、
我不希望在从一组jsons创建数据帧
时
推断出inferSchema = 'false'模式,但我不能像从csv中
读取
时
那样传递。下面是我
读取
数据的方式: df =
spark
.read.
json
(
r
's3://mypath/')
浏览 5
提问于2017-12-12
得票数 4
回答已采纳
1
回答
使用
Spark
2.4与
Spark
3
读取
多个
JSON
文件
、
、
我不得不从Azure数据湖中
读取
一堆
JSON
文件
。我
使用
Databricks,当我
使用
Spark
2.4.5的集群
时
,我能够
读取
所有的
文件
,但当我
使用
Spark
3.0.1
时
,返回的数据帧是空的。我正在
使用
以下命令, dfa =
spark
.read.
json
("dbfs:/mnt/abc/
浏览 32
提问于2021-05-14
得票数 0
1
回答
如何将对象从S3桶加载到RStudio中的星火中?
、
、
、
、
为了将对象转换为数据,我
使用
了get_object("link to bucket path")。但这会导致记忆问题。因此,我在RStudio中安装了
Spark
2.3.0,并试图将该对象直接加载到
Spark
中,但是直接将对象加载到
Spark
中的命令不为人所知。library(sparklyr) library(dplyr) sc <-
spark
_connect(master = "local") 如果我将对象转换为可读的数据类型(例如数据帧/tbl
浏览 2
提问于2018-07-30
得票数 0
回答已采纳
1
回答
避免解析
Spark
中的
json
子字段
、
、
我有一个带有复杂模式的
json
文件
(见下文),我正在
使用
Spark
读取
这些
文件
。我发现一些字段在源数据中是重复的,因此
Spark
在
读取
过程中抛出了一个错误(正如预期的那样)。这在
Spark
中是可能的吗?
浏览 31
提问于2021-11-17
得票数 0
3
回答
如何从Azure Databricks将
JSON
写入Azure队列
、
、
我正在尝试从BLOB
读取
JSON
文件
,并将该
文件
写入Azure队列。
读取
部分运行良好,但在写入时会抛
出错
误。file_type="
json
" "fs.azure.account.key."+storage_account_name+".blob.core.w
浏览 0
提问于2019-10-30
得票数 2
1
回答
火星雨-胶3.0版,更新星火3.0 : 1582-10-15之前的阅读日期或1900年前的时间戳-01-01T00:00:00Z
、
、
升级到Glue 3.0后,在处理rdd对象
时
出现了以下错误 调用o926.javaToPython
时
出错
。由于
Spark
3.0的升级,您可能会得到不同的结果:从Parquet
文件
读取
1582-10-15之前的日期或1900-01-01T00:00:00Z之前的时间戳可能是模棱两可的,因为这些
文件
可能是由
Spark
2.x或传统版本的Hive编写的,后者
使用
的遗留混合日历与
Spark
3.0+的支持性公历不同。您可以将<
浏览 32
提问于2022-05-12
得票数 0
1
回答
无法
使用
spark
从多行
json
字符串或JSONL字符串创建数据帧
、
、
、
、
以下是我在
spark
-shell中尝试的内容val jsonEx = "{\"name\":\"James\"}{\"nameStructType().add("name", StringType) // 1st attempt -- using multiline and
spark
浏览 17
提问于2020-12-23
得票数 0
2
回答
Pyspark发出将tsv
文件
加载为数据
文件
的问题。
、
下面的数据作为标签分隔格式的.txt
文件
存储在blob存储中。我
使用
pyspark.sql将数据作为pyspark.sql.df加载到databricks中。 [ (203, 'bar'), mySche
浏览 8
提问于2020-04-11
得票数 1
2
回答
使用
作为
JSON
文件
提供的模式创建dataframe
、
、
、
我如何用2个
JSON
文件
创建一个吡火花数据框架?file1 :该
文件
具有完整的数据file2:该
文件
只有file1数据的架构.{"RESIDENCY":"AUS","EFFDT":"01-01-1900","EFF_STATUS":"A
浏览 4
提问于2020-03-06
得票数 2
1
回答
将sqoop压缩的snappy数据
文件
读入数据帧中
、
、
、
、
我
使用
Cloudera VM 5.8
读取
sqoop导入的Avro
文件
时
出错
,
使用
snappy编解码器压缩sc=SparkContext(conf= conf) sqlc = SQLContex
浏览 2
提问于2017-06-26
得票数 0
1
回答
在不更改旧模式的情况下
读取
pyspark中的
json
文件
、
、
我每天都收到带有10个属性的
json
,但有些日子,如果任何属性没有值,他们就会发送9个属性,而第10个属性在
json
中没有。如何在不更改旧表模式的情况下
读取
pyspark中的
json
文件
浏览 8
提问于2019-05-26
得票数 0
4
回答
用ApacheSpark-`corrupt_record`阅读
JSON
、
、
我有一个
json
文件
,nodes,如下所示:,{"508172.075,195325.719],"index":3} ,{"toid":"osgb4000000031043208","point":[508513,196023],"
浏览 9
提问于2016-08-11
得票数 27
回答已采纳
3
回答
星星之火数据格式:
读取
具有重复列名但数据类型不同的
json
、
、
、
、
之前只需要file_1,所以我用现在,我需要阅读这两种类型的多个
json
文件
,它们结合在一起。示例df输出只需1读-1 | null | 202 | 2 | 12 我尝试
使用
mergeSchema选项进行
读取
,但这使得stats字段字符串类型。此外,我还尝试通过对version字段的
浏览 6
提问于2020-06-24
得票数 3
点击加载更多
相关
资讯
使用Spark将本地文件读取并封装为DataFrame的完整指南
Spark之SparkSQL
Apache Spark 2.4 内置的 Avro 数据源实战
教程:Apache Spark SQL入门及实践指南!
Spark SQL,DataFrames 以及 Datasets 编程指南
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券