腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
可以
使用
spark
-
avro
数据
源创建
Spark
应用程序并通过'
java
-jar‘执行它吗?
、
、
、
我有一个
java
应用程序,它
使用
spark
从各种
数据
源(hadoop、本地文件系统等)访问
数据
。各种格式(json、
avro
等)。")
Dataset
<Row>
dataset
=
spark
.format(FORMAT))只要我
使用
JSON作为“格式”,就没有问题。但如果将"JS
浏览 45
提问于2019-05-06
得票数 0
1
回答
基于ByteArrayInputStream
在
Java
中
创建DataFrame
、
、
、
我需要将以下转换为火花DataFrame
在
Java
与保存的结构根据
avro
模式。然后我将基于这个
avro
结构将它写到s3。
浏览 14
提问于2020-07-02
得票数 0
4
回答
由于AbstractMethodError,
spark
scala
avro
写入失败
、
我正在尝试从
avro
读取
数据
,按字段重新划分
数据
并将其保存为
avro
格式。下面是我的示例代码。
在
调试过程
中
,我不能在我的
数据
帧上显示(10)。它会失败,并显示以下错误。有没有人能帮我弄明白我
在
代码行
中
做错了什么?代码: val df =
spark
.read.format("
浏览 40
提问于2019-11-27
得票数 0
2
回答
Spark
2.4.1无法从HDFS
读取
Avro
文件
、
、
、
、
我有一个简单的代码块来编写,然后将
数据
读取
为
Avro
格式。由于
Avro
lib已经构建在
Spark
2.4.x
中
,
Avro
文件写入成功,
在
HDFS中生成文件。但是,当我
读取
文件时,会引发AbstractMethodError异常。有人能和我分享点光吗?我
在
我的Zeppelin节点簿
Spark
解释器
中
添加了org.apache.sight:S火花-
avro
_2.1
浏览 2
提问于2019-06-10
得票数 1
回答已采纳
1
回答
如何
使用
PySpark将csv文件转换为
avro
文件?
、
、
我
在
谷歌云平台上工作,我正在尝试
使用
Pyspark将csv文件转换为
avro
文件。我看过很多网站,但我还没能实现解决方案。提前谢谢你。:)
浏览 36
提问于2021-11-17
得票数 0
1
回答
Scala:
读取
火花结构化流
中
的Kafka
Avro
消息时出错
、
、
、
、
我一直
在
尝试阅读Kafka的
avro
串行化消息,这些消息来自于Scala2.11的火花结构化流(2.4.4)。为此,我
使用
了星星之火-
avro
(下面的依赖性)。再现错误的代码如下: 的问题是,我
在
python中
使用
confluent_kafka库,我
使用
spark
库
读取
星火结构流
中
的
avro
消息。Confluent_kafka库
使用
confluent的
avro<
浏览 0
提问于2020-02-29
得票数 2
回答已采纳
1
回答
如何用星火从csv文件
中
写入
avro
文件?
、
、
、
、
当我试图从csv文件创建的DF
中
编写
avro
文件时,我面临着一个NullPointerException: SparkSession\sparkCsvToAvro\\src\\main\\resources";
Dataset
<Row> csv>3.2.0</
spark
-
avro
浏览 7
提问于2017-05-09
得票数 0
回答已采纳
1
回答
在
java
中
使用
spark
dataset
读取
avro
数据
、
、
我是
spark
的新手,正在尝试
使用
java
加载
avro
数据
到
spark
'
dataset
‘(
spark
1.6)。我
在
scala中看到了一些示例,但在
java
中看不到。任何指向
java
中
示例的指针都会很有帮助。我尝试创建一个javaRDD,然后将其转换为“
dataset
”。我相信一定会有一条直截了当的道路。
浏览 1
提问于2016-08-22
得票数 1
3
回答
如何在PySpark
中
读取
Avro
文件
、
、
、
我正在写一个
使用
python的
spark
作业。然而,我需要读入一大堆
avro
文件。 是我
在
Spark
的example文件夹中找到的最接近的解决方案。但是,您需要
使用
spark
-submit提交此python脚本。
在
spark
-submit的命令行
中
,你可以指定driver- class,在这种情况下,所有的avrokey,avrovalue类都会被定位。="org.apache.
spark
浏览 5
提问于2015-04-21
得票数 14
回答已采纳
1
回答
星火from_
avro
() dataframe.show()错误
java
.lang.ArrayIndexOutOfBoundsException
、
、
、
、
我
使用
to_
avro
将dataframe字段转换为
avro
结构,然后
使用
from_
avro
返回,如下所示。最终,我想将
avro
有效负载流到kafka写/读。当我试图通过执行df.show()打印最终重转换的
数据
时,
java
.lang.ArrayIndexOutOfBoundsException出错了。df.printSchema显示架构正确。我
使用
的是
spark
2.4.0和Scala2.11 我做错什么了
浏览 0
提问于2020-06-15
得票数 5
2
回答
Spark
2.4.0AvroJava-无法解决方法from_
avro
、
、
、
我试图从一个包含
Avro
消息的kafka队列
中
运行一个火花流。 根据,我应该能够
使用
from_
avro
将列值转换为
Dataset
<Row>。但是,我无法编译这个项目,因为它抱怨找不到from_
avro
。我可以看到
在
package.class
中
声明的依赖项的方法。如何在本地from_
avro
代码中
使用
来自org.apache.
spark
.sql.
avro
的org.apac
浏览 0
提问于2019-03-06
得票数 5
回答已采纳
1
回答
Spark
:如何将
Avro
或Parquet文件作为
数据
集
读取
、
、
、
、
假设
Avro
和Parquet文件包含
数据
和该
数据
的模式,那么
在
Spark
中
,应该可以将这些文件作为
Dataset
而不是DataFrame
读取
。但我看到的所有源都是以DataFrame格式
读取
这些文件,而我找不到任何将这些文件作为
Dataset
读取
的方式。 有人知道如何将这些文件作为
数据
集
读取
吗?
浏览 0
提问于2018-05-21
得票数 0
1
回答
如何将
avro
文件
读取
为
Java
中
的对象列表
、
、
、
我有一个
avro
文件,
在
将它转换成它的代表对象之后,我想
读取
和操作它。我尝试
在
Java
中
使用
RDD和
DataSet
加载它,但在这两种情况下,我都无法转换为所需的对象
Dataset
<MyClass> input = sparkSession.read().format("com.databricks.
spark
.
avro
").load(input
浏览 1
提问于2020-01-22
得票数 1
回答已采纳
2
回答
用
数据
库从Azure
数据
湖
读取
avro
数据
--由Azure EventHubs捕获生成的EventHubs失败
、
、
、
、
我正在尝试从Azure
数据
湖Gen1
中
读取
avro
数据
,该
数据
是从Azure EventHubs生成的,Azure事件集线器捕获是
在
Azure
数据
库
中
启用的:rawData =
spark
.read.format("
avro
").load(inputdata) 以
浏览 3
提问于2019-12-01
得票数 1
回答已采纳
2
回答
Spark
流到配置单元,每个分区有太多小文件
、
、
、
、
我有一个
spark
流作业,批处理间隔为2分钟(可配置)。
dataset
.coalesce(1).write().mode(SaveMode.Append).insertInto(targetEntityName); 现在传入的
数据
并不是那么大,如果我将批处理持续时间增加
浏览 0
提问于2018-03-20
得票数 2
2
回答
在
Java
火花作业中
使用
avro
模式将
avro
数据
写入s3
、
、
我想
使用
提供的
Avro
模式,而不是
Spark
的自动生成模式,以
Avro
格式编写DataFrame。我如何告诉斯派克
在
写时
使用
我的自定义模式?
Dataset
d1 =
spark
.read() .option("avroSchema",String.valueOf(inAvroSchema)) .format("com.databricks.
spark
.
avro
") .opti
浏览 0
提问于2020-06-28
得票数 1
1
回答
在
SparkSQL中
使用
Avro
模式和Parquet格式进行读写
、
、
、
我正在尝试从SparkSQL
中
写入和
读取
镶木面板文件。出于模式演变的原因,我希望
在
写入和
读取
时
使用
Avro
模式。我的理解是,这在
Spark
之外(或在
Spark
内手动)是可能的,例如
使用
AvroParquetWriter和
Avro
的通用API。但是,我想
使用
SparkSQL的write()和read()方法(它们与DataFrameWriter和DataFrameReader一起工作),它们与Spar
浏览 1
提问于2017-01-04
得票数 5
1
回答
使用
C#向Azure事件中心发送
Avro
消息,然后
在
Databricks 7.2/ Scala3.0
中
使用
Scala结构化流进行反序列化
、
、
、
、
使用
较新的from_
avro
方法描述来反序列化事件消息的正文。,并且它在失败之前到达了笔记本
中
的流作业,而下面的堆栈跟踪表明
数据
格式错误。但是,我能够将生成的文件写入.
avro
文件,并
使用
普通的.read.format("
avro
")方法反序列化它。at org.apache.
spark
.sql.
Dataset
.withAction(
Dataset
.scala:3682) at org.a
浏览 3
提问于2020-09-18
得票数 1
回答已采纳
4
回答
在
Scala IDE
中
读取
spark
代码
中
的
avro
文件时出错
、
、
、
我通过
读取
avro
文件创建了一个
数据
框,但在scala IDE的
spark
应用程序
中
读取
该文件时出现错误。avroDF.count())
在
控制台上,给出以下错误: Exception in thread "main“
java
.lang.ClassNotFoundException:找不到
数据
源: org.apache.
spark
.sql.
avro
.AvroFileForm
浏览 22
提问于2020-05-28
得票数 0
2
回答
将列添加到星点
数据
集并转换
数据
、
、
我正在以火花
数据
集的形式加载一个拼花文件。我可以从查询
中
查询和创建新的
数据
集。现在,我想向
dataset
("hashkey")添加一个新列并生成值(例如md5sum(nameValue))。"); SparkSession
spark
= SparkSession.builder().appName("
Java
", "file:&
浏览 3
提问于2017-04-10
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Tensorflow的DataSet和Iterator读取数据!
教程:Apache Spark SQL入门及实践指南!
Apache Spark 2.4 内置的 Avro 数据源实战
java读取excel中的数据如何判断含有公式
使用 Python 读取电子表格中的数据
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券