腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(132)
视频
沙龙
2
回答
Spark
structured
streaming
-
如何将
字节
值
排队
到
Kafka
?
、
、
我正在编写一个使用结构化流媒体的
Spark
应用程序。该应用程序从卡夫卡主题topic1读取消息,构造新消息,将其序列化
到
Array[Byte],并将其发布
到
另一个卡夫卡主题topic2。序列化
到
字节
数组很重要,因为我使用了一个特定的序列化程序/反序列化程序,topic2的下游使用者也使用该序列化程序/反序列化程序。 不过,我在制作
Kafka
时遇到了麻烦。我甚至不确定如何做到这一点……网上只有很多关于JSON数据
排队
的例子。val outputMess
浏览 38
提问于2020-09-11
得票数 0
回答已采纳
1
回答
Apache
Spark
与
Kafka
的集成
、
、
、
我正在学习Udemy上关于
Kafka
和
Spark
的课程,我正在学习apache
spark
与
Kafka
的集成 下面是apache
spark
的代码 SparkSession session = SparkSession.builder-- https://mvnrepository.com/artifact/org.apache.
spark
/
spark
-
streaming
--> <!--
浏览 26
提问于2020-09-25
得票数 4
回答已采纳
1
回答
将
Kafka
0.8.2.1集群中的数据镜像
到
Kafka
2.2.0集群
、
我想使用Apache
Spark
Structured
Streaming
和
Kafka
,
Spark
Structured
Streaming
支持
Kafka
0.10及更高版本,我的
Kafka
集群使用
kafka
我想将当前
kafka
0.8.2.1集群中的一些主题复制
到
基于2.2.0的新
Kafka
集群中。为此,我尝试在
Kafka
2.2.0集群上使用
浏览 17
提问于2019-05-23
得票数 1
1
回答
可以在没有HDFS的情况下使用
Spark
Structured
吗?
我经常使用HDFS和
Kafka
,我注意
到
Kafka
比HDFS更可靠。所以现在使用
Spark
-
structured
-
streaming
,我很惊讶检查点只有HDFS。用
Kafka
来勾点会更快更可靠。那么,有没有可能在没有HDFS的情况下使用
spark
structured
?奇怪的是,我们只能在
Kafka
中将HDFS用于流数据。
Spark
2.4.7 谢谢
浏览 39
提问于2021-05-07
得票数 2
1
回答
使用结构化流式协议的Apache
Kafka
、
、
我正在尝试编写一个使用结构化流媒体的
Kafka
消费者(一个protobuf)。让我们调用protobuf as,它应该在Scala中反序列化为
字节
数组(ArrayByte)。我尝试了所有我能在网上找到的方法,但仍然不能正确地解析消息A 方法1:在集成指南(https://
spark
.apache.org/docs/2.2.0/
structured
-
streaming
-
kafka
-integration.html)中,我应该将
值</
浏览 6
提问于2019-09-24
得票数 0
回答已采纳
1
回答
是否有可能让火花结构化流(更新模式)写入数据库?
、
、
我使用
spark
(3.0.0)结构化流从
kafka
读取主题。因此,我的问题是:在我的情况下,
如何将
流数据写入数据库或文件?我是否必须将数据写入
kafka
,然后使用
kafka
连接将数据读回文件/db? 附注:我跟踪了这些文章以获得aggregated流查询。stackoverflow.com/questions/62738727/how-to-deduplicate-and-keep-latest-based-on-timestamp-field-in-
spa
浏览 5
提问于2020-09-16
得票数 0
1
回答
kafka
与Apache
spark
的集成
、
、
我正在学习apache
spark
与
kafka
的集成,这样当新消息到达
Kafka
的主题时,我的代码就可以自动运行。我也读过官方文档 https://
spark
.apache.org/docs/latest/
structured
-
streaming
-programming-guide.html 但我仍然对它的工作原理感到困惑结构化流媒体是
kafka
和
spark
java代码之间的桥梁吗?它是否一直在监听<
浏览 15
提问于2019-12-10
得票数 1
1
回答
Spark
结构化流使用多个查询的用例
、
、
、
、
Kaka主题定义为配置文件中的列表,每个
Kafka
主题都有一个目标表。val query1 = df.writeStream.start()
spark
.streams.awaitAnyTermination
浏览 2
提问于2020-11-06
得票数 1
回答已采纳
1
回答
如何打印流数据帧的DataSource选项(例如startingOffsets)?
、
、
怀疑他们可能没有正确的
值
。如何打印回以验证
spark
structured
Streaming
选项?val df = sparkSession .format("
kafka
") .option("
kafka
.bootstrap.servers", "host1:port1
浏览 30
提问于2021-03-02
得票数 0
回答已采纳
3
回答
面对NoClassDefFoundError错误的卡夫卡-火花结构化流媒体集成通过PySpark
、
、
、
、
我在用我配置了两个JARS(
spark
-sql-
kafka
-0-10_2.12-3.0.0-preview2.jar和
kafka
-clients-2.2.0.jar),并将其保存在$
SPARK
_HOME/jars文件夹中。当我试图查看来自
Kafka
服务器的数据的键,
值
(因为
Kafka
的数据以JSON格式以Key对表示)时,我面临
浏览 9
提问于2020-04-08
得票数 2
2
回答
添加配置参数-
spark
&
Kafka
:ack和压缩
、
、
我想向我的应用程序
spark
&
kafka
添加一些参数,以便将Dataframe写入主题
Kafka
。我在
spark
-
kafka
文档中没有找到ack和compression.codec .write .option("
kafka
.sasl.mechanism", Config.
KAFKA
_SASL_MECHANISM) .option("
浏览 39
提问于2019-06-21
得票数 1
1
回答
屏蔽来自
Kafka
流的数据
、
、
、
、
我使用
spark
Structured
来流式传输来自
kafka
的数据,它为我提供了以下模式的数据帧 Column Typevalue binarytopic stringoffset longtimestampType int
值
Colum是以二进制格式出现的
浏览 23
提问于2020-10-16
得票数 0
1
回答
如何在流式
spark
时抑制stdout 'batch‘?
、
、
、
/
kafka
_project' print("PySpark
Structured
Streaming
with
Kafka
Demo Application
spark
= SparkSession \ .appName("PySpark
Structured
Streaming
with <e
浏览 10
提问于2020-07-27
得票数 1
2
回答
如何在木星笔记本中使用PySpark时包含外部火花库
、
、
、
、
Streaming
's
Kafka
libraries not found in class path.--packages org.apache.
spark
:
spark
-
streaming
-
kafka
-0-8:2.3.0 ... 2., Artifact Id =
spark
-
streaming
-
kafka
-0-8-assembly, Version = 2.3.0.Then, include the jar in th
浏览 0
提问于2018-06-29
得票数 1
回答已采纳
1
回答
电火花中的卡夫卡"partition.assignment.strategy“
、
、
、
.appName("PySpark
Structured
Streaming
with
Kafka
Demo") \ .config("
spark
.jars", "/home/bupry_dev/development/
spark
_home/
spark
-2.4.7-bin-hadoop2.7/jars/
spark
-
streaming</
浏览 0
提问于2021-01-25
得票数 1
1
回答
如何从
Kafka
中读取JSON数据,并使用
Spark
结构流存储
到
HDFS?
、
、
我正在尝试从
Kafka
读取JSON消息,并使用
spark
structured
将它们存储在HDFS中。我遵循了示例,当我的代码如下所示时: .read \ .option("
kafka
.bootstrap.servers", "df.writeStream.format("json").option("checkpointLocati
浏览 43
提问于2018-07-25
得票数 1
1
回答
卡夫卡到pyspark结构化流,解析json为dataframe
、
、
我正在尝试使用火花结构化流(Sparkv2.2.0)来使用
kafka
提供的json数据。但是,我遇到了以下错误。pyspark.sql.utils.StreamingQueryException:‘缺少必要的配置“"partition.assignment.strategy”,它没有默认
值
。
spark
-submit --packages org.apache.
spark
:
spark
-sql-
kafka
-0-10_2.11:2.2.0 sparksstream.py 这是整个py
浏览 4
提问于2017-10-10
得票数 7
2
回答
使用HDFS存储的
Spark
作业
、
、
、
、
我有一个长期运行的
Spark
Structured
Streaming
Job,它运行在Google Cloud Dataproc上,使用
Kafka
作为源和接收器。运行一周后,我注意
到
它正在稳定地消耗所有100 GB的磁盘存储空间,将文件保存到/hadoop/dfs/data/current/BP-315396706-10.128.0.26-1568586969675=org.apache.
spark
:
spark
-<em
浏览 0
提问于2019-10-01
得票数 4
1
回答
Spark
结构流批量查询
、
、
我是第一次接触
kafka
和
spark
structured
streaming
。我想知道
spark
in batch模式是如何知道从哪个偏移量读取的?df =
spark
\ .format("
kafka
") \ .option("
kafka
.bootstrap.servers", broker) \startingOffsets", "earli
浏览 0
提问于2020-10-24
得票数 0
1
回答
如何使用MongoDB Sink集成
Kafka
和
Spark
Structured
、
、
、
、
我正在尝试将
Kafka
与
Spark
-
Structured
Streaming
集成
到
MongoDB Sink。如果我出错了,我需要帮助来纠正我的代码。集成了
Kafka
-
Spark
和
Spark
-Mongo。现在尝试集成来自
Kafka
-
Spark
-Mongo的管道 import org.apache.
spark
.sql.
streaming
.Trigger import com.mongo
浏览 48
提问于2019-04-15
得票数 1
回答已采纳
点击加载更多
相关
资讯
Spark Structured Streaming 入门学习:集成Kafka
如何将外部数据源与Spark集成?
Structured Streaming实现超低延迟
如何在Spark中处理结构化流式数据,如日志文件或传感器数据?
Spark 2.4 原生支持了avro,别再引用第三方库了
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券