腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Spark
结构化
流媒体
中
的
滞后
函数
、
我正在使用
Spark
2.3
结构化
流媒体
,并尝试使用“lag”功能。但是,看起来在
结构化
流
中
不支持lag。val output =
spark
.sql("SELECT temperature, time, lag(temperature, 1) OVER (ORDER BY time) AS PrevTempFROM InputTable")org.apache.
spark
.sql.AnalysisException: Non-tim
浏览 13
提问于2018-07-21
得票数 2
2
回答
如何获得
spark
结构化
流媒体
应用
的
kafka消费者
滞后
、
、
我正在为我
的
spark
结构化
流媒体
应用程序构建监控,并且需要获得
spark
应用程序消耗
的
某个主题
的
消费者
滞后
。我相信
spark
驱动程序一定知道这个延迟,因为它有执行器
的
所有元数据。我看不到任何方法可以从任何现有的
spark
文档或资源
中
获得这个指标。我检查了streaminQueryListener接口,但它
的
功能也很有限,因为我们只能从它获得每个查询
的</
浏览 0
提问于2020-03-27
得票数 2
2
回答
Spark
Structured Kafka偏移管理
、
、
、
我正在研究在kafka
中
存储kafka偏移量用于
Spark
结构化
流媒体
,就像它对DStreams stream.asInstanceOf[CanCommitOffsets].commitAsync(offsetRanges)一样,与我正在寻找
的
相同,但用于
结构化
流媒体
。它是否支持
结构化
流媒体
?如果是,我如何实现它?我知道使用.option("checkpointLocation", checkpointLocati
浏览 10
提问于2019-05-16
得票数 3
1
回答
如何将
spark
结构化
流数据写入REST API?
、
我想将我
的
spark
结构化
流式处理数据推送到REST API。有没有人可以分享一下相同
的
例子。我发现很少,但所有都与
spark
流媒体
有关,而不是
结构化
流媒体
。
浏览 14
提问于2019-01-18
得票数 1
1
回答
在
Spark
2.1
的
Spark
-kafka集成
中
,有多少个执行者被指派去听一个kafka话题?
、
、
我有一个
Spark
集群,总共有17个executors。我已经将
Spark
2.1与Kafka集成在一起,并从topic
中
读取数据,例如: .readStream .options(kafka.bootstrap.servers","localhost:9092") .load 现在我想知道,
浏览 0
提问于2018-09-05
得票数 2
1
回答
从
Spark
2.2到2.3
的
结构化
流媒体
有什么不同?
我在
Spark
2.3
的
发布说明中看到了
结构化
流媒体
的
公告/揭幕,但我知道它已经存在了一段时间了。由于一些依赖,我需要在系统实现中使用
Spark
2.2,但我也想开始将面向批处理
的
工作转移到流范例
中
。在没有
Spark
2.3
的
过程
中
,我是否遗漏了什么重要
的
东西,或者这仅仅是
结构化
流媒体
成为“官方”而不是实验性
的
发行版?
浏览 13
提问于2018-07-25
得票数 0
1
回答
Spark
流媒体
与
结构化
流媒体
、
、
在过去
的
几个月里,我使用了相当多
的
结构化
流媒体
来实现Stream Jobs (在使用了很多Kafka之后)。在阅读了“使用Apache
Spark
进行流处理”一书后,我有了这样一个问题:有没有什么要点或用例可以让我使用
Spark
流而不是
结构化
流?我是不是应该花点时间去了解它,或者既然我已经在使用
Spark
Structured Streaming了,我应该坚持使用它,并且之前
的
API没有任何好处。将非常感谢任何意见/见解
浏览 17
提问于2020-04-06
得票数 2
2
回答
是否可以直接将数据从Nifi发送到
Spark
结构化
流/Storm,而不丢失数据?
、
、
、
在我当前
的
场景
中
,Nifi收集数据,然后发送给Kafka。然后,任何
流媒体
引擎都会消耗卡夫卡
的
数据,并对其进行分析。在这种情况下,我不想在Nifi和
流媒体
引擎之间使用卡夫卡。例如,
结构化
流;如果我直接将数据从Nifi发送到
Spark
结构化
流,
Spark
收到了这些数据,但是
Spark
的
节点被关闭了。火花节点中
的
数据会发生什么变化?(
Spark
结构化</em
浏览 0
提问于2019-02-14
得票数 0
回答已采纳
1
回答
如何在
Spark
Streaming 2.3.1
中
将每条记录写入多个kafka主题?
、
、
如何在
Spark
Streaming 2.3.1
中
将每条记录写入多个kafka主题?换句话说,我有5条记录和两个输出kafka主题,我希望在两个输出主题中都有5条记录。问题没有谈到
结构化
的
流媒体
案例。我正在寻找
结构化
流媒体
的
具体。
浏览 16
提问于2018-07-23
得票数 1
1
回答
如何通过
spark
结构流在Kafka
中
以编程方式创建主题
、
、
我想在我
的
Spark
结构化
流媒体
应用程序
中
创建多个kafka主题运行时。我发现Java API中有各种可用
的
方法。但我找不到任何有
Spark
结构
的
流媒体
。我
的
apache
Spark
版本是2.4.4,Kafka库依赖是
spark
-sql-kafka-0-10_2.12
浏览 17
提问于2019-11-28
得票数 0
1
回答
如何处理JSON文档(来自MongoDB)并在
结构化
流
中
写入HBase?
、
、
、
我正在获取mongoDB文档,然后在处理之后,我想使用Bson.Document库将其存储到Hbase
中
在
结构化
流媒体
中
,我得到了DatasetDocument scala> val stream =
spark
.readStream.format("k
浏览 15
提问于2019-11-09
得票数 2
3
回答
Pyspark
结构化
流Kafka配置错误
、
、
、
、
我之前已经成功地使用了pyspark for
Spark
Streaming (
Spark
2.0.2)和Kafka (0.10.1.0),但我
的
目的更适合于
结构化
流媒体
。我尝试在线使用示例:ds1 =
spark
.format("kafka").option("partition.assignment.strateg
浏览 2
提问于2017-07-07
得票数 1
4
回答
Spark
Structured Streaming -比较两个流
、
我使用
的
是Kafka和
Spark
2.1
结构化
流媒体
。我有两个主题和json格式
的
数据,例如:{"id":"2","name":"mark"} {"name":"tom","age":"2
浏览 1
提问于2017-06-09
得票数 1
1
回答
如何使用
Spark
streaming将数据从Kafka插入到Kudu
、
、
、
我有一个可以收听Kafka主题
的
Spark
流媒体
应用程序。当获得数据时,我需要对其进行处理,并将其发送到Kudu。目前,我正在使用org.apache.kudu.
spark
.kudu.KuduContext API,并对数据框调用插入操作。为了从我
的
数据创建数据框,我需要调用collect(),以便可以使用sqlContext创建数据框。 有没有一种方法可以在不调用collect()
的
情况下创建数据帧/将数据插入到Kudu
中
?我们使用
的
是<e
浏览 7
提问于2018-08-08
得票数 1
1
回答
窗口(固定、滑动等)&
Spark
SQL DSL
中
的
水印支持
、
、
Spark
SQL ( DSL而不是API)是否支持
结构化
流
中
的
窗口功能?Flink
中
类似的内容如下所示: SELECT user, SUM(amount) FROM Orders GROUP BY TUMBLE(proctime, INTERVAL '1' DAY), user我在官方
结构化
流媒体
网站上找到
的
唯一SQL示例是下面的,其中没有窗口功能
的
示例: df.createOrReplaceTempView(&
浏览 24
提问于2019-03-08
得票数 0
2
回答
如何对
Spark
结构化
流媒体
进行单元测试?
、
、
我想了解一下
Spark
Structured Streaming
的
单元测试方面。我
的
场景是,我从Kafka获取数据,并使用
Spark
Structured Streaming使用它,并在数据上应用一些转换。 我不确定如何使用Scala和
Spark
来测试它。有人能告诉我如何使用Scala在
结构化
流媒体
中进行单元测试吗?我还是个
流媒体
新手。
浏览 3
提问于2019-07-05
得票数 2
2
回答
数据集阵列上
的
Spark
并行化
、
、
环境: Scala、
spark
、
结构化
流媒体
如果我在Scala Array(Dataset[Row])中有一个数据集
的
数组,我对使用处理Dataset[Row]对象
的
函数
并行处理感兴趣,那么通过map或foreach传递数组对象来利用
spark
集群
中
的
sparks并行性是否足够?
浏览 2
提问于2020-07-26
得票数 0
1
回答
kafka与Apache
spark
的
集成
、
、
我正在学习apache
spark
与kafka
的
集成,这样当新消息到达Kafka
的
主题时,我
的
代码就可以自动运行。我也读过官方文档 https://
spark
.apache.org/docs/latest/structured-streaming-programming-guide.html 但我仍然对它
的
工作原理感到困惑我有我
的
字数统计写
的
程序在java火花和另一边卡夫卡正在运行。
结构化</
浏览 15
提问于2019-12-10
得票数 1
2
回答
Amazon EMR和
Spark
streaming
、
、
、
、
Amazon EMR,Apache
Spark
2.3,Apache Kafka,每天约1000万条记录。Apache
Spark
用于以5分钟
的
时间批量处理事件,每天一次工作节点正在死亡,AWS自动重新配置节点。查看日志消息时,节点中看起来没有空间,但它们在那里有大约1Tb
的
存储。有没有人在存储空间应该足够
的
情况下遇到了问题?我应该提供什么样
的
信息来帮助解决这个问题? 提前谢
浏览 4
提问于2018-10-19
得票数 8
1
回答
如何在静态数据集上运行流查询?
、
、
当我将
结构化
流应用于静态数据集时,火花引擎将得到静态数据集
的
全部数据。在这种情况下,使用流处理静态数据集意味着什么?我所期望
的
是
结构化
流能够一次获得整个数据集
的
一部分,然后我在数据集中
的
这一部分上计算它,直到整个数据集被遍历。否则,使用
结构化
流和
spark
SQL处理静态数据集是完全相同
的
。对静态数据集使用
结构化
流
的
原因是静态数据集可能很大。我们希望使用
结构化
流来防止静态数据集上<
浏览 4
提问于2019-11-15
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何在Spark中处理结构化流式数据,如日志文件或传感器数据?
深度学习中的结构化概率模型 - 非结构化建模的挑战篇
Power Query中的结构化数据
一文读懂Apache Spark
flink和spark Streaming中的Back Pressure
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券