腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1062)
视频
沙龙
3
回答
带
检查点
火花流的中流转换配置
、
. context.start()在其中,我的上下文使用一个配置文件,
在
该文件中,我可以使用像appConf.getString所以我实际上用: appConf.getString("
spark
.checkpointDirectory如果我停止应用程序并更改应用程序文件中的配置,除非我删除
检查点
目录内容,否则不会获取这
浏览 7
提问于2016-04-25
得票数 3
回答已采纳
1
回答
如何使用结构化流
检查点
管理
HDFS
内存
、
、
我需要了解如何在
HDFS
中管理/清理
检查点
。 作业运行良好,我能够从
失败
的步骤中恢复,而不会丢失
数据
,但是,我可以看到
HDFS
利用率每天都在增加。我找不到任何关于
Spark
如何管理/清理
检查点
的文档。以前,
检查点
存储
在
s3上,但由于要读/写大量的小文件,这被证明是非常昂贵的。:///path_to_checkpoints") \
浏览 34
提问于2019-01-07
得票数 2
回答已采纳
1
回答
如何在Scala中读取
检查点
数据
、
我试图测试下面的程序,以获得
检查点
和读取如果从
检查点
位置,如果应用程序
失败
,因为任何原因,如资源不可用。当我杀死作业并重新触发它时,执行就会从头开始。不知道还需要什么才能做到这一点。谢谢!!._import org.apache.
spark
.sql.functions._ import org.apache.
spark
.SparkContextimport org.apache.
spark</em
浏览 5
提问于2020-06-05
得票数 5
回答已采纳
2
回答
在
spark
submit中将
hdfs
路径作为环境变量传递
、
、
、
我正在尝试使用
spark
submit
在
yarn集群上运行我的
spark
程序,我正在读取一个放在
hdfs
中的外部配置文件,我正在运行作业- ./
spark
-submit --class com.sample.samplepack.AnalyticsBatch --master yarn-cluster --num-executors 3 --driver-memory 512m --
executor
-memory 512m --
executor
-cores 1
浏览 2
提问于2015-04-15
得票数 1
1
回答
在
磁盘上保留RDD的情况下,
Spark
如何从
executor
丢失中恢复
、
有时,executors会迷失方向,
spark
(1.6)会因为错失源
数据
而发疯。在这种情况下,persist(磁盘)似乎可以帮助我。但我想知道,由于persist on disk使用非dfs位置来存储
数据
,远程执行器如何读取
数据
?或者,
在
YARN可以将执行器调度到特定节点之前,计算会停滞吗?也许我使用了错误的机制,rdd.checkpoint(
hdfs
://)在这里更合适?
浏览 2
提问于2017-03-20
得票数 1
2
回答
压缩批次9时IllegalStateException:_
spark
_metadata/0不存在
、
、
、
我们有使用
Spark
Structured实现的流应用程序,它试图从Kafka主题读取
数据
并将其写入
HDFS
位置。有时应用程序会
失败
,并出现异常:java.lang.IllegalStateException: 10) 我们
无法
解决此问题。我找到的唯一解决方案是删除
检查点
位置文件,这将使作业
在
我们再次运行应用程序时从头
浏览 0
提问于2019-05-31
得票数 6
2
回答
度量系统不识别应用程序jar中的自定义源/水槽
、
尽管我的自定义源/接收器
在
我的代码/胖jar中,但我
在
CustomSink上得到了CustomSink。
spark
.
executor
.extraClassPath =
hdfs
浏览 2
提问于2016-09-29
得票数 1
1
回答
不存在结构化流增量文件。
、
我正在运行scapk2.2.1结构化流,程序
在
一段时间
后
失败
,因为文件不存在,我
在
中找到
了这个,但是它不适用于me.And,所以我认为问题可能是
检查点
,我将代码更改为 Dataset<Row4730 bytes)19/01/24 10:50:22 WARN TaskSetManager: Lost task 4.0 in stage 13.0 (TID 976, 34.55.0.164,
executor
at org.apache.
浏览 1
提问于2019-01-28
得票数 4
3
回答
未能提交本地jar以激发集群: java.nio.file.NoSuchFileException
、
、
、
~/
spark
/
spark
-2.1.1-bin-hadoop2.7/bin$ ./
spark
-submit --master
spark
://192.168.42.80:32141 --deploy-mode cluster file:///home/me/workspace/myprojUsing
Spark
's default log4j profile: org/
浏览 4
提问于2017-06-20
得票数 6
4
回答
Kafka结构化流
检查点
、
、
我计划在
HDFS
中存储
检查点
。我读了一篇Cloudera博客,建议不要在
HDFS
中为
Spark
streaming存储
检查点
。结构流
检查点
也存在同样的问题吗?。
在
结构化流中,如果我的
spark
程序停机了一段时间,我如何从
检查点
目录中获取最新的偏移量,并在该偏移量之后加载
数据
。我将
检查点
存储
在
一个目录中,如下所示。option("checkpointLocation&quo
浏览 3
提问于2017-10-07
得票数 4
1
回答
由于新名称文件已存在,结构化流式kafka驱动程序重新启动
失败
,并出现
HDFS
文件重命名错误
、
、
我们正在使用
Spark
2.1中的结构化流式处理测试重新启动和故障转移。“
无法
将/user/
spark
/checkpoints/Structur
浏览 31
提问于2017-02-04
得票数 0
1
回答
第一次运行
后
不能更改火花执行器的核心数目。
我使用
Spark
2.1.0,
在
我的星火流应用程序中我注意到了奇怪的行为。
在
第一次运行时,我不能更改执行程序的核心数目。应用程序
在
星火独立群集上运行。
spark
.metrics.conf=/usr/lib/
spark
/conf/metrics_analytics.properties --class com.MyApp
hdfs
:///apps/app.jar--driver-mem
浏览 3
提问于2017-08-08
得票数 2
1
回答
我们正在使用
spark
hdfs
检查点
、
、
、
我们使用
Spark
2.4.3进行流处理。这是
在
AWS EMR上。电子病历中存在集群故障的可能性,因此我们决定定期将
数据
备份到S3。参考:User class threw exception: java.net.NoRouteToHostException我们
在
文本编辑器中打开了
检查点
文件。我们可以在那里找到存在的IP地址。 有没有办法让我们避免这种情况?
浏览 0
提问于2020-06-19
得票数 0
1
回答
从Kafka回放偏移
Spark
结构化流
、
、
、
我正在使用
spark
structured streaming (2.2.1)来消费来自Kafka (0.10)的主题。) .option("startingOffset", "earliest")我的
检查点
位置是在外部
HDFS
目录上设置的。
在
某些情况下,我希望重新启动流应用程序并从头开始使用
数据
。然而,即使我从
HDFS<
浏览 1
提问于2018-04-18
得票数 0
1
回答
火花-提交:--罐子不起作用
、
我正在为火花流作业构建度量系统,
在
系统中,每个执行者收集度量,因此需要在每个执行器中初始化度量源(用于收集度量的类)。PS:我尝试使用
HDFS
(将jar复制到
HDFS
,然后提交作业并让
executor
从
HDFS
的路径加载类),但
失败
了。我检查了源代码,似乎类加载器只能解析本地路径。下面是日志,您可以看到jar
在
2016-01-15 18:08:07被添加到类路径,但是初始化从2016-01-15 18:07:26开始。信息2016-01-15 18:08:07 org
浏览 4
提问于2016-01-15
得票数 5
2
回答
无法
使用
spark
-sftp api将
数据
帧写入目标sftp服务器
、
、
我正在尝试执行sftp,并将
数据
帧从
spark
-cluster写入到目标sftp服务器。代码
在
spark
-shell中运行良好,但当我使用scala代码部署我的jar时,它会
失败
,并显示以下错误: *Caused by: org.apache.hadoop.security.AccessControlException: Permission denied: user=abcuser, access=WRITE, inode="/":
hdfs
:supergr
浏览 14
提问于2019-09-04
得票数 2
1
回答
java.net.UnknownHostException:
hdfs
在
DCOS集群上的星火提交
失败
、
、
、
、
我
在
DCOS集群上以集群/rest模式运行一个
spark
-submit: $ .,http://api.
hdfs
.marathon.l4lb.thisdcos.directory/v1/endpoints/core-site.xml --conf
spark
.mesos.
executor
.docker.image://
hdfs
/history --conf
spark
.
ex
浏览 1
提问于2018-11-14
得票数 0
1
回答
火花结构化流
检查点
在生产中的使用
、
、
、
、
当使用
Spark
结构化流时,我难以理解
检查点
是如何工作的。我
在
HDFS
中创建了一个目录来存储
检查点
文件。
spark
浏览 7
提问于2020-07-08
得票数 3
1
回答
删除
spark
-structured-streaming写入的损坏拼接文件时会丢失
数据
吗?
、
、
、
我使用
spark
-structured-streaming作为消费者从kafka获取
数据
,按照指南参考https://
spark
.apache.org/docs/latest/structured-streaming-kafka-integration.html然后将
数据
保存到
hdfs
作为拼图文件。这是我的问题:程序运行良好,但一些容器很少
失败
(但它确实发生了),导致了一些损坏的拼接文件。它将导致错误,如不是拼图文件(长度太小: 4)或[
浏览 20
提问于2019-05-25
得票数 0
2
回答
丝上的星火是如何处理文件的?
我正在使用Yarn
在
Spark
中执行一个过滤器,并接收以下错误。任何帮助都很感激,但我的主要问题是为什么找不到文件。-aa00/05/merged_shuffle_1_343_1我可以配置存储混叠
数据
的位置吗?:99) at org.apache.
spark
.scheduler.Ta
浏览 3
提问于2015-07-08
得票数 10
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
【云原生】Spark on k8s 讲解与实战操作
Spark:必知必会的基本概念
SparkStreaming&Kafka——Receiver方式
Kafka 遇上 Spark Streaming
Zzreal的大数据笔记-SparkDay01
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券