腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(1625)
视频
沙龙
1
回答
如
何在
没有
Spark
Rest
API
的
Spark
中
监听
作业
进度
我已经创建了自己
的
spark
listener类来扩展SparkListener。我已经覆盖了onJobStart和onJobEnd方法。但是找不到一种方法来获得工作进展。我想要查看
作业
完成
的
百分比。我知道我可以通过
Spark
Rest
API
,但不幸
的
是我不能使用它。是否有其他方法可以获取
作业
进度
百分比?
浏览 9
提问于2017-06-21
得票数 2
回答已采纳
3
回答
如
何在
Spark
中
实现自定义
作业
监听
器/跟踪器?
、
我有一个类似下面的类,当我通过命令行运行这个类时,我希望看到
进度
状态。像这样
的
东西,30% completed... args[0], System.getenv("
S
浏览 1
提问于2014-06-28
得票数 14
1
回答
如何通过Powershell在HDInsight上提交
Spark
作业
?
、
、
、
有
没有
办法通过Powershell在HDInsight上提交
Spark
作业
?我知道这可以通过Azure Data Factory
中
的
活动来完成,但是有
没有
办法将python脚本从Powershell cmdlet提交到pyspark HDInsight?
浏览 3
提问于2017-06-22
得票数 0
1
回答
在Databricks Jobs
API
中
传递JVM参数
、
、
、
我想在Databricks中使用Jobs
API
将JVM参数传递给
REST
请求。有可能做到吗?任何提示都会有所帮助。 将类似-Dconfig-file=app.conf
的
内容添加到
spark
作业
。
浏览 7
提问于2020-02-28
得票数 1
3
回答
如
何在
不使用
spark
-submit
的
情况下触发
spark
作业
?实时代替批处理
、
、
我有一个
spark
作业
,我通常使用
spark
-submit和输入文件名作为参数来运行它。现在我想让工作对团队可用,这样人们就可以提交一个输入文件(可能通过一些web-
API
),然后
spark
作业
将被触发,它将返回给用户结果文件(也可能是通过web-
API
)。(我使用
的
是Java/Scala) 在这种情况下,我需要构建什么才能触发
spark
作业
?有什么教程吗?我应该在这种情况下使用
spark
浏览 0
提问于2015-06-16
得票数 0
2
回答
Spark
应用程序作为
Rest
服务
我有一个关于
spark
应用程序用法
的
问题。因此,我希望我们
的
Spark
应用程序作为
REST
API
Server运行,就像Spring Boot应用程序一样,因此它不会是批处理过程,相反,我们将加载应用程序,然后我们希望保持应用程序
的
活动状态(不调用
spark
.close()),并通过我们将定义
的
一些应用程序接口将应用程序用作实时查询引擎。我
的
目标是将其部署到Databricks。任何建议都是好
的
。
浏览 1
提问于2020-09-01
得票数 1
1
回答
如
何在
长期运行
的
星图
作业
中
监控
进度
和恢复?
我们使用
Spark
运行一个ETL进程,通过这个过程从一个庞大
的
(500+GB) MySQL数据库加载数据,并转换成聚合
的
JSON文件,然后写入Amazon。我
的
问题有两方面: 这项工作可能需要很长时间才能运行,很高兴知道映射是如何进行
的
。我知道星火有一个内置
的
日志管理器。它是否就像在每个地图中放置一个日志语句一样简单?假设这个庞大
的
作业
在中间失败(可能它会阻塞DB记录,或者MYSQL连接会下降)。在星火中有什么简单
的
方法可以从这里
浏览 0
提问于2018-08-01
得票数 1
回答已采纳
3
回答
纱线上
的
火花2.3.1 :如何通过程序监测阶段进展?
、
、
、
我已经设置了
Spark
在纱线上运行,我
的
目标是以编程
的
方式通过应用程序id获得星火
作业
进度
的
更新。 我
的
第一个想法是解析纱线GUI
的
HTML输出。然而,这种GUI
的
问题是,与火花
作业
相关
的
进度
条
没有
定期更新,甚至大部分时间都不会更改:当
作业
开始时,百分比大约是10%,并且它坚持这个值直到
作业
完成。因此,这样
的
纱
浏览 0
提问于2018-08-23
得票数 0
回答已采纳
4
回答
通过Web应用程序启动星火应用程序
的
最佳实践?
我想向web应用程序
的
用户公开我
的
星火应用程序。 we
浏览 2
提问于2016-10-28
得票数 31
2
回答
如何从web应用程序
中
利用
spark
集群?
很多人都问过这个问题,但除了链接和参考之外,
没有
明确
的
答案,而且大多数都不是最近
的
。问题是:我有一个web应用程序,需要利用
spark
集群来运行
spark
-sql查询。我
的
理解是,提交
作业
脚本是异步
的
,因此这在这里不起作用。我如
何在
这样
的
设置
中
利用
spark
?我是否可以像在自包含
的
spark
应用程序中一样,在web应用程序
中
编写
浏览 3
提问于2016-09-13
得票数 2
5
回答
如何通过火花
REST
获取所有
作业
状态?
、
我正在使用
spark
1.5.1,我希望通过
REST
检索所有
作业
状态。 我正在使用/
api
/v1/applications/{appId}得到正确
的
结果。但是,在访问
作业
时,/
api
/v1/applications/{appId}/jobs But “
没有
这样
的
应用程序:{appID}”响应。我应该如
何在
这里传递应用程序ID,以
浏览 18
提问于2015-11-03
得票数 7
2
回答
如何调用从
Spark
作业
调用
的
web服务?
、
、
我想调用一个web服务来获取
Spark
Structured Streaming
中
的
一些数据。有可能吗?多么?
浏览 0
提问于2019-12-07
得票数 5
3
回答
我们是否可以在执行程序上跨批处理使用缓存
的
RDD
、
、
、
、
我有一个案例,我想每隔一小时从远程存储下载一些数据,并将其作为键-值对存储在executor/worker上
的
RDD
中
。我想缓存这个RDD,这样将来在这个executor/worker上运行
的
所有
作业
/任务/批处理都可以使用缓存
的
RDD进行查找。这在
Spark
Streaming
中
是可能
的
吗?一些相关
的
代码或指向相关代码
的
指针会很有帮助。
浏览 1
提问于2016-09-20
得票数 2
4
回答
如何从命令行检查
Spark
应用程序
的
状态?
要检查Apache
spark
中正在运行
的
应用程序,可以从URL上
的
web界面进行检查:我
的
问题是,我们如何从终端检查正在运行
的
应用程序,有什么命令可以返回应用程序
的
状态吗
浏览 0
提问于2016-05-25
得票数 32
2
回答
使用
Spark
-
Spark
JobServer进行实时基于请求
的
推荐?
、
、
我们正在试图找到一种加载
Spark
(2.x) ML训练模型
的
方法,这样我们就可以根据请求(通过
REST
接口)查询它并获得预测,例如 有一些现成
的
库可以将模型加载到
Spark
中
(假设它是在使用MLWritable训练后存储在某个地方),然后将其用于预测,但由于SparkContext
的
初始化,将其包装在
作业
中
并在每次请求/调用时运行它似乎有些过分。经过一些挖掘,我们发现可以潜在地帮助我们解决这个问题,它允许我们为
作业
浏览 1
提问于2017-02-14
得票数 5
5
回答
如何从程序
中
获取
spark
作业
状态?
、
我知道hadoop
REST
API
通过程序提供对
作业
状态
的
访问。 同样,有
没有
办法在程序
中
获得
spark
作业
状态?
浏览 0
提问于2014-11-27
得票数 2
3
回答
如何获取当前SparkContext
的
jobId?
、
、
所有其他问题似乎都解决了
Spark
applicationId
的
获取问题。我想以编程方式取消需要jobId
的
spark
作业
。
spark
.sparkContext.cancelJob(jobId)
浏览 55
提问于2021-11-12
得票数 0
2
回答
找出
Spark
阶段每一步
的
执行时间
、
我如何才能找到
Spark
阶段
中
每一步
的
持续时间?我想弄清楚到底哪一步才是我工作
的
瓶颈。
浏览 0
提问于2016-09-05
得票数 2
1
回答
Apache livy for Dask分布式替代方案
、
、
Dask是一个纯粹
的
基于python
的
分布式计算平台,类似于Apache
Spark
。有
没有
办法通过
REST
API
运行和监控Dask分布式
作业
/任务,比如Apache Livy for Apache
Spark
?
浏览 41
提问于2021-09-26
得票数 1
1
回答
可以使用
spark
-submit -package广播Tensorflow库吗
、
我正在使用一个集群,它不是由我自己管理
的
。Tensorflow库未安装在任何群集节点上。但是我想使用tensorflow包来运行一些
Spark
程序。我不确定是否可以简单地使用
spark
-submit --packages来跨集群节点广播tensorflow包。
浏览 1
提问于2016-11-06
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券