腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
airflow
spark-submit
operator
-
无
此类
文件
或
目录
、
、
、
我正试着在空气中安排一个火花作业,这是我的达格,import
airflow
'
浏览 11
提问于2018-08-01
得票数 1
2
回答
提交从气流到外部火花容器的火花作业
、
、
我正在使用github中存在的以下图像气流:puckel/码头-气流(CeleryExecutor)Tra
浏览 0
提问于2018-09-24
得票数 2
3
回答
需要帮助运行火花-在Apache气流中提交
、
、
、
、
我的目标是使以下DAG任务成功运行from
airflow
import DAGfrom
airflow
.operators.bash_
operator
import BashOperator default_args =/
airflow</em
浏览 0
提问于2019-08-28
得票数 1
回答已采纳
1
回答
无法使用
Airflow
创建我的pyspark脚本的cron作业
、
、
我有一个pyspark脚本,它现在工作得很好,我想做的是,我想为每一分钟安排该作业,为此,我使用了Apache
Airflow
,我为
airflow
创建了一个.py
文件
,如下所示: from
airflow
import DAGfrom datetime import datetime, timedeltaimport os from builtins import range
浏览 24
提问于2019-04-08
得票数 0
1
回答
气流SparkSubmitOperator -如何触发-在另一台服务器中提交
、
、
我试过这个:from datetime import timedelta, datetimeSparkSubmitOperatorfrom
airflow
.modelscmd: ['
s
浏览 0
提问于2018-12-14
得票数 19
回答已采纳
2
回答
基于码头的Apache火花和Apache气流连接解决方案
、
、
我在插件
文件
夹下复制了spark_submit_
operator
.py。from
airflow
import DAG Traceback (most recent call last): File "/usr/local/
浏览 0
提问于2018-09-20
得票数 4
1
回答
无法从插件
文件
夹导入创建的包
、
、
、
_init__.py db.py --> get_primary_keys function _init_.py名称: pf-utils版本: 0.0.0摘要:未知主页:未知作者:
无
作者-电子邮件:
无
许可:未知位置: /home/
浏览 2
提问于2021-08-09
得票数 1
3
回答
Java ProcessBuilder开始在Linux中顺序执行多个命令
、
以下是我尝试过的方法:出现以下错误: ProcessBuilder processBuilder = new ProcessB
浏览 5
提问于2012-09-05
得票数 21
2
回答
tomcat7中的发布错误
、
(
无
此类
文件
或
目录
) /usr /share/tomcat7/backup/Catina.policy(
无
此类
文件
或
目录
)将
文件
复制到/usr/share/tomcat7/backup/catalina.properties:时出错/usr/share/tomcat7
浏览 1
提问于2012-01-14
得票数 4
1
回答
无法从plugins/
operator
文件
夹导入自定义气流操作符(
Airflow
v1.10.14)
、
'
airflow
|-- test_
operator
.py |-- __init__.pyDag
文件
内容:from
a
浏览 3
提问于2022-06-11
得票数 1
回答已采纳
1
回答
有没有办法在运行master的不同服务器上提交spark作业
、
、
我们需要安排spark作业,因为我们熟悉apache-
airflow
,所以我们想继续使用它来创建不同的工作流。我在网上搜索,但没有找到一步一步的指南,以安排spark作业的
airflow
和选项,以运行它们在不同的服务器运行主机。 对此问题的回答将受到高度赞赏。提前谢谢。
浏览 4
提问于2018-11-17
得票数 8
回答已采纳
2
回答
airflow
插件未正确拾取
、
我已经将钩子放在$
AIRFLOW
_HOME/plugins
目录
中。home__ubuntu__
airflow
__plugins_snowflake_hook2.SnowflakeHook2'>]因为这与文档中所说的一致,所以我应该可以在我的DAG中使用以下内容:from
airflow
.ho
浏览 2
提问于2018-04-18
得票数 5
1
回答
根据数据库的结果动态创建气流dags是否可行(也是一个好主意)?
我将在dag
文件
中运行一个查询,并创建一个如下列表:然后,我将根据列表的大小创建任务: sample_
airflow
_
operator
(name=i + '_
operator
') >> sample_
airflow
_
operator
(name=(i+1) +
浏览 2
提问于2021-06-03
得票数 0
1
回答
窗口“
无
此类
文件
或
目录
”
、
、
、
我还找到了这个帖子:,所以我尝试使用来自Bash脚本
目录
的相对路径,但它仍然说“没有这样的
文件
或
目录
”。
浏览 1
提问于2019-07-20
得票数 0
回答已采纳
2
回答
无
此类
文件
或
目录
异常
、
我打算在
文件
夹中归档4天的报告。在我的代码的开头,我有一行代码删除了5天前生成的报告的所有24个
文件
。我的变通办法是编写代码,它只在第一个小时运行时执行"delete“函数,但我认为这只是一个创可贴解决方案。
浏览 0
提问于2016-06-01
得票数 2
1
回答
如何在
Airflow
中将
文件
作为参数传递到SparkSubmitOperator
、
Spark提交命令
spark-submit
--class=com.test.App /home/ubuntu/app.jar /home/ubuntu/abc.properties 用于安排spark作业的
Airflow
脚本 from
airflow
import DAGfrom
airflow
.contrib.operatorsimport SparkSubmitOpera
浏览 134
提问于2019-01-04
得票数 0
回答已采纳
1
回答
MinTTY Unicode支持和构建错误
、
、
、
当我试图下载源代码并构建它时,我会得到无法解决的构建错误: Makefile:117: charset.d:
无
此类
文件
或
目录
Makefile:117: child.d.d:
无
此类
文件
或
目录
Makefile:117: config.d:
无
此类
文件
或
目录
Makefile:117: ctrls.d:
无
此类</
浏览 6
提问于2011-06-18
得票数 0
回答已采纳
2
回答
Airflow
没有为
airflow
_home
目录
中的
目录
命名的模块
、
我正在尝试使用DAG
文件
夹中的包。
airflow
_home
目录
的当前状态为:
airflow
_home/
airflow
.dbhello_world.py有代码:from
airflow
import DAG fro
浏览 1
提问于2017-08-20
得票数 15
1
回答
如何从使用KubernetesPodOperator启动的pod访问Google Cloud Composer的数据
文件
夹?
、
、
、
Cloud Composer makes available到所有DAG一个用于存储应用程序数据的共享
文件
目录
。
目录
中的
文件
驻留在由Composer管理的Google Cloud Storage存储桶中。Composer使用FUSE将
目录
映射到其所有
Airflow
worker pods上的路径/home/
airflow
/gcs/data。在我的DAG中,我运行了几个Kubernetes pod,如下所示: from <e
浏览 20
提问于2021-11-04
得票数 2
1
回答
在kubernetes集群中星火作业位置-没有这样的
文件
错误
、
、
我试图将星火应用程序提交给Kubernetes集群,作业
文件
位于:/opt/ Spark / application / path,使用以下命令提交spark:--conf spark.driver.memory=2g \ local:///opt/spark/applications/spark_submit_test_jo
浏览 0
提问于2018-10-22
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券