首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何在远程环境中使用savepoint运行Flink作业?

在远程环境中使用savepoint运行Flink作业,可以按照以下步骤进行操作:

  1. 确保你已经在远程环境中安装和配置了Flink,并且已经启动了Flink集群。
  2. 在本地环境中,使用Flink命令行工具或者Flink Web UI提交一个作业,并生成一个savepoint。Savepoint是一个作业的中间状态,可以用于在失败后恢复作业的状态。
  3. 在本地环境中,使用Flink命令行工具或者Flink Web UI获取生成的savepoint的路径。
  4. 将生成的savepoint文件上传到远程环境中,可以使用scp命令或者其他文件传输工具进行上传。
  5. 在远程环境中,使用Flink命令行工具或者Flink Web UI启动一个新的作业,并指定之前上传的savepoint文件路径。
  6. Flink会使用savepoint文件中保存的作业状态来初始化新的作业,并从上次保存的状态继续处理数据。

需要注意的是,Flink的版本和配置在本地和远程环境中需要保持一致,以确保savepoint的兼容性。

对于Flink的相关概念和使用方法,可以参考腾讯云的Flink产品文档:

请注意,以上答案仅供参考,具体操作步骤可能因实际情况而有所不同。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

Dlink On Yarn 三种 Flink 执行方式的实践

此外也使用到了 flink-shaded-hadoop-3-uber.jar。...右边作业配置: 执行模式:选中 yarn-session; Flink 集群:选中上文注册的测试集群; SavePoint 策略:选中禁用; 按需进行其他配置。...的 hdfs 路径(末尾无/),需要包含 Flink 运行时的所有依赖,即 flink 的 lib 目录下的所有 jar; Flink 配置文件路径:指定配置文件 flink-conf.yaml 的具体路径...编写 Flink SQL; 作业配置: 执行模式:选中 yarn-per-job ; Flink 集群配置:选中刚刚注册的配置; SavePoint 策略:选中最近一次。...查看对应 Flink Web UI,从 Stdout 输出证实 SavePoint 恢复成功。 六、Yarn-Application 实践 注册集群配置 使用之前注册的集群配置即可。

2.6K40

Flink DataStream—— 状态(State)&检查点(Checkpoint)&保存点(Savepoint)原理

假如我们使用一个持久化的备份系统,不断将内存的状态备份起来,当流处理作业出现故障时,需要考虑如何从备份恢复。而且,大数据应用一般是横向分布在多个节点上,流处理框架需要保证横向的伸缩扩展性。...因此,一个作业的所有状态要小于JobManager的内存大小。这种方式显然不能存储过大的状态数据,否则将抛出OutOfMemoryError异常。这种方式只适合调试或者实验,不建议在生产环境使用。...快照执行时,Flink将存储于本地RocksDB的状态同步到远程的存储上,因此使用这种State Backend时,也要配置分布式存储的地址。...一方面,一个流处理作业不可能一次性就写好了,我们要在一个初版代码的基础上不断修复问题、增加功能、优化算法、甚至做一些机房迁移,一个程序是在迭代更新的;另外一方面,流处理作业一般都是长时间运行的,作业内部的状态数据从零开始重新生成的成本很高...综合这两方面的因素,Flink提供了Savepoint的机制,允许开发者调试开发有状态的作业

3.5K41
  • Flink SQL 客户端如何使用

    SQL 客户端命令行界面(CLI) 能够在命令行检索和可视化分布式应用的实时结果。 1. 入门 本节介绍如何在命令行里启动和运行你的第一个 Flink SQL 程序。...SQL 客户端绑定在常规的 Flink 发行包,因此可以直接运行。仅需要一个正在运行Flink 集群就可以在上面执行 Table 程序。...使用SQL客户端提交作业 SQL 客户端可以允许用户在交互式命令行使用 -f 选项执行 sql 文件来提交作业。...这意味着,SQL 客户端将 DML 语句的作业提交给 Flink 集群即可,不用等待作业完成。所以 SQL 客户端可以同时提交多个作业。这对于通常长时间运行的流作业很有用。...在 SQL 客户端,允许使用 SET 命令指定保存点的路径: Flink SQL> SET execution.savepoint.path = /tmp/flink-savepoints/savepoint-cca7bc-bb1e257f0dab

    6.3K31

    【极数系列】Flink是什么?(02)

    Flink简介 Apache Flink是一个框架和分布式处理引擎,用于在无界和有界数据流上进行有状态计算。Flink被设计为在所有常见的集群环境运行,以内存的速度和任何规模执行计算。...Flink集成了所有常见的集群资源管理器,Hadoop YARN和Kubernetes,但也可以设置为作为独立集群运行。 (2)Flink的设计目的是让前面列出的每个资源管理器都能很好地工作。...这简化了Flink在许多环境的集成。 3.以任何规模运行应用程序 Flink旨在以任何规模运行有状态流应用程序。应用程序被并行化为可能数千个任务,这些任务在集群中分布并并发执行。...它也可能会使用更早的 Savepoint 还原点来重启服务,以便于修复由于有缺陷的程序版本导致的不正确的程序运行结果。...方便集群服务移植: 通过使用 Savepoint,流服务应用可以自由的在不同集群迁移部署。 方便Flink版本升级: 通过使用 Savepoint,可以使应用服务在升级Flink时,更加安全便捷。

    12310

    Dinky从checkpoint与savepoint自动恢复整库同步作业

    Flink1.15.x 版本做 savepoint 处理, 请等待后续更新支持,或者使用小于 Flink1.15 的版本。...运维中心查看作业 SavePoint 记录 等作业停止后,在作业快照 Savepoint,查看到刚刚成功保存的Savepoint 记录。...数据开发查看作业 SavePoint 信息 同时,在'数据开发' 面板对应的作业,右边栏也可以查看到savepoint记录。 插入一条数据 接下来,往表插入一条新的数据。...温馨提示 运行完毕,查看到成功恢复ck之后,还请将 'SavePoin策略' 还原回 '最近一次',避免后续从这个检查点再次恢复。...六、总结 优点: 使用dinky,简化了线上作业的部署、运维、作业恢复等操作,增强了flink作业的健壮性。

    86050

    用户投稿 | Dinky 从保存点恢复 FlinkSQL 作业

    ,可以使用这个参数,即使关掉当前对话窗口,YARN session也可以后台运行。...策略,选择 “最近一次”,然后运行这个作业: 此时我们向kafka相关topic插入300条记录,随后这些数据写到了MySQL数据库的相关表里: SavePoint 停止 FlinkSQL 作业...点击 Dinky 的运维中心菜单,在任务列表里点击上面运行的这个任务进入任务详情页面,在页面右上角点击三个点的省略号按钮,弹出框中点击 “SavePoint停止”: 在 HDFS 可以看到相关的 SavePoint...在 Dinky 的数据开发的作业, 右边“保存点”栏也可以查看到 savepoint 记录: 向 Kafka 相关 topic 写入 300 条数据 FlinlSQL 作业当前是停止状态,此时,向...,不仅简化了 FlinkSQL 的开发调试,还集成了对从 SavePoint 恢复作业运行的支持,非常方便。

    62140

    Dinky 开源一周年了~

    所有的 Connector、UDF、CDC 等 支持 FlinkSQL 语法增强:兼容 Apache Flink SQL、表值聚合函数、全局变量、CDC多源合并、执行环境、语句合并、共享会话等 支持易扩展的...三、发展历程 开源仓库 2021年6月6日,当时 Flink 社区正如火荼的发展,但苦于没有一款适合 Flink SQL 界面化开发的工具,于是增加了 Flink 的门槛与成本。...此外还支持了远程集群的任务管理, 监控Metrics、SavePoint、停止等操作。 0.5.0 带来了全新的平台架构,以支撑实时计算平台的能力,监控、报警、血缘等。...如何在 IDEA 调试开发》作者:文末 《Dlink + FlinkSQL构建流批一体数据平台——部署篇》作者:韩非子 《Dlink 在 FinkCDC 流式入湖 Hudi 的实践分享》作者:zhumingye...在 DolphinScheduler 创建 DINKY 类型的 Task 节点,填写 dinky 地址与作业 ID。

    3.4K21

    Flink 实践之 Savepoint

    保障 flink 作业在 配置迭代、flink 版本升级、蓝绿部署的数据一致性,提高容错、降低恢复时间; 在此之前引入几个概念: Snapshot 状态快照 Flink 通过状态快照实现容错处理 Flink...Flink 的状态后端:A. 状态数据如何存?B. 运行时存在哪里?C. 状态快照保存在哪? ?...FsStateBackend,运行时状态放在堆中保障性能,快照备份时数据存于 Hdfs 保障容错性;当业务有大状态的 flink 作业存在时,可以通过配置化的方式将用户作业的状态后端设置为 RocksDBSateBackend...Savepoint 是依据 Flink checkpointing 机制所创建的流作业执行状态的一致镜像; Checkpoint 的主要目的是为意外失败的作业提供恢复机制( tm/jm 进程挂了)。...使用 Savepoint 取消作业 #$ bin/flink cancel -s [:targetDirectory] :jobId这将自动触发 ID 为 :jobid 的作业Savepoint,并取消该作业

    1.8K40

    吾日三省吾身-深入理解Flink Checkpoint和Savepoint

    如果是用户自定义开发的实时程序,比如使用DataStream进行开发,建议为每个算子定义一个 uid,这样我们在修改作业时,即使导致程序拓扑图改变,由于相关算子 uid 没有变,那么这些算子还能够继续使用之前的状态...如果Flink状态很大,在进行恢复时,需要从远程存储读取状态恢复,此时可能导致任务恢复很慢,可以设置 Flink Task 本地状态恢复。...3.2 Flink Savepoint 触发方式 Flink Savepoint 触发方式目前有三种: 使用 flink savepoint 命令触发 Savepoint,其是在程序运行期间触发 savepoint..., 使用 flink cancel -s 命令,取消作业时,并触发 Savepoint....使用 Rest API 触发 Savepoint,格式为:/jobs/:jobid /savepoints 3.3 Flink Savepoint 注意点 使用 flink cancel -s 命令取消作业同时触发

    84631

    Flink重点难点:Flink任务综合调优(Checkpoint反压内存)

    Savepoint)容错与两阶段提交一文Flink的Checkpoint做过详细的介绍。...Checkpoint的初衷是用来进行故障恢复,如果作业是因为异常而失败,Flink会保存远程存储上的数据;如果开发者自己取消了作业远程存储上的数据都会被删除。...消费者权重 对于包含不同种类的托管内存消费者的作业,可以进一步控制托管内存如何在消费者之间分配。...提示对于未出现在消费者权重的类型,Flink将不会为其分配托管内存。如果缺失的类型是作业运行所必须的,则会引发内存分配失败。默认情况下,消费者权重包含了所有可能的消费者类型。...Flink 框架 在作业提交时(例如一些特殊的批处理 Source)及 Checkpoint 完成的回调函数执行的用户代码 Flink 需要多少 JVM 堆内存,很大程度上取决于运行作业数量、作业的结构及上述用户代码的需求

    6.4K31

    Apache Flink 零基础入门(一):基础概念解析

    Flink 作业发生故障崩溃时,可以有选择的从 Checkpoint 恢复,保证了计算的一致性。...Flink 本身提供监控、运维等功能或接口,并有内置的 WebUI,对运行作业提供 DAG 图以及各种 Metric 等,协助用户管理作业状态。...Batch Analysis 就是传统意义上使用类似于 Map Reduce、Hive、Spark Batch 等,对作业进行分析、处理、生成离线报表,Streaming Analytics 使用流式分析引擎...Savepoint 跟 Checkpoint 的差别在于检查点是 Flink 对于一个有状态应用在运行利用分布式快照持续周期性的产生 Checkpoint,而 Savepoint 则是手动产生的 Checkpoint...从 Savepoint 的恢复执行需要注意,在变更应用的过程时间在持续, Kafka 在持续收集资料,当从 Savepoint 恢复时,Savepoint 保存着 Checkpoint 产生的时间以及

    1.1K20

    Flink从1.7到1.12版本升级汇总

    SQL API 的 DDL 支持 (FLINK-10232) 到目前为止,Flink SQL 已经支持 DML 语句( SELECT,INSERT)。...这导致用户需要针对不同环境保留多套配置,增加了管理的成本。 在 Flink 1.10 作业提交逻辑被抽象到了通用的 Executor 接口(FLIP-73 [11])。...在公开的 CDC 调研报告,Debezium 和 Canal 是用户中最流行使用的 CDC 工具,这两种工具用来同步 changelog 到其它的系统消息队列。...这是批处理和流处理实现真正统一的运行时的一个重要里程碑。 实现了基于Kubernetes的高可用性(HA)方案,作为生产环境,ZooKeeper方案之外的另外一种选择。...在 Flink 1.12 ,默认执行模式为 STREAMING,要将作业配置为以 BATCH 模式运行,可以在提交作业的时候,设置参数 execution.runtime-mode: $ bin/flink

    2.6K20

    Dlink ?一款FlinkSQL交互式开发平台

    一、背景 目前 Flink 社区正如火荼的发展,但苦于没有一款适合 Flink SQL 界面化开发的工具,于是增加了 Flink 的门槛与成本。...Cancel 作业 SavePoint Cancel,Stop,Trigger 作业SavePoint 恢复多种机制 元数据功能 Flink Catalog 浏览(Connector) 外部数据源元数据浏览...支持作业 SavePoint 触发、恢复及其管理 Dlink 支持对 FlinkSQL 作业 和 Jar 作业进行 SavePoint 的 trigger、stop、cancel 操作,以及最近一次、最早一次...支持 Flink 多版本的切换 Dlink 支持 Flink 1.11、1.12、1.13、1.14 间版本的运行环境切换。...支持异常反馈 Dlink 可以将 Flink 语句在执行过程的异常完整的反馈到前端页面。 支持文档管理 Dlink 提供文档管理,可以用于使用查询、自动补全等功能。

    1.6K10

    Flink1.3 指南四 命令行接口 转

    命令行接口启动脚本是 $FLINK_HOME/bin目录下的flink脚本, 默认情况下会连接运行Flink master(JobManager),JobManager的启动脚本与CLI在同一安装目录下...使用命令行接口的先决条件是JobManager已经被启动或是在Flink YARN环境下。.../bin/flink list -r (14) 列出在Flink YARN运行Job ....如果operator在调用取消操作后没有停止,Flink将定期开启中断线程来取消作业直到作业停止。 调用停止Job是一种停止正在运行的流作业的更加优雅的方法。...停止仅适用于使用实现`StoppableFunction`接口的源的那些作业。当用户请求停止作业时,所有源将收到调用stop()方法指令。但是Job还是会持续运行,直到所有来源已经正确关闭。

    1.5K20

    State Processor API:如何读写和修改 Flink 应用程序的状态

    Flink 1.9 无论是在生产环境运行 Apache Flink 还是在调研 Apache Flink,总会遇到一个问题:如何读写以及更新 Flink Savepoint 的状态?...例如,你可以获取正在运行的流处理应用程序的 Savepoint使用 DataSet 批处理程序对其进行分析,来验证应用程序是否正确。...为了能够更好的使用 API,你需要了解这个映射的工作原理。 首先让我们先来看看有状态的 Flink 作业是什么样的。...Flink 作业由算子组成,通常有一个或多个 Source 算子,几个实际处理数据的算子,以及一个或多个 Sink 算子。每个算子在一个或多个任务并行运行,并可以处理不同类型的状态。...当使用批处理作业处理 Savepoint(或 Checkpoint)数据时,我们需要一个模型,将每个任务的状态数据映射到数据集或表。实际上,我们可以把 Savepoint 视为一个数据库。

    1.5K20

    听说你熟悉Flink-On-Yarn的部署模式?

    如果资源满了,下一个作业就无法提交,只能等到yarn的其中一个作业执行完成后,释放了资源,下个作业才会正常提交。...启动任务 当启动集群后,即可使用./flink run -c mainClass /path/to/user/jar向集群提交任务。.../bin/flink run -m yarn-cluster -d -c mainClass /path/to/user/jar命令使用分离模式启动一个集群,即单任务单集群; 3.2....Flink提供在Yarn上两种运行模式:Session-Cluster和Per-Job-Cluster,其中Session-Cluster的资源在启动集群时就定义完成,后续所有作业的提交都共享该资源,...作业可能会互相影响,因此比较适合小规模短时间运行作业,对于Per-Job-Cluster而言,所有作业的提交都是单独的集群,作业之间的运行不受影响(可能会共享CPU计算资源),因此比较适合大规模长时间运行作业

    2.8K10

    Flink State 可以代替数据库吗?

    总体来说,Flink 社区的努力可以分为两条线: 一是在作业运行时通过作业查询接口访问 State 的能力,即 QueryableState;二是通过 State 的离线 dump 文件(Savepoint...另外从定位上来看,Flink 作业有版本迭代维护或者遇到错误自动重启带来的 down time,并不能达到数据库在数据访问上的高可用性。 可能导致作业的不稳定。...State 在运行时只可以被作业本身修改,如果实在要修改 State 只能通过下文的 Savepoint Processor API 来实现。...总体来说,目前 State 代替数据库的缺点还是远多于其优点,不过对于某些对数据可用性要求不高的作业来说,使用 State 作为数据库还是完全合理的。...对于 Flink 而言,State 的外部使用可以分为在线的实时访问和离线的访问和修改,分别将由 Queryable State 和 Savepoint Processor API 两个特性支持。

    2.1K10
    领券