首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何在远程环境中使用savepoint运行Flink作业?

在远程环境中使用savepoint运行Flink作业,可以按照以下步骤进行操作:

  1. 确保你已经在远程环境中安装和配置了Flink,并且已经启动了Flink集群。
  2. 在本地环境中,使用Flink命令行工具或者Flink Web UI提交一个作业,并生成一个savepoint。Savepoint是一个作业的中间状态,可以用于在失败后恢复作业的状态。
  3. 在本地环境中,使用Flink命令行工具或者Flink Web UI获取生成的savepoint的路径。
  4. 将生成的savepoint文件上传到远程环境中,可以使用scp命令或者其他文件传输工具进行上传。
  5. 在远程环境中,使用Flink命令行工具或者Flink Web UI启动一个新的作业,并指定之前上传的savepoint文件路径。
  6. Flink会使用savepoint文件中保存的作业状态来初始化新的作业,并从上次保存的状态继续处理数据。

需要注意的是,Flink的版本和配置在本地和远程环境中需要保持一致,以确保savepoint的兼容性。

对于Flink的相关概念和使用方法,可以参考腾讯云的Flink产品文档:

请注意,以上答案仅供参考,具体操作步骤可能因实际情况而有所不同。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

Dlink On Yarn 三种 Flink 执行方式的实践

此外也使用到了 flink-shaded-hadoop-3-uber.jar。...右边作业配置: 执行模式:选中 yarn-session; Flink 集群:选中上文注册的测试集群; SavePoint 策略:选中禁用; 按需进行其他配置。...的 hdfs 路径(末尾无/),需要包含 Flink 运行时的所有依赖,即 flink 的 lib 目录下的所有 jar; Flink 配置文件路径:指定配置文件 flink-conf.yaml 的具体路径...编写 Flink SQL; 作业配置: 执行模式:选中 yarn-per-job ; Flink 集群配置:选中刚刚注册的配置; SavePoint 策略:选中最近一次。...查看对应 Flink Web UI,从 Stdout 输出证实 SavePoint 恢复成功。 六、Yarn-Application 实践 注册集群配置 使用之前注册的集群配置即可。

2.6K40

Flink DataStream—— 状态(State)&检查点(Checkpoint)&保存点(Savepoint)原理

假如我们使用一个持久化的备份系统,不断将内存的状态备份起来,当流处理作业出现故障时,需要考虑如何从备份恢复。而且,大数据应用一般是横向分布在多个节点上,流处理框架需要保证横向的伸缩扩展性。...因此,一个作业的所有状态要小于JobManager的内存大小。这种方式显然不能存储过大的状态数据,否则将抛出OutOfMemoryError异常。这种方式只适合调试或者实验,不建议在生产环境使用。...快照执行时,Flink将存储于本地RocksDB的状态同步到远程的存储上,因此使用这种State Backend时,也要配置分布式存储的地址。...一方面,一个流处理作业不可能一次性就写好了,我们要在一个初版代码的基础上不断修复问题、增加功能、优化算法、甚至做一些机房迁移,一个程序是在迭代更新的;另外一方面,流处理作业一般都是长时间运行的,作业内部的状态数据从零开始重新生成的成本很高...综合这两方面的因素,Flink提供了Savepoint的机制,允许开发者调试开发有状态的作业

3.7K41
  • Flink SQL 客户端如何使用

    SQL 客户端命令行界面(CLI) 能够在命令行检索和可视化分布式应用的实时结果。 1. 入门 本节介绍如何在命令行里启动和运行你的第一个 Flink SQL 程序。...SQL 客户端绑定在常规的 Flink 发行包,因此可以直接运行。仅需要一个正在运行Flink 集群就可以在上面执行 Table 程序。...使用SQL客户端提交作业 SQL 客户端可以允许用户在交互式命令行使用 -f 选项执行 sql 文件来提交作业。...这意味着,SQL 客户端将 DML 语句的作业提交给 Flink 集群即可,不用等待作业完成。所以 SQL 客户端可以同时提交多个作业。这对于通常长时间运行的流作业很有用。...在 SQL 客户端,允许使用 SET 命令指定保存点的路径: Flink SQL> SET execution.savepoint.path = /tmp/flink-savepoints/savepoint-cca7bc-bb1e257f0dab

    6.4K31

    【极数系列】Flink是什么?(02)

    Flink简介 Apache Flink是一个框架和分布式处理引擎,用于在无界和有界数据流上进行有状态计算。Flink被设计为在所有常见的集群环境运行,以内存的速度和任何规模执行计算。...Flink集成了所有常见的集群资源管理器,Hadoop YARN和Kubernetes,但也可以设置为作为独立集群运行。 (2)Flink的设计目的是让前面列出的每个资源管理器都能很好地工作。...这简化了Flink在许多环境的集成。 3.以任何规模运行应用程序 Flink旨在以任何规模运行有状态流应用程序。应用程序被并行化为可能数千个任务,这些任务在集群中分布并并发执行。...它也可能会使用更早的 Savepoint 还原点来重启服务,以便于修复由于有缺陷的程序版本导致的不正确的程序运行结果。...方便集群服务移植: 通过使用 Savepoint,流服务应用可以自由的在不同集群迁移部署。 方便Flink版本升级: 通过使用 Savepoint,可以使应用服务在升级Flink时,更加安全便捷。

    12710

    用户投稿 | Dinky 从保存点恢复 FlinkSQL 作业

    ,可以使用这个参数,即使关掉当前对话窗口,YARN session也可以后台运行。...策略,选择 “最近一次”,然后运行这个作业: 此时我们向kafka相关topic插入300条记录,随后这些数据写到了MySQL数据库的相关表里: SavePoint 停止 FlinkSQL 作业...点击 Dinky 的运维中心菜单,在任务列表里点击上面运行的这个任务进入任务详情页面,在页面右上角点击三个点的省略号按钮,弹出框中点击 “SavePoint停止”: 在 HDFS 可以看到相关的 SavePoint...在 Dinky 的数据开发的作业, 右边“保存点”栏也可以查看到 savepoint 记录: 向 Kafka 相关 topic 写入 300 条数据 FlinlSQL 作业当前是停止状态,此时,向...,不仅简化了 FlinkSQL 的开发调试,还集成了对从 SavePoint 恢复作业运行的支持,非常方便。

    67040

    Dinky从checkpoint与savepoint自动恢复整库同步作业

    Flink1.15.x 版本做 savepoint 处理, 请等待后续更新支持,或者使用小于 Flink1.15 的版本。...运维中心查看作业 SavePoint 记录 等作业停止后,在作业快照 Savepoint,查看到刚刚成功保存的Savepoint 记录。...数据开发查看作业 SavePoint 信息 同时,在'数据开发' 面板对应的作业,右边栏也可以查看到savepoint记录。 插入一条数据 接下来,往表插入一条新的数据。...温馨提示 运行完毕,查看到成功恢复ck之后,还请将 'SavePoin策略' 还原回 '最近一次',避免后续从这个检查点再次恢复。...六、总结 优点: 使用dinky,简化了线上作业的部署、运维、作业恢复等操作,增强了flink作业的健壮性。

    91250

    Dinky 开源一周年了~

    所有的 Connector、UDF、CDC 等 支持 FlinkSQL 语法增强:兼容 Apache Flink SQL、表值聚合函数、全局变量、CDC多源合并、执行环境、语句合并、共享会话等 支持易扩展的...三、发展历程 开源仓库 2021年6月6日,当时 Flink 社区正如火荼的发展,但苦于没有一款适合 Flink SQL 界面化开发的工具,于是增加了 Flink 的门槛与成本。...此外还支持了远程集群的任务管理, 监控Metrics、SavePoint、停止等操作。 0.5.0 带来了全新的平台架构,以支撑实时计算平台的能力,监控、报警、血缘等。...如何在 IDEA 调试开发》作者:文末 《Dlink + FlinkSQL构建流批一体数据平台——部署篇》作者:韩非子 《Dlink 在 FinkCDC 流式入湖 Hudi 的实践分享》作者:zhumingye...在 DolphinScheduler 创建 DINKY 类型的 Task 节点,填写 dinky 地址与作业 ID。

    3.5K21

    Flink 实践之 Savepoint

    保障 flink 作业在 配置迭代、flink 版本升级、蓝绿部署的数据一致性,提高容错、降低恢复时间; 在此之前引入几个概念: Snapshot 状态快照 Flink 通过状态快照实现容错处理 Flink...Flink 的状态后端:A. 状态数据如何存?B. 运行时存在哪里?C. 状态快照保存在哪? ?...FsStateBackend,运行时状态放在堆中保障性能,快照备份时数据存于 Hdfs 保障容错性;当业务有大状态的 flink 作业存在时,可以通过配置化的方式将用户作业的状态后端设置为 RocksDBSateBackend...Savepoint 是依据 Flink checkpointing 机制所创建的流作业执行状态的一致镜像; Checkpoint 的主要目的是为意外失败的作业提供恢复机制( tm/jm 进程挂了)。...使用 Savepoint 取消作业 #$ bin/flink cancel -s [:targetDirectory] :jobId这将自动触发 ID 为 :jobid 的作业Savepoint,并取消该作业

    1.8K40

    Flink重点难点:Flink任务综合调优(Checkpoint反压内存)

    Savepoint)容错与两阶段提交一文Flink的Checkpoint做过详细的介绍。...Checkpoint的初衷是用来进行故障恢复,如果作业是因为异常而失败,Flink会保存远程存储上的数据;如果开发者自己取消了作业远程存储上的数据都会被删除。...消费者权重 对于包含不同种类的托管内存消费者的作业,可以进一步控制托管内存如何在消费者之间分配。...提示对于未出现在消费者权重的类型,Flink将不会为其分配托管内存。如果缺失的类型是作业运行所必须的,则会引发内存分配失败。默认情况下,消费者权重包含了所有可能的消费者类型。...Flink 框架 在作业提交时(例如一些特殊的批处理 Source)及 Checkpoint 完成的回调函数执行的用户代码 Flink 需要多少 JVM 堆内存,很大程度上取决于运行作业数量、作业的结构及上述用户代码的需求

    6.6K31

    Apache Flink 零基础入门(一):基础概念解析

    Flink 作业发生故障崩溃时,可以有选择的从 Checkpoint 恢复,保证了计算的一致性。...Flink 本身提供监控、运维等功能或接口,并有内置的 WebUI,对运行作业提供 DAG 图以及各种 Metric 等,协助用户管理作业状态。...Batch Analysis 就是传统意义上使用类似于 Map Reduce、Hive、Spark Batch 等,对作业进行分析、处理、生成离线报表,Streaming Analytics 使用流式分析引擎...Savepoint 跟 Checkpoint 的差别在于检查点是 Flink 对于一个有状态应用在运行利用分布式快照持续周期性的产生 Checkpoint,而 Savepoint 则是手动产生的 Checkpoint...从 Savepoint 的恢复执行需要注意,在变更应用的过程时间在持续, Kafka 在持续收集资料,当从 Savepoint 恢复时,Savepoint 保存着 Checkpoint 产生的时间以及

    1.1K20

    Flink从1.7到1.12版本升级汇总

    SQL API 的 DDL 支持 (FLINK-10232) 到目前为止,Flink SQL 已经支持 DML 语句( SELECT,INSERT)。...这导致用户需要针对不同环境保留多套配置,增加了管理的成本。 在 Flink 1.10 作业提交逻辑被抽象到了通用的 Executor 接口(FLIP-73 [11])。...在公开的 CDC 调研报告,Debezium 和 Canal 是用户中最流行使用的 CDC 工具,这两种工具用来同步 changelog 到其它的系统消息队列。...这是批处理和流处理实现真正统一的运行时的一个重要里程碑。 实现了基于Kubernetes的高可用性(HA)方案,作为生产环境,ZooKeeper方案之外的另外一种选择。...在 Flink 1.12 ,默认执行模式为 STREAMING,要将作业配置为以 BATCH 模式运行,可以在提交作业的时候,设置参数 execution.runtime-mode: $ bin/flink

    2.6K20

    吾日三省吾身-深入理解Flink Checkpoint和Savepoint

    如果是用户自定义开发的实时程序,比如使用DataStream进行开发,建议为每个算子定义一个 uid,这样我们在修改作业时,即使导致程序拓扑图改变,由于相关算子 uid 没有变,那么这些算子还能够继续使用之前的状态...如果Flink状态很大,在进行恢复时,需要从远程存储读取状态恢复,此时可能导致任务恢复很慢,可以设置 Flink Task 本地状态恢复。...3.2 Flink Savepoint 触发方式 Flink Savepoint 触发方式目前有三种: 使用 flink savepoint 命令触发 Savepoint,其是在程序运行期间触发 savepoint..., 使用 flink cancel -s 命令,取消作业时,并触发 Savepoint....使用 Rest API 触发 Savepoint,格式为:/jobs/:jobid /savepoints 3.3 Flink Savepoint 注意点 使用 flink cancel -s 命令取消作业同时触发

    89931

    Flink1.3 指南四 命令行接口 转

    命令行接口启动脚本是 $FLINK_HOME/bin目录下的flink脚本, 默认情况下会连接运行Flink master(JobManager),JobManager的启动脚本与CLI在同一安装目录下...使用命令行接口的先决条件是JobManager已经被启动或是在Flink YARN环境下。.../bin/flink list -r (14) 列出在Flink YARN运行Job ....如果operator在调用取消操作后没有停止,Flink将定期开启中断线程来取消作业直到作业停止。 调用停止Job是一种停止正在运行的流作业的更加优雅的方法。...停止仅适用于使用实现`StoppableFunction`接口的源的那些作业。当用户请求停止作业时,所有源将收到调用stop()方法指令。但是Job还是会持续运行,直到所有来源已经正确关闭。

    1.5K20

    State Processor API:如何读写和修改 Flink 应用程序的状态

    Flink 1.9 无论是在生产环境运行 Apache Flink 还是在调研 Apache Flink,总会遇到一个问题:如何读写以及更新 Flink Savepoint 的状态?...例如,你可以获取正在运行的流处理应用程序的 Savepoint使用 DataSet 批处理程序对其进行分析,来验证应用程序是否正确。...为了能够更好的使用 API,你需要了解这个映射的工作原理。 首先让我们先来看看有状态的 Flink 作业是什么样的。...Flink 作业由算子组成,通常有一个或多个 Source 算子,几个实际处理数据的算子,以及一个或多个 Sink 算子。每个算子在一个或多个任务并行运行,并可以处理不同类型的状态。...当使用批处理作业处理 Savepoint(或 Checkpoint)数据时,我们需要一个模型,将每个任务的状态数据映射到数据集或表。实际上,我们可以把 Savepoint 视为一个数据库。

    1.6K20

    Dlink ?一款FlinkSQL交互式开发平台

    一、背景 目前 Flink 社区正如火荼的发展,但苦于没有一款适合 Flink SQL 界面化开发的工具,于是增加了 Flink 的门槛与成本。...Cancel 作业 SavePoint Cancel,Stop,Trigger 作业SavePoint 恢复多种机制 元数据功能 Flink Catalog 浏览(Connector) 外部数据源元数据浏览...支持作业 SavePoint 触发、恢复及其管理 Dlink 支持对 FlinkSQL 作业 和 Jar 作业进行 SavePoint 的 trigger、stop、cancel 操作,以及最近一次、最早一次...支持 Flink 多版本的切换 Dlink 支持 Flink 1.11、1.12、1.13、1.14 间版本的运行环境切换。...支持异常反馈 Dlink 可以将 Flink 语句在执行过程的异常完整的反馈到前端页面。 支持文档管理 Dlink 提供文档管理,可以用于使用查询、自动补全等功能。

    1.7K10

    听说你熟悉Flink-On-Yarn的部署模式?

    如果资源满了,下一个作业就无法提交,只能等到yarn的其中一个作业执行完成后,释放了资源,下个作业才会正常提交。...启动任务 当启动集群后,即可使用./flink run -c mainClass /path/to/user/jar向集群提交任务。.../bin/flink run -m yarn-cluster -d -c mainClass /path/to/user/jar命令使用分离模式启动一个集群,即单任务单集群; 3.2....Flink提供在Yarn上两种运行模式:Session-Cluster和Per-Job-Cluster,其中Session-Cluster的资源在启动集群时就定义完成,后续所有作业的提交都共享该资源,...作业可能会互相影响,因此比较适合小规模短时间运行作业,对于Per-Job-Cluster而言,所有作业的提交都是单独的集群,作业之间的运行不受影响(可能会共享CPU计算资源),因此比较适合大规模长时间运行作业

    2.9K10

    Flink State 可以代替数据库吗?

    总体来说,Flink 社区的努力可以分为两条线: 一是在作业运行时通过作业查询接口访问 State 的能力,即 QueryableState;二是通过 State 的离线 dump 文件(Savepoint...另外从定位上来看,Flink 作业有版本迭代维护或者遇到错误自动重启带来的 down time,并不能达到数据库在数据访问上的高可用性。 可能导致作业的不稳定。...State 在运行时只可以被作业本身修改,如果实在要修改 State 只能通过下文的 Savepoint Processor API 来实现。...总体来说,目前 State 代替数据库的缺点还是远多于其优点,不过对于某些对数据可用性要求不高的作业来说,使用 State 作为数据库还是完全合理的。...对于 Flink 而言,State 的外部使用可以分为在线的实时访问和离线的访问和修改,分别将由 Queryable State 和 Savepoint Processor API 两个特性支持。

    2.1K10
    领券