Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >flink集群模式

flink集群模式

原创
作者头像
用户11134802
修改于 2024-06-12 12:07:13
修改于 2024-06-12 12:07:13
2240
举报
文章被收录于专栏:flink基础知识点flink基础知识点

前言 :

TaskManager的组成:由若干个(在底层flink-conf.yaml文件配置)taskSlot组成

这是一个flink集群的各个角色的分配,TaskManager可以在部署到其他虚拟机上,一般默认的数量是三个。

jobmanger:负责整个 Flink 集群任务的调度以及资源的管理从客户端中接收作业

客户端通过将编写好的 Flink 应用编译打包,提交到 JobManager,JobManger根据集群TaskManager 上 TaskSlot 的使用情况,为提交的应用分配相应的 TaskSlot 资源并命令 TaskManager 启动与执行从客户端中获取的作业;JobManger还负责协调Checkpoint 操作,每个 TaskManager 节点 收到 Checkpoint 触发指令后,完成 Checkpoint 操作,所有的 Checkpoint 协调过程都是在 Fink JobManager 中完成。

TaskManager:负责具体的任务执行和任务资源申请和管理

TaskManger从 JobManager 接收需要执行的任务,然后申请Slot 资源(根据集群Slot使用情况以及并行度设置)并尝试启动Task,开始执行作业,TaskManager中最小的资源调度单位是TaskSlots。TaskManger数量由集群中Slave数量决定

taskSlots:Task共享系统资源(内存);TaskManger并发执行能力决定性因素。

TaskManager 是一个 JVM 进程,是实际负责执行计算的Worker,会以独立的线程来执行一个task或多个subtask。为了控制一个 TaskManager 能执行多少个 task,Flink 提出了 Task Slot 的概念

(1)Task之间通过 TaskSlot 方式共享系统资源(内存)TaskSlots也决定TaskManger并发执行能力

(2)每个TaskSlot代表TaskManager资源不同分割。例如,具有三个插槽的TaskManager会将其内存的1/3平均分配到每个TaskSlot。分配资源意味着子任务不会与其他作业的子任务竞争内存,而是具有一定数量的保留托管内存。需要注意的是,此处没有对CPU进行隔离。当前TaskSlot仅将任务的内存进行隔离,简言之,即每个TaskSlot持有部分TaskManger内存,同一个作业下的task/subtask可共享TaskSlot

Client:Flink程序提交的客户端

Client是Flink程序提交的客户端,当用户提交一个Flink程序时,会首先创建一个Client,该Client首先会对用户提交的Flink程序进行预处理,并提交到Flink集群中处理。正因为其需要提交到Flink集群,所以Client需要从用户提交的Flink程序配置中获取JobManager的地址,并建立到JobManager的连接,将Flink Job提交给JobManager。

各个角色执行的功能:

flink client 相当于甲方,把job(需求)转换并提交给jobmanager(领导),然后jobmanger把job拆分成各个算子,分配给TaskManager执行。

-----------------------------------------------------------分割线-------------------------------------------------------------------------

1、会话模式(Session Mode

工作模式:

会话模式是先启动一个集群,此时集群的资源已确定,所有的 flink client提交的job作业都会共享这些固定的资源 。当集群的资源不足,新提交的任务可能会失败。当一个TaskManager执行的job作业过多的时候,若是某一个作业导致TaskManager宕机,已经提交的但尚未完成的job都会收到影响。

缺点:

资源共享会导致很多问题,比如死锁问题。

特点:

只适合当个规模小、执行时间短的大量作业 。

2、单作业模式(Per-Job Mode)

工作模式:

单作业模式为flink client提交的每个作业单独启动一个集群,即一个作业一个集群,由客户端提交应用程序,然后启动集群,提交作业给jobmanger进行分发给taskmanager执行。job作业完成的时候,集群也会随之关闭。这样,即使是某一个job出错导致TaskManager宕机,也不会影响到其他job作业的运行。

该模式在生产环境运行更加稳定,是实际应用的首选模式。

注意:Flink 本身无法直接这样运行,所以单作业模式一般需要借助一些资源管 理框架来启动集群,比如 YARN、Kubernetes(K8S)。

3、应用模式(Application Mode)

需要为每一个提交的应用单独启动一个 JobManager,也就是创建一个集群。这 个 JobManager 只为执行这一个应用而存在,执行结束之后 JobManager 也就关闭了,这就是所 谓的应用模式

三个模式比较:

会话模式和单作业模式的应用代码都是在flink client上提交,有客户端提交给jobmanger。但是,这种方式客户端需要占用大量的网络带宽,去下载依赖和二进制数据发送给jobmanger,并且提交客户用的是一个指定节点,因此会加重消耗该节点的资源,严重会影响宕机。

单作业模式和应用模式的比较:

单作业模式是通过客户端来提交 的,客户端解析出的每一个作业对应一个集群;而应用模式下,是直接由 JobManager 执行应 用程序的,并且即使应用包含了多个作业,也只创建一个集群。 

--------------------------------------------------------------------------

Flink 任务停止后,JobManager 会将已经完成任务的统计信息进行存档,History Server 进程则在任务停止后可以对任务统计信息进行查询。比如:最后一次的 Checkpoint、任务运行时的相关配置。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
CNN再助力!CoaT:Co-Scale卷积-注意力图像Transformer
Co-Scale Conv-Attentional Image Transformers
Amusi
2021/04/23
1.3K0
CNN再助力!CoaT:Co-Scale卷积-注意力图像Transformer
注意力机制
原文是英文来自于 https://blog.heuritech.com/2016/01/20/attention-mechanism/
AI算法与图像处理
2019/05/22
5930
注意力机制
最近想要系统的学习和总结各种注意力机制,首先简单的看了一下相关的资料,发现其主要应用于自然语言处理领域和图像处理领域。主要包括:
苏十四
2021/02/15
1.4K0
注意力机制
学界 | 普适注意力:用于机器翻译的2D卷积神经网络,显著优于编码器-解码器架构
深度神经网络对自然语言处理技术造成了深远的影响,尤其是机器翻译(Blunsom, 2013; Sutskever et al., 2014; Cho et al., 2014; Jean et al., 2015; LeCun et al., 2015)。可以将机器翻译视为序列到序列的预测问题,在这类问题中,源序列和目标序列的长度不同且可变。目前的最佳方法基于编码器-解码器架构(Blunsom, 2013; Sutskever et al., 2014; Cho et al., 2014; Bahdanau et al., 2015)。编码器「读取」长度可变的源序列,并将其映射到向量表征中去。解码器以该向量为输入,将其「写入」目标序列,并在每一步用生成的最新的单词更新其状态。基本的编码器-解码器模型一般都配有注意力模型(Bahdanau et al., 2015),这样就可以在解码过程中重复访问源序列。在给定解码器当前状态的情况下,可以计算出源序列中的元素的概率分布,然后使用计算得到的概率分布将这些元素的特征选择或聚合在解码器使用的单个「上下文」向量中。与依赖源序列的全局表征不同,注意力机制(attention mechanism)允许解码器「回顾」源序列,并专注于突出位置。除了归纳偏置外,注意力机制还绕过了现在大部分架构都有的梯度消失问题。
机器之心
2018/09/20
5530
学界 | 普适注意力:用于机器翻译的2D卷积神经网络,显著优于编码器-解码器架构
再见卷积神经网络,使用Transformers创建计算机视觉模型
本文旨在介绍/更新Transformers背后的主要思想,并介绍在计算机视觉应用中使用这些模型的最新进展。
deephub
2020/12/11
9750
再见卷积神经网络,使用Transformers创建计算机视觉模型
ECCV 2020 亮点摘要(上)
与我的CVPR2020帖子类似,为了了解今年会议的总体趋势,我将在这篇博客文章中总结一些引起我注意的论文(列出一些),并对整个会议进行概括。
LiveVideoStack
2021/01/06
4670
生成对抗网络也需要注意力机制
尽管传统的生成对抗网络可以生成相当逼真的图像,但是它们无法捕获到图像中的长距离依赖。这些传统的生成对抗网络在不包含太多的结构和几何信息的图像上效果是不错的(例如海洋、天空和田野)。但是,当图像中存在较高的信息变化率时,传统的生成对抗网络往往会错过所有的这种变化,因此就无法真实地表征全局关系。这些非局部依赖始终会出现在某些类别的图像中。例如,生成对抗网络可以生成具有逼真皮毛的动物,但是却无法生成独立的足部。
机器之心
2019/04/09
1.2K0
生成对抗网络也需要注意力机制
卷积神经网络(CNN)在图像识别中的应用与优化
随着计算机与人工智能技术的不断发展,图像识别已经成为一项重要而具有挑战性的任务。卷积神经网络(Convolutional Neural Network,CNN)作为一种深度学习算法,在图像识别领域取得了巨大的成功。本文将详细介绍CNN在图像识别中的应用,并探讨一些优化策略,以提高其性能和效果。
网络技术联盟站
2023/07/04
2.2K0
卷积神经网络(CNN)在图像识别中的应用与优化
Deep Reading | 从0到1再读注意力机制,此文必收藏!
【AI科技大本营导语】注意力机制(Attention)已经成为深度学习必学内容之一,无论是计算机视觉还是自然语言处理都可以看到各种各样注意力机制的方法。之前我们曾在一篇干货文章《关于深度学习中的注意力机制,这篇文章从实例到原理都帮你参透了》中,从实例到原理帮助大家参透注意力机制的工作原理。今天,我们将再度为大家梳理全部理论要点,是大家学习的必备资料之一,并为后续掌握最新流行的注意力机制保驾护航。
AI科技大本营
2019/03/19
1.3K0
Deep Reading | 从0到1再读注意力机制,此文必收藏!
【GNN】图神经网络综述
本篇文章是对论文“Wu Z , Pan S , Chen F , et al. A Comprehensive Survey on Graph Neural Networks[J]. 2019.“”的翻译与笔记
zenRRan
2020/02/18
1.8K0
TII | CovTANet:用于COVID-19胸部CT扫描的基于混合三级注意力机制的分割网络
今天给大家介绍的是孟加拉工程技术大学Tanvir Mahmud课题组发表在“IEEE TRANSACTIONS ON INDUSTRIAL INFORMATICS”上的一篇文章” CovTANet: A Hybrid Tri-level Attention Based Network for Lesion Segmentation, Diagnosis, and Severit”。控制COVID-19流行病的传播面临的一个巨大的挑战是如何快速准确的诊断。作者在这篇文章中提出了混合网络CovTANet用于COVID-19的早期诊断,病灶分割和严重性预测。通过引入了多阶段优化策略解决了复杂诊断挑战,早期阶段初步优化分割网络,在分割模型编解码阶段引入了 减少语义鸿沟和多尺度特征平行化快速收敛的三级注意力机制的分割网络((TA-SegNe)。实现在通道、空间和像素的三级注意力机制使网络更快更高效概括了嵌入在特征图的上下文信息。通过在大型公开数据集上实验显示模型在三个任务取得了出色的表现,这表明了现阶段COVID-19大流行中该模型的有效性。
智能生信
2021/02/04
7980
CVPR小目标检测:上下文和注意力机制提升小目标检测(附论文下载)
计算机视觉研究院专栏 作者:Edison_G CVPR21文章我们也分享了很多最佳的框架,在现实场景中,目标检测依然是最基础最热门的研究课题,尤其目前针对小目标的检测,更加吸引了更多的研究员和企业去研究,今天我们“计算机视觉研究院”给大家分享一个小目标检测精度提升较大的新框架! 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 论文: https://arxiv.org/pdf/1912.06319.pdf 1 简要 在各种环境中应用目标检测算法有很多局限性。特别是检
计算机视觉研究院
2022/06/27
7.9K0
CVPR小目标检测:上下文和注意力机制提升小目标检测(附论文下载)
AAAI 2019 论文解读:卷积神经网络继续进步
分析师简介:Joshua 已于 2018 年取得多伦多大学应用科学硕士(MASc)学位。他的研究重心是格形码(lattice codes)、低密度奇偶校验(LDPC)码以及编码理论的其它方面。他也对凸优化和随机过程感兴趣。Joshua 目前在高通工作,是一位机器学习工程师,专注对推理的优化。
机器之心
2019/04/29
1K0
AAAI 2019 论文解读:卷积神经网络继续进步
性能超FPN!北大、阿里等提多层特征金字塔网络
特征金字塔网络具有处理不同物体尺度变化的能力,因此被广泛应用到one-stage目标检测网络(如DSSD,RetinaNet,RefineDet)和two-stage 目标检测器(如Mask R-CNN,DetNet)中并取得了很好的性能提升。
AI科技大本营
2019/12/26
1.4K0
性能超FPN!北大、阿里等提多层特征金字塔网络
原创 | 图注意力神经网络(Graph Attention Networks)综述
图形,由点、线、面和体构成,代表了一种理解抽象概念和表达抽象思想的有效工具。图形语言的优势在于其跨越语言障碍的能力,这种能力和技术大多是人类为了理解世界而发展出来的。计算机科学和人工智能的快速进步,使得理解和学习事物之间的更深层次客观关系变得可能。图神经网络(GNN)的诞生,更加帮助人类通过图形来了解和解决问题。图注意力神经网络(GAT)是一种专为处理图结构数据而设计的特殊神经网络。不同于传统神经网络,GAT在处理输入数据时,会充分考虑数据间的关系,使其在处理图结构数据时能更准确地捕捉到数据间的关联性。GAT的主要优势在于其自动学习节点间关系的能力,无需人工预设。
数据派THU
2023/08/08
9.9K0
原创 | 图注意力神经网络(Graph Attention Networks)综述
CFPFormer| 将特征金字塔与 Transformer 完美融合,显著提升图像分割与目标检测效果!
深度学习技术的出现,特别是像U-Net [20]这样的卷积神经网络(CNNs),通过提高图像分割和分析等任务的准确性和效率,显著推动了该领域的发展。这在现代医疗中发挥着关键作用,帮助临床医生进行准确诊断、治疗规划以及疾病监测。
集智书童公众号
2024/04/30
1.8K0
CFPFormer| 将特征金字塔与 Transformer 完美融合,显著提升图像分割与目标检测效果!
看了这篇文章,了解深度卷积神经网络在目标检测中的进展
近些年来,深度卷积神经网络(DCNN)在图像分类和识别上取得了很显著的提高。回顾从 2014 到 2016 这两年多的时间,先后涌现出了 R-CNN,Fast R-CNN, Faster R-CNN, ION, HyperNet, SDP-CRC, YOLO,G-CNN, SSD 等越来越快速和准确的目标检测方法。 1. 基于 Region Proposal 的方法 该类方法的基本思想是:先得到候选区域再对候选区域进行分类和边框回归。 1.1 R-CNN[1] R-CNN 是较早地将 DCNN 用到目
AI研习社
2018/03/29
7200
看了这篇文章,了解深度卷积神经网络在目标检测中的进展
卷积神经网络模型发展及应用
http://fcst.ceaj.org/CN/abstract/abstract2521.shtml
用户9882025
2022/08/02
5891
卷积神经网络模型发展及应用
【YOLOv8改进- Backbone主干】BoTNet:基于Transformer,结合自注意力机制和卷积神经网络的骨干网络
我们提出了BoTNet,这是一种概念上简单但功能强大的骨干架构,结合了自注意力机制,用于图像分类、目标检测和实例分割等多个计算机视觉任务。通过仅在ResNet的最后三个瓶颈块中用全局自注意力替换空间卷积,并且没有其他更改,我们的方法显著提高了实例分割和目标检测的基线性能,同时减少了参数,且在延迟方面的开销极小。通过设计BoTNet,我们还指出带有自注意力的ResNet瓶颈块可以视为Transformer块。无需任何额外的技巧,BoTNet在使用Mask R-CNN框架时,在COCO实例分割基准上达到了44.4%的Mask AP和49.7%的Box AP,超过了之前ResNeSt 67在COCO验证集上发布的单模型和单尺度的最好结果。最后,我们提出了BoTNet设计在图像分类中的简单适应性,生成的模型在ImageNet基准上实现了84.7%的top-1准确率,同时在TPU-v3硬件上的“计算”时间比流行的EfficientNet模型快1.64倍。我们希望这种简单而有效的方法将作为未来自注意力模型研究的强大基线。
YOLO大师
2024/07/26
5640
卷积神经网络表征可视化研究综述(1)
近年来, 深度学习在图像分类、目标检测及场景识别等任务上取得了突破性进展, 这些任务多以卷积神经网络为基础搭建识别模型, 训练后的模型拥有优异的自动特征提取和预测性能, 能够为用户提供“输入–输出”形式的端到端解决方案. 然而, 由于分布式的特征编码和越来越复杂的模型结构, 人们始终无法准确理解卷积神经网络模型内部知识表示, 以及促使其做出特定决策的潜在原因. 另一方面, 卷积神经网络模型在一些高风险领域的应用, 也要求对其决策原因进行充分了解, 方能获取用户信任. 因此, 卷积神经网络的可解释性问题逐渐受到关注. 研究人员针对性地提出了一系列用于理解和解释卷积神经网络的方法, 包括事后解释方法和构建自解释的模型等, 这些方法各有侧重和优势, 从多方面对卷积神经网络进行特征分析和决策解释. 表征可视化是其中一种重要的卷积神经网络可解释性方法, 能够对卷积神经网络所学特征及输入–输出之间的相关关系以视觉的方式呈现, 从而快速获取对卷积神经网络内部特征和决策的理解, 具有过程简单和效果直观的特点. 对近年来卷积神经网络表征可视化领域的相关文献进行了综合性回顾, 按照以下几个方面组织内容: 表征可视化研究的提起、相关概念及内容、可视化方法、可视化的效果评估及可视化的应用, 重点关注了表征可视化方法的分类及算法的具体过程. 最后是总结和对该领域仍存在的难点及未来研究趋势进行了展望.
用户9882025
2022/08/09
5090
推荐阅读
相关推荐
CNN再助力!CoaT:Co-Scale卷积-注意力图像Transformer
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档