前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >被热捧的云原生,和大数据怎么结合才能驱动商业?

被热捧的云原生,和大数据怎么结合才能驱动商业?

作者头像
腾讯大讲堂
发布于 2021-05-21 03:10:22
发布于 2021-05-21 03:10:22
4970
举报

作者:陈龙 腾讯专家工程师、腾讯云EMR技术负责人

|导语  在金融行业IT系统国产化的大背景下,国内金融行业开始推动IT基础设施国产化,逐渐摆脱对于传统IOE架构的依赖。微众银行自成立之初,就放弃了传统IOE架构路红,结合腾讯金融级分布式数据库TDSQL,建立了基于DCN单元化架构模式的分布式基础平台。如今这套架构承载了微众银行数亿级别的用户规模,数百套银行核心系统,和每天数亿次的金融交易。 近几年炙手可热的云原生首先由Matt Stine提出并延续使用至今,但其并没有标准的、严格的定义,比较公认的四要素是:DevOps、微服务、持续交付、以及容器,更多的则是偏向应用系统的一种体系架构和方法论。那么在云上如何改进大数据基础架构让其符合云原生标准,同时给企业客户带来真真切切的数据分析成本降低和性能保障是一个开放性的话题。本文由腾讯专家工程师、腾讯云EMR技术负责人陈龙在 Techo TVP开发者峰会「数据的冰与火之歌——从在线数据库技术,到海量数据分析技术」 的《云原生环境下大数据基础技术演进》演讲分享整理而成,与大家分享和探讨在云上如何实现存储计算云原生,以及未来下一代云原生大数据基础架构。

一、云原生标准和大数据基础技术

今天分享的内容分为四个部分:第一部分是云原生标准和大数据基础技术;第二部分是大数据基础技术如何实现云原生;第三部分是腾讯云大数据云原生解决方案;第四部分是下一代云原生大数据基础技术。

接下来看云原生标准和大数据基础技术,以及什么才是云原生的大数据基础技术。

1. 云原生的核心思想

“云原生”这个词,这几年非常火热,对于这个词,可谓仁者见仁,智者见智。一个产品如果不加上“云原生”,好像就落后于这个时代,那么云原生讲的到底是什么?它所宣扬的核心思想又是什么?我们首先来看定义,云原生首先是由马特·斯泰恩提出并延用至今,比较公认的包含四个要素,第一个是DevOps,第二个是微服务,第三个是持续交付,第四个是容器化

DevOps实际上就是开发和运维的综合体,不像开发和产品经常兵戎相见,DevOps实际上是敏捷思维,是一种沟通文化,也是一种组织形式,为云原生提供持续交付能力。持续交付是不误时开发,不停机更新,小步快跑,反传统瀑布模型开发,这就要求开发版本和稳定版本并存,持续交付需要很多工具或者流程来支持。

再来看微服务,几乎所有的云原生都包含微服务这个定义。跟微服务相对应的是单体应用,微服务有理论基础——康威定律,指导如何拆这个服务。但是凡是能称为定律的东西,文字看起来都很简单,能够真正掌握其精髓或者对其理解透彻是非常困难的,有时候微服务拆不好的话,反而是一种灾难。一个微服务到底拆得好不好,实际上受限于架构师对于这个业务场景的理解和宏观抽象的能力。

而容器化是指采用开源技术栈,一般是指K8S和Docker进行容器化,基于微服务架构来提高整个系统的灵活性和扩展性,借助敏捷方法、DevOps支持持续迭代,基于云基础设施实现弹性伸缩、动态调度、优化整个资源利用率。

因此把这四个因素加以宏观归纳,其实云原生讲的就是两个词:成本和效率,即在开发整个软件的时候实现工业化生产

2. 大数据的云原生定义

结合刚才的讨论,云原生讲的内容就是让源码在变成一个产品的过程中要充分利用云计算软件交付模型,来构建和运行应用程序,从而实现整个软件生产的工业化,进而实现降本增效。

按照这个原理怎么推导出大数据的云原生?“大数据”也是目前比较火热的一个词,我个人理解大数据其实是对超大规模数据集的分析处理技术。对于大数据,比较官方的定义有两种:第一种,麦肯锡认为:指数据的规模超过了常规的数据库工具获取、管理、存储和分析的数据集合,但是同时也强调并不是超过特定规模的数据才算是大数据。第二种,国际IDC数据公司则认为大数据有四个特征:数据规模大;数据流转快;类型多;价值密度低。

可以看到无论哪种定义,大数据的基本特征就是规模非常大,常规的管理手段很难处理它,这就意味着要更为复杂的分布式系统、并行计算等才能解决,复杂也意味着成本上升和效率下降。

因此,结合刚才的分析,我觉得大数据云原生就是要充分利用云基础设施来解决超大规模数据集的获取、管理、存储和分析问题,并在这个过程中实现成本降低和效率提升,从而实现数据驱动商业

3. 如何实现大数据云原生

在明确大数据基础云原生目标之后,我们来看要通过什么手段或措施来实现大数据云原生。

数据驱动企业的商业发展,数据作为企业最重要的资产之一,由企业的系统产生,而企业的系统多种多样,比如CRM系统、IOT设备、OA系统、HR系统等,这些系统产生的数据在宏观上又可以分为结构化和非结构化数据,这些数据经过分析和转换之后变成企业运行的各类指标,企业决策者就根据这些指标来调整整个企业的经营方向。结合刚才的分析,要在这个过程中实现云原生处理这些问题,我们需要的一些规则和措施是什么?我觉得有四点:

第一是工业化交付,什么叫工业化交付?就是在现阶段很难完成单一系统处理掉所有的数据问题,那么需要一个生态级的系统去处理数据问题,交付工业化是指当我需要某一个系统的时候可以分钟级去创建这些系统,并提供管控和运维能力。

第二是成本量化,成本量化分为两个维度,一是存储成本量化,二是计算成本量化。是指处理数据的系统所使用的存储资源或者是计算资源能够有量化的能力。

第三是负载自适应,是指分析处理这些数据的系统所使用的资源规模应该随着数据规模的变化而变化。

第四是面向数据,对于企业来讲,数据是企业最重要的资产之一,而不是处理数据的这些系统或者技术本身。假设我是一个做物流公司的,我买一架飞机是让整个物流效率提升,而不是这个飞机的制造技术,所以面向数据应该是充分利用云平台基础能力,去解决数据分析问题,让企业更加聚焦于发现数据之间的关系、挖掘数据的价值,进而更好地实现数据驱动。

基于这些准则和措施,我们再结合一些落地的技术,看看如何实现大数据云原生。

在现阶段所有的大数据基础分析都是围绕Hadoop生态技术构建,我们以数据流来看这个问题。系统产生的日志数据或者ERP产生的数据又或者IOT等其它产生的数据,一般会进入消息管道,之后按照场景可能分为流场景或者批场景,分别有流处理引擎和批处理引擎,处理完成之后进入数据服务层,进入后,数据消费终端再通过OLAP引擎或者其它数据服务存储组件来消费这些数据。要实现大数据云原生来处理这些问题,即在整个处理系统上对于每一个子模块或者系统实现工业化交付,在整个生态处理链路上的每一个子模块或者系统,它所使用的存储资源或者是计算资源能够做到成本量化。它占用的资源应该随着整个数据处理的负载变化而变化,通过这一系列的手段来实现面向数据,接下来我们看每一个准则如何详细实现。

二、大数据基础系统云原生实现

在现阶段,其实Hadoop生态的技术栈已经成为大数据基础处理的事实标准,要实现云原生处理大数据基础问题,也就是要结合云基础设施和Hadoop生态技术栈实现工业化交付、成本量化、负载自适应和面向数据,基于Hadoop生态实现工业化交付不仅仅是指集群的创建,应该还包括管控、运维、数据API等。在常规情况下可能不会频繁地创建集群,但是数据在云上的时候,我的数据可能在云存储,在需要的时候分钟级拉起一个集群去计算,计算完成后去释放这个集群,这时工业化交付就变得相当重要,即使你是一个常驻集群,对日常集群的管控和运维也是工业化交付的一部分,那么成本量化是指整个Hadoop集群所使用的存储资源或者计算资源在云上能够有透视的能力。第三个是负载自适应,是指整个Hadoop生态系统组件所使用的IaaS层规模应该随着处理数据量的变化而变化,尽量减少人工干预。

通过综上三条措施,最后让企业看见的是数据流动,而非系统本身,最终实现面向数据

接下来我们看一下交付工业化如何实现。交付工业化就是要充分利用云基础设施一键化构建云上的数据分析系统,并同时提供管控、任务、查询或者管理的一些API能力,通过这些API能力大幅降低使用整个大数据分析的技术成本和运维成本,在现阶段数据处理需要一个生态级的解决方案,可以根据数据规模或者业务场景选择一键化构建云上通过Hadoop服务、流计算服务、实时数仓服务或者数据湖服务,基于不同的解决方案,可以通过API来提交任务。举个例子,通过API来提交一个Spark任务,在Spark完成计算之后,我直接释放这个集群,或者是通过API直接提交,或者通过我们的数据湖服务,按照扫描的数据量进行付费。通过这种工业化交付能力可以大幅降低整个大数据分析的资源成本

要实现大数据分析成本量化,就必须基于现有的Hadoop架构进行改进,对于一个常规的Hadoop集群而言,它的拓扑结构分为分布式协调节点,主要部署zookeeper、journalNode这种进程,主节点主要部署Namenode、ResourceManager,计算节点主要部署DataNode、Nodemanager进程,但是现实情况是计算资源和存储资源并不对等,有时候计算是瓶颈,有时候存储是瓶颈,特别是在基于云存储的情况下。这时候只需要保留较少的存储节点用于存储、计算的中间临时结果以及日志等,基于成本量化准则,我们把一个Hadoop集群的拓扑进行了改进,分为Master、router、core和task,Master是类比之前传统模式下的Master节点,主要部署Namenode、ResourceManager。Router节点可以用来部署一些无状态的服务,比如HiveServer2这种类型的进程,同时还可以利用云上的基础设施来简化整个大数据分析领域里的高可用问题。举个例子:presto的coordinator问题,可以将presto的coordinator部署在router上,通过云的负载均衡来实现容灾,在故障的时候自动切换。Core节点类似于传统模式下的计算节点,里面部署DataNode、Nodemanager,在云上的时候可以只用选取很少的core节点。Task节点是弹性节点,它里面只会部署计算进程,基于这种架构可以实现四类大数据基础分析服务。

第一种是传统模式,传统模式下可以完全保留IDC整个集群下的架构,整个集群不存在弹性节点,通过云上EMR提供的引导程序和集群程序,可以大幅降低使用整个Hadoop集群的运维问题,同时云上EMR还针对云存储做了大量内核层面的优化,在整个集群存储量不够的时候快速转移数据到云存储,同时基于云上海量的计算资源可以快速扩容集群。

第二种模式是计算存储分离模式,在这种模式下整个数据在云存储,需要计算的时候,可以分钟级拉起一个上千节点的集群进行计算,算完之后释放掉集群,或者说维持集群在较小的规模,需要的时候分钟级扩容到较大的规模。

第三种是混合云方案,在IDC集群还没有迁移到云上的时候,可以通过VPN或者专线将IDC环境和云环境打通,打通后在云上构建EMR集群,通过EMR集群识别IDC集群文件系统和元数据方式,快速扩展IDC自建集群的算力,在计算完成之后释放云上EMR集群。

第四种方式是混合计算,现在容器集群TKE或者STKE这种集群里部署的主要是以业务系统为主,这类系统有一个特点,它白天的时候负载很高,夜晚的时候负载很低,我的EMR有这种能力,在容器集群负载很低的时候可以快速把容器集群的资源加入到EMR集群。

通过这四种计算方式灵活的使用云上存储资源和计算资源,从而大幅降低大数据分析的硬件成本,腾讯云也提供了这种能力。

这就是我们的数据湖解决方案,我们实现了按照扫描数据量进行付费的计算优化,分析系统比如BI或者一些可视化的数据管理工具以及应用程序,它可以通过JDBC或者ODBC的方式连接到我们的服务。在服务层我们提供统一的认证和授权,同时在查询的时候可以设置每一个SQL所使用的资源情况,在这个解决方案中DLF管理云上所有的元数据,同时它还负责数据的入库服务,提交的SQL会交由DLC去执行,可以根据DLC数据的资源账单来进行付费。

再看负载自适应,基于Hadoop集群如何实现负载自适应。右侧上面这张图是某集群真实的负载图,常规情况下,集群规模的大小应该是时间线×峰值的矩形面积,利用云上海量的计算资源实现负载自适应,让整个集群规模的大小随着负载的变化而变化。目前EMR支持两种形式的伸缩,第一个是按照负载伸缩,第二个是按照时间伸缩,按照负载伸缩的模式,可以根据资源调度组件YARN上vocre和vmem阻塞情况实现自动扩容或者缩容;按照时间段的模式,让实际使用者可以根据自己的业务情况,在高峰时段扩容,在低峰时段缩容。

我们在实现负载自适应的时候,还要保证整个业务的SLA,也就是在缩容的时候要做到对业务无感知,要控制应用失败率。假设有一个流式场景,一旦AM节点分配在了弹性节点,那么在缩容这个弹性节点的时候一定会导致流式任务的失败。同理,对于YARN里失败次数超过2次的Container,下一次分配在弹性节点上时,如果再下线这个弹性节点,同样会导致这个应用的失败,所以我们做负载自适应的时候在内核层面做了大量的优化,来规避这种情况。了解成本量化、负载自适应之后,我们接下来看如何实现面向数据。

我以一个数据1转换到数据2来说明面向数据的问题。在数据处理领域我们可以将问题抽象为如何高效地将一个数据集有效转化为另外一个数据集,随着这个数据规模越来越大,使用的工具或者技术也会越来越复杂,在GB的时候我们可能需要数据库或者一些其他单机系统就可以完成,在TB的时候可能需要MPP或者并行计算才能完成,当上升到PB的时候可能需要分布式存储以及分布式计算才能完成,随着系统越来越复杂,数据问题就慢慢演变成技术问题、资源问题和运维问题。还是举刚才那个例子,假设我做物流,当我的物流就在一个区域内的时候,我可能需要一个三轮车就可以解决问题,当我的业务发展到跨城域的时候,可能需要汽车,发展到跨省或者跨国际的时候,我可能需要飞机或者火车,但是在数据处理领域现实情况是很多企业为了解决这些数据问题,不得不去解决处理这些数据问题的火车和飞机,从而偏离了数据作为企业最重要资产之一的目标。整个社会生产力进化的方向一定是分工更加细化,因此我理解的面向数据是要充分利用云基础设施去解决数据分析问题,那么我们接下来看面向数据如何落地。

还是以实际的数据处理流为例,比如应用系统输出数据到数据库或是日志,这些数据库或者日志里面的数据经过数据同步工具会进入到云存储或者消息管道。增量的数据,比如CDC里面的数据,它会进入消息管道或者进入流批处理引擎,处理完成之后,会进入实时数仓或者云存储。在这张图里每一根线是处理这个数据自动化的生产线,每一个节点相当于是处理这个数据的引擎,对于企业和开发者来说,云上提供的每一个引擎之间无缝对接,对于企业来讲只需要关注整个数据流动本身即可,而不需要去关注数据处理技术本身。在解决了面向数据的同时,还必须要保证整个大数据分析的高性能,我们接下来看腾讯云大数据分析基础性能这一层是如何保障的。

为了保障云上大数据处理的性能,腾讯云大数据提供从基础设施硬件层到组件内核以及到架构的多方面优化,如果你选择的是传统模式来构建大数据应用,云主机提供了多种多样的硬件供选择。举个例子,比如一个NoSQL HBase应用,对RT要求在毫秒以内,那么你可以使用IT系列的集群来构建集群。在这里我重点介绍计算存储分离场景下的性能保证,在传统模式下,计算进程和存储进程是部署在一起的,特别是在离线计算的场景下,为什么要这么做?原因是计算程序的体积远远小于数据的体积,所以现在主流的像YARN这种调度器在调度的时候都会充分考虑数据的亲和性,它在做计算任务切片和调度的时候会考虑整个计算任务的数据分布情况,并把这些计算任务调度到数据所在的节点,在这些节点上构建计算程序并执行,以获得良好的性能;但是在计算存储分离这种场景下,情况刚好反过来,整个数据在云存储,数据量特别大的时候会有一定的性能损耗,因此我们引入了CacheService,同时改造了内核,做到对计算引擎透明,上层整个应用无需感知到CacheService的存在,同时我们可以根据数据的元数据信息,比如表或者分区的访问信息,智能地从云存储里加载数据到CacheService里,以提升性能。接下来我们看腾讯云大数据云原生解决方案。

三、腾讯云大数据基础云原生解决方案

腾讯云大数据在大数据处理基础的各个环节,都提供了完善的产品能力支持。在存量数据导入方面,可以直接通过对象存储提供的工具,让数据导入到对象存储,增量数据的处理可以通过流计算的CDC能力,也可以直接写入kafka,或者通过EMR集群里面的sqoop或者Spark导入到集群。数据进入云上后,按照流批两种场景,在批处理场景我们提供了EMR或者DLC进行处理,流处理场景则提供了全托管的服务Oceanus。同时在数据服务层,我们提供了搜索解决方案ES、实时数仓GP和ClickHouse,EMR也提供了基于Hadoop全生态的服务层组件,可以满足数据服务层的一些需求,同时这些产品提供了完善的监控、API、决策权限以及SDK,可以大幅简化大数据分析的代价,以此完成大数据领域里面常见的点查、adhoc、olap或者Nosql等应用。

在大数据处理领域,计算引擎主要分批流两种,批以Spark为主,流以Flink为主,目前也有融合的趋势,各有各的生态,谁能胜出还不一定。而为了解决复杂的数据服务层问题,目前也出现了delta相关的数据湖技术以及一些闭源的项目来尝试统一数据服务层。接下来是我对数据服务层的一些思考。

无论数据服务层怎么变,商业上必须要实现以最低成本和高性能完成数据分析。举个例子,现阶段在以Hive来构建数仓的情况下,更新某个分区表下面一小部分数据的时候,要进行大量的无效计算,进而浪费大量的IO和CPU资源,导致成本居高不下。现在Hadoop生态领域没有一个组件能够解决掉所有的数据问题,随着场景越来越复杂,引入的组件会越来越多,这会导致数据大量冗余,进而造成成本升高。同时对于一个分布式系统而言,数据结构、算法和数据分区是保证高性能的前提,但现在每个计算引擎都有上百个参数,而且还不包含JVM或者是操作系统内核本身的参数。把这些参数暴露给开发者或是使用者,对于使用者来说是相当迷茫的。从另外一个层面来说,对于一个单节点的性能,其实是机器硬件能力的衍生,在现阶段情况下你写的代码是否能够真正把这个机器合理的硬件发挥到极致,要打一个很大的问号,因此我觉得下一代大数据基础处理引擎有可能是这样的

受限于硬件体系结构限制,现在单核CPU的频率已经到上限,针对单机扩展它的性能,一定是numa架构的多CPU模式,而在这种模式下,代码执行只要跨了numanode,性能就会出现成倍的抖动。在分布式场景下,数据跨节点之间的Shuffle是不可避免的,现在Linux内核对大量的数据包进行封包和解包,也会浪费大量宝贵的CPU资源,同时在编程模型上很难有编程框架能够做到对单个函数调用扩大资源限制,即使是cgroup也只能做到进程或者线程级,同样对于io也很难做到针对每个io设置quote。特别是在存储层面,可能需要根据存储数据的重要程度以及成本,提供不同的存储成本。在数据组织层,需要提供统一的DataFormat,但是现在Hadoop生态里有各种各样的数据格式。因此我觉得下一代计算引擎有可能是这样:首先在接入层,基于SQL提供统一的认证,同时还可以基于SQL设置这个SQL执行的资源组。在计算调度层,根据SQL设置的资源组精确控制每个算子的资源开销,以及每个算子的IO基本单位,这个算子在底层实际执行的时候,通过编程框架来保证每次函数执行都不会出现跨Node的情况,同时在继续做shuffle的时候可以通过RDMA或者DPDK技术来进一步提升性能,从而简化整个数据服务层架构并获得良好的性能。

近期热文

Nginx 架构浅析

高性能对象池实现

微信游戏推荐系统大揭秘

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-05-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯大讲堂 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
为什么黑客都喜欢通过YouTube 传播木马/恶意软件
年初时就有研究人员提醒,上传到 YouTube 上与 AI 生成有关的视频表面在传播破解软件,其实是传播恶意软件。尽管 AI 生成的视频热度在下降,但这种攻击媒介仍然可行,且会被攻击者持续利用。
FB客服
2024/03/18
2550
为什么黑客都喜欢通过YouTube 传播木马/恶意软件
新Zloader感染链改进隐身和检测逃避技术
ZLoader(又称 Terdot)于 2016 年被首次发现,是臭名昭著的 Zeus 银行木马的一个变种。目前,该恶意软件仍然在积极开发中,平均每周发布 1 到 2 个新版本。
FB客服
2021/10/11
8740
Adobe Flash零日漏洞(CVE-2018-4878)在野攻击完全分析报告
背景 2018年1月31日,韩国计算机应急响应小组发布了一则关于Adobe Flash Player的 0day 漏洞警告,并称早在2017年11月中旬,就有黑客利用该漏洞实施有针对性的攻击。 2018年2月1日, Adobe官方发布了Adobe Flash Player系列产品的安全通告(APSA18-01),一个最新的AdobeFlash零日漏洞被发现针对韩国地区的人员发起攻击,该0day漏洞编号为CVE-2018-4878。 2018年2月5日,Adobe官方发布漏洞补丁,修复CVE-2018-487
FB客服
2018/02/23
1.3K0
Adobe Flash零日漏洞(CVE-2018-4878)在野攻击完全分析报告
KBOT研究报告
KBOT通过Internet或本地网络或受感染的外部媒介攻击用户计算机。受感染的文件启动后在系统中写入启动程序和任务调度程序,然后进行web注入窃取受害者的银行和个人数据。KBOT可以下载额外的窃取模块,把所有的用户信息发送给C&C服务器,包括密码/登录、钱包数据、文件列表和已安装的应用程序等。恶意软件将其所有文件和收集的数据存储在RC6加密的虚拟文件系统中,因此很难被检测到。
FB客服
2020/02/27
1.3K0
WSP ( CVE-2022-24934 ) APT
我们最近发现了一个APT我们正在调用的活动Operation Dragon Castling。该活动的目标是似乎在投注的公司South East Asia,更具体地说是位于Taiwan、Philippines和的公司Hong Kong。有了适度的信心,我们可以将活动归因于一个Chinese speaking APT group,但不幸的是不能将攻击归因于特定的群体,并且不确定攻击者的目标是什么。
Khan安全团队
2022/03/25
4.8K1
窃密恶意软件通过仿冒盗版软件下载网站进行传播
攻击者正在针对寻求下载盗版软件的用户进行攻击,由于用户自己知道获取与使用盗版软件是违法的,许多下载盗版软件的用户都不会对下载来源进行安全审查,这些用户最终可能会付出更大的代价。 介绍 自从 Napster 在互联网上发布盗版已经有二十余年,海盗湾种子下载站出现也近十年。尽管许多国家都针对此发布了相关的法律与禁令,但是盗版依旧屡禁不止,许多人都会下载与使用。互联网上也有很多宣传破解软件的的广告,出现在 Google 的搜索结果与网站的广告位中。 【Google 搜索结果中的仿冒盗版下载网站】 安全研究
FB客服
2023/03/30
8240
窃密恶意软件通过仿冒盗版软件下载网站进行传播
NuggetPhantom分析报告
近期,绿盟威胁情报中心(NTI)在一次应急响应中,发现一起使用模块化恶意工具集“NuggetPhantom(掘金幽灵)”的安全事件。据我们观测,本次安全事件背后的组织最早出现于2016年底,其曾在2016年底的“天翼校园客户端蓝屏事件”以及2017年底的“天翼校园客户端挖矿程序事件”中有所行动。
绿盟科技研究通讯
2019/12/11
1.1K0
NuggetPhantom分析报告
探索编译的V8 JavaScript在恶意软件中的应用
为了静态分析编译后的JavaScript文件,研究人员使用了一个新开发的定制工具「View8」,专门用于将V8字节码反编译为高级可读语言。借助View8,研究人员成功反编译了数千个恶意编译的V8应用程序,涵盖各种恶意软件类型,如远程访问工具(RAT),窃取程序,挖矿程序甚至勒索软件。
FB客服
2024/07/22
3450
探索编译的V8 JavaScript在恶意软件中的应用
【最新】LuaJIT 32/64 位字节码,从编译到使用全纪录
网上关于 LuaJIT 的讨论,已经显得有些陈旧。如果你对 LuaJIT 编译 Lua 源文件为具体的 32位或64位字节码,极其具体使用感兴趣的话,不妨快速读一下这篇文章。此文章针对尝试在 iOS 或 Android 上使用 LuaJIT 的小伙伴。限于篇幅,此处假定,你可以成功在 iOS/Android App 中集成了 LuaJIT,并且已经可以执行源码形式的 Lua 文件。
ios122
2018/07/31
3.5K0
Lua和Luajit
一、什么是lua&luaJit lua(www.lua.org)其实就是为了嵌入其它应用程序而开发的一个脚本语言, luajit(www.luajit.org)是lua的一个Just-In-Time也就是运行时编译器,也可以说是lua的一个高效版。 二、优势 1)lua是一个免费、小巧、简单、强大、高效、轻量级的嵌入式的脚本语言,lua当前的发行版本5.3.1只有276k。 2)它是用C语言开发的项目,所以可以在大部分的操作系统上运行 3)lua是目前速度最快的脚本语言,既可以提升语言的灵
全栈程序员站长
2022/11/08
1.7K2
针对交易软件 TradingView 的供应链攻击
RedLine、RecordBreaker、ArkeiStealer、Vidar、Satacom、BatLoader 等窃密类恶意软件通常使用恶意软件即服务(MaaS)模式进行销售,并且不断更新升级攻击方式。
FB客服
2023/02/10
6630
针对交易软件 TradingView 的供应链攻击
Quantum 构建工具使用新的 TTP 投递 Agent Tesla
Zscaler 的研究人员发现暗网上正在出售名为 Quantum Builder 的构建工具,该工具可以投递 .NET 远控木马 Agent Tesla。与过去的攻击行动相比,本次攻击转向使用 LNK 文件。
FB客服
2022/11/14
1.6K0
Quantum 构建工具使用新的 TTP 投递 Agent Tesla
RomCom 攻击者使用投毒的应用程序攻击乌克兰与英国
被称为 RomCom 的攻击者正在利用 SolarWinds、KeePass 与 PDF Technologies 等公司的软件作为诱饵,开展一系列的攻击行动。研究人员发现攻击者通过虚假软件针对乌克兰军事机构发起攻击,并且投递 RomComRAT 远控木马。 RomCom 在攻击行动中仿冒了 SolarWinds Network Performance Monitor、KeePass Open-Source Password Manager 与 PDF Reader Pro 这几款软件。 根据恶意网站的服务
FB客服
2023/03/29
5050
RomCom 攻击者使用投毒的应用程序攻击乌克兰与英国
研究传播 Dridex 新变种的 Excel 文档
Dridex也称为 Bugat 或 Cridex,可以从失陷主机上窃取敏感信息并执行恶意模块(DLL)的木马。
FB客服
2021/10/11
1.4K0
Windows 11更新要小心了,恶意软件已经盯上它
2022年年初,微软官方一再发布消息催促用户及时更新Windows 11系统,并表示Windows 11 系统的推广部署工作已经进入尾声。微软此前曾承诺在2022年年中完成Windows 11的推广工作,现在看来,该公司很有可能与这一最初的时间表保持一致。而一旦错过了这个推广期,后续用户很有可能无法继续享受免费更新Windows 11系统的服务。
FB客服
2022/02/25
5670
Windows 11更新要小心了,恶意软件已经盯上它
Lazarus针对COVID-19发起攻击
随着COVID-19影响持续升级,攻击者正在试图通过任何手段加速疫苗研发。有证据表明,Lazarus正在通过攻击与COVID-19研究有关的实体来获取此类情报。他们在9月底攻击了一家制药公司和COVID-19有关的政府部门。
FB客服
2021/02/07
9230
[译] APT分析报告:04.Kraken新型无文件APT攻击利用Windows错误报告服务逃避检测
这是作者新开的一个专栏,主要翻译国外知名的安全厂商APT报告文章,了解它们的安全技术,学习它们溯源APT组织的方法,希望对您有所帮助。前文分享了APT组织Fin7 / Carbanak的Tirion恶意软件,包括OpBlueRaven行动。这篇文章将介绍一种新型无文件APT攻击Kraken,它会利用Windows错误报告服务逃避检测。其中,DllMain函数反分析检查,以确保它不在分析/沙箱环境或调试器中运行非常值得我们学习。
Eastmount
2021/12/03
1.1K0
[译] APT分析报告:04.Kraken新型无文件APT攻击利用Windows错误报告服务逃避检测
Naikon APT组织分析
近期Check Point发现Naikon APT组织正在对亚太地区(APAC)国家政府进行网络攻击活动,使用了名为Aria-body的新后门控制受害者的网络。本报告将详细分析Naikon APT组织在过去5年中使用的战术,技术,程序和基础设施。
FB客服
2020/06/03
1.1K0
新型OpcJacker恶意软件通过虚假的VPN传播恶意广告
趋势科技研究人员发现了一种新型恶意软件,将其命名为 "OpcJacker"(取其opc配置设计“opc”和加密货币劫持“hijack”能力英文前后缀opc-jack而成),该恶意软件自2022年下半年以来一直传播。OpcJacker是一个有趣的恶意软件,因为它的配置文件使用一个自定义的文件格式来定义窃取者的行为。具体来说,该文件格式类似于自定义的虚拟机代码,配置文件中存在的十六进制数字标识符使得窃密器可运行所需的功能。使用这种设计的目的可能是为了使研究人员更难理解和分析恶意软件的代码流。 恶意软件OpcJa
FB客服
2023/04/26
1.1K0
新型OpcJacker恶意软件通过虚假的VPN传播恶意广告
Turla的新武器:TinyTurla
Turla 也被称为 Snake、Venomous Bear、Uroburos 和 WhiteBear,是一个臭名昭著的 APT 组织。据信该组织来自俄罗斯,2004 年以来就一直活跃。
FB客服
2021/10/11
6990
相关推荐
为什么黑客都喜欢通过YouTube 传播木马/恶意软件
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档