部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >绕过某云网络验证思路分析

绕过某云网络验证思路分析

作者头像
小伍同学
发布于 2021-12-13 07:23:57
发布于 2021-12-13 07:23:57
2.1K0
举报

经过该云网络验证客服允许的情况下,我们注册并购买了测试软件位,并将一个未加壳的exe可执行文件上传到了云端加密系统,接下来我对该验证的免费加密系统进行了简单的分析。

0x00 文件分析

加密类型

从该云端系统下载加密完毕后的程序后,发现文件的体积明显增大7倍左右。从官网的介绍上来看,虚拟引擎应该借鉴了VMP3.X,因为我的调试环境中,3.X以下的可以直接过滤掉。

代码保护比较

PE信息

通过Exeinfo PE文件可以很清楚地看到该加密后程序的PE信息:

文件PE信息

区段信息

经过加密后,区段基本处于不可读阶段,所以我这里还是决定选择了ollydbg动态调试,希望能够通过运行查看是否能够解密.text.data区段

0x01 猜想验证方式

由于该验证使用了VMP,并且对于VM虚拟机debugger都有检测,这让我想起了以前分析过的一款倒闭的验证:

如果视频无法播放,点击这里试试

当时这款验证也是使用了VMP,不过验证的地址是固定的,特征保持不变,并且在一般的验证上存在逻辑问题,可以在某Call处将eax直接置1,即可跳过无条件跳过验证,并且释放源文件。

我猜测此次验证所使用的方法也是大同小异,不过特征可能不会不同。

劣质分析图

0x02 动态调试

配置好OD后,运行该验证,成功解码基址00400000,并且得到了解码后文件的完整数据段,由此成功证实了我上面的猜想,这种一键加验证的相当于就是套了个验证壳,只要过掉登录验证后,就不会有其他心跳验证。

00401000汇编代码

寻找验证CALL

对于这种自写验证壳的验证弹窗,通常不会调用MessageBox,而是自写一个信息框提示窗口,常用bp指令为 bp CreateWindowExWbp CreateWindowExA,通过在这两个地址下断点,在单步回到验证。

单步来到验证壳段后,尝试搜索Unicode和ASCII关键字符,结果如下:

中文字符

从这里可以得知,该验证是由易语言(EasyLanguage)编写,并且使用VMP引擎变异虚拟加密。

CreateWindowExW断点后,我们点击登陆按钮,成功断下,并且进行单步跟踪,并且在RETN处断点跳转,最终跟踪到了验证部分:

验证部分

为了验证猜想正确,我们在该头部断点,并且重新点击登陆,结果成功断下,我们再次进行单步跟踪,查看解码后的数据结果。

单步跟踪后,可以发现程序获取了本机的内网ip和网关:

在一个关键偏移CALL,出现了延迟,并且返回了登录的明文状态码,可以很明确地得知该CALL为验证登录,寄存器和数据地址中也可以很明确地看到返回的json内容:

Json的相应相应内容

所以这里又给出了一种方法:通过截取数据包,修改返回的JSON相应内容,达到登录效果

JSON内容

code

状态码

msg

提示信息

count

计次

data

附加数据

判断状态

通过对JSON内容的解析,程序获取到各个JSON参数所对应的值,并且做出判断,判断寄存器eax是否为0,不为0则跳,为了通过验证我们手动置零或者nop该指令:

验证思路

这里通过判断寄存器eax是否为0可以看出,其实是code对应的值,所以可以通过修改内存中code的值达到通过验证的目的,从而证明截包修改返回数据登录的可行性。

0x03 验证成功

由于内存随机分配,所以无法定位到地址,该验证也仅为1.0版本,目前已将小建议发送给了验证的作者,希望能够对验证进行加固修复,下图为内存补丁后的情况:

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-10-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Hacker之家 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
模型压缩技术
今日推荐:大数据传输中的二进制加密方案文章链接:https://cloud.tencent.com/developer/article/2465816
zhangjiqun
2024/12/03
1510
《解锁AI模型压缩密码,开启元应用轻量化新时代》
在元应用蓬勃发展的浪潮下,人们对沉浸式体验的追求达到了前所未有的高度。从虚拟社交到工业模拟,元应用正逐渐渗透到各个领域。但在这背后,一个严峻的问题正阻碍着元应用的进一步普及——那就是运行元应用所需的强大计算资源和能源消耗。此时,人工智能的模型压缩技术成为了破局的关键,它如同一把精巧的手术刀,对庞大的AI模型进行“瘦身”,以适配元应用对轻量化和低能耗的严苛需求。
程序员阿伟
2025/02/28
970
《解锁AI模型压缩密码,开启元应用轻量化新时代》
《DeepSeek模型压缩:在高效与性能间寻平衡》
在人工智能飞速发展的当下,大语言模型不断迭代升级,规模与性能同步攀升。DeepSeek作为其中的佼佼者,在模型压缩技术上不断探索,力求在减小模型体积的同时,最大程度保留模型性能,为更广泛的应用场景提供支持。
程序员阿伟
2025/02/20
1410
DeepSeek大模型参数散存技术解析
一、参数散存技术的核心思想与架构基础 参数散存技术是DeepSeek大模型实现高效计算与资源优化的核心创新之一。其核心理念在于通过动态分配与选择性激活模型参数,减少冗余计算,提升资源利用率。这一技术建立在混合专家架构(MoE)与Transformer深度优化的基础上,结合动态路由、负载均衡等机制,形成了一套完整的参数管理范式。 1.1 混合专家架构(MoE)的动态参数激活
用户7353950
2025/02/10
3390
DeepSeek大模型参数散存技术解析
模型压缩:量化、剪枝和蒸馏
👆关注“博文视点Broadview”,获取更多书讯 近年来,BERT 系列模型成了应用最广的预训练语言模型,随着模型性能的提升,其参数规模不断增大,推理速度也急剧提升,导致原始模型必须部署在高端的GPU 显卡上,甚至部分模型需要多块显卡才能正常运行。 在移动智能终端品类越发多样的时代,为了让预训练语言模型可以顺利部署在算力和存储空间都受限的移动终端,对预训练语言模型的压缩是必不可少的。本文将介绍针对BERT(以Transformer Block 堆叠而成的深度模型)的压缩方法。 01 BERT模型分析
博文视点Broadview
2023/05/06
1.5K0
模型压缩:量化、剪枝和蒸馏
DeepSeek模型:从压缩到实战,性能飞升全攻略(2/18)
摘要:随着深度学习模型在实际应用中的广泛部署,模型的计算资源消耗和推理速度成为关键问题。本文以 DeepSeek 模型为例,详细探讨了模型压缩与加速的实战方法,包括知识蒸馏、量化部署以及移动端推理性能优化。首先,介绍了知识蒸馏技术在轻量化模型中的应用,通过教师 - 学生模型架构,将复杂模型的知识迁移到轻量化模型中,显著提升了模型的性能。其次,详细阐述了量化部署的流程,包括 TensorRT 和 OpenVINO 的适配方法,通过量化技术优化模型的精度和推理速度。最后,对比了 CPU、GPU 和 NPU 在移动端推理中的性能表现,提出了针对不同硬件的优化策略,并通过实验验证了优化后的性能提升。本文的研究结果表明,通过综合应用知识蒸馏、量化部署和硬件优化,可以在保持较高模型精度的同时,显著提高推理速度,降低计算资源消耗,为深度学习模型的实际部署提供了有价值的参考。
正在走向自律
2025/02/14
5360
DeepSeek模型:从压缩到实战,性能飞升全攻略(2/18)
中国科学院团队首篇LLM模型压缩综述:细聊剪枝、知识蒸馏、量化技术
近来,大型语言模型(LLM)在各种任务中表现出色。然而,即便有卓越的任务处理能力,LLM 却面临着巨大的挑战,这些挑战源于其巨大的规模和计算需求。举个例子,GPT-175B 版本具有惊人的 1750 亿参数,至少需要 320GB(使用 1024 的倍数)的半精度(FP16)格式存储。此外,部署此模型进行推理还需要至少五个 A100 GPU,每个 GPU 具有 80GB 的内存,这样才能有效地保证运行。
机器之心
2023/09/08
2.7K0
中国科学院团队首篇LLM模型压缩综述:细聊剪枝、知识蒸馏、量化技术
大模型的模型压缩与有效推理综述
本文对大型语言模型的压缩和效率推理进行了综述。大型语言模型基于Transformer架构,具有强大的性能,但也带来了巨大的内存和计算成本。本文从算法角度对大型语言模型的压缩和效率推理方法进行了分类,包括量化、剪枝、知识蒸馏、紧凑架构设计和动态网络。大型语言模型有两个显著特点:
算法进阶
2024/07/10
6300
大模型的模型压缩与有效推理综述
AI模型的效率优化
随着人工智能(AI)技术的快速发展,AI模型的应用范围不断扩大,尤其是在计算资源有限的设备上,如移动设备、物联网(IoT)设备以及边缘计算环境中,AI模型的计算效率和存储需求变得至关重要。为了确保这些模型能够在资源受限的环境中高效运行,模型的效率优化成为了研究和应用的关键问题。
LucianaiB
2025/02/04
1460
DeepSeek引领目标检测新趋势:如何通过知识蒸馏优化模型性能
DeepSeek的爆火不仅在国内引发广泛关注,也在国际上掀起热议。这款功能强大的AI工具迅速成为焦点,许多业内人士都在讨论其潜力和应用。随着DeepSeek的走红,知识蒸馏(Knowledge Distillation)这一经典技术也重回视野。DeepSeek团队通过创新的知识蒸馏技术,成功将DeepSeek-R1的推理能力迁移到更轻量的Qwen系列模型上,为模型的轻量化部署提供了重要参考。这一曾在深度学习领域大放异彩的技术,如今在目标检测等任务中再次展现出巨大潜力。
CoovallyAIHub
2025/02/24
1610
DeepSeek引领目标检测新趋势:如何通过知识蒸馏优化模型性能
如何训练一个小而精的AI模型?轻量化策略解析
在当今人工智能领域,深度学习模型的性能与体积往往呈正相关。然而,在资源受限的环境下,如移动设备或嵌入式系统,大型模型的应用受到严重限制。因此,轻量化模型设计成为了一个热门的研究方向。本文将深入探讨如何训练一个小而精的AI模型,并通过实例解析轻量化策略的实现方法。
江南清风起
2025/04/09
1700
[AI学习笔记]工业级知识蒸馏在DeepSeek中的实践:从理论到部署全解析
在当今的人工智能领域,模型的规模和复杂度不断攀升,以追求更高的准确性和性能。然而,大型模型往往伴随着高昂的计算成本、存储需求以及部署难度。知识蒸馏作为一种高效的技术手段,旨在将大型模型(教师模型)的知识迁移到小型模型(学生模型),从而在保持性能的同时,降低模型的复杂度和资源消耗,使其更易于部署和应用。DeepSeek 作为一个在自然语言处理等领域具有广泛影响力的技术项目,面临着如何在保证模型性能的前提下,实现高效部署和资源优化的挑战。因此,将知识蒸馏技术引入 DeepSeek 的实践具有重要的现实意义。
数字扫地僧
2025/03/19
2300
[AI学习笔记]工业级知识蒸馏在DeepSeek中的实践:从理论到部署全解析
【AI系统】模型压缩基本介绍
随着神经网络模型的复杂性和规模不断增加,模型对存储空间和计算资源的需求越来越多,使得部署和运行成本显著上升。模型压缩的目标是通过减少模型的存储空间、减少计算量或提高模型的计算效率,从而在保持模型性能的同时,降低模型部署的成本。模型压缩的目标可以概括为以下几点:
用户11307734
2024/12/05
1290
一文读懂到底什么是“模型蒸馏(Model Distillation)”技术?
Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建高效、灵活的模型优化技术——模型蒸馏(Model Distillation)。
Luga Lee
2025/05/04
1410
一文读懂到底什么是“模型蒸馏(Model Distillation)”技术?
智简模型,边缘智能:AI 轻量化与边缘计算的最佳实践
文章链接:https://cloud.tencent.com/developer/article/2474026
Swift社区
2024/12/08
4021
智简模型,边缘智能:AI 轻量化与边缘计算的最佳实践
神经网络的压缩方法总结
我们知道,在一定程度上,网络越深,参数越多,模型越复杂,其最终效果越好。神经网络的压缩算法是,旨在将一个庞大而复杂的预训练模型(pre-trained model)转化为一个精简的小模型。  按照压缩过程对网络结构的破坏程度,我们将模型压缩技术分为“前端压缩”和“后端压缩”两部分。
嵌入式视觉
2022/09/05
6530
神经网络的压缩方法总结
端侧模型带来的三个新思考:剪枝、蒸馏、量化
端侧化是指将人工智能模型部署到终端设备上,直接在数据产生和处理的源头进行智能计算。随着人工智能技术的飞速发展,大型模型(大模型)在诸多领域取得了显著的成果,例如自然语言处理、计算机视觉和语音识别等。然而,大模型的部署和应用面临着诸多挑战,如计算资源消耗大、数据传输延迟、隐私保护等问题。因此,端侧化成为大模型落地的重要方式。
数据猿
2024/06/19
2660
端侧模型带来的三个新思考:剪枝、蒸馏、量化
大语言模型轻量化:知识蒸馏的范式迁移与工程实践
在大型语言模型(LLM)主导人工智能发展的当下,模型参数量与推理成本的指数级增长已成为制约技术落地的核心瓶颈。本文提出基于动态知识蒸馏的轻量化范式,通过引入注意力迁移机制与分层蒸馏策略,在保持模型语义理解能力的同时实现参数效率的显著提升。实验表明,该方法在GLUE基准测试中可使学生模型参数量降低78%而性能保留率达到93%,为边缘计算场景下的LLM部署提供新的技术路径。
LucianaiB
2025/02/06
2780
大语言模型轻量化:知识蒸馏的范式迁移与工程实践
卷积神经网络的压缩
正文部分系《解析卷积神经网络——深度学习实践手册》基础理论篇部分,本次将介绍卷积神经网络压缩的具体途径
用户1386409
2018/07/26
1K0
卷积神经网络的压缩
【科普】联邦知识蒸馏概述与思考
随着深度学习与大数据的进一步发展,效果好的模型往往有着较大的规模和复杂的结构,往往计算效率与资源使用方面开销很大,无法部署到一些边缘设备、移动终端或者嵌入式设备上。因此,如何在保证模型性能的前提下减少模型的参数量以及加快模型前向传播效率,这是一个重要的问题,总的来说不同的模型压缩与加速技术具体可以分为以下四类:
CV君
2022/03/30
1.4K0
【科普】联邦知识蒸馏概述与思考
推荐阅读
相关推荐
模型压缩技术
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档