一直用的采集侠PJ版,不知怎么回事,出现了“很抱歉,本域名以被锁定,请与客服联系!”,加之域名被盗,心灰意冷,认为无解了,就没再弄了。 前段时间又有了做网站的兴趣,还是来研究一下,最终搞定: 1、先装2.7PJ版,后台还是会出现”很抱歉,本域名以被锁定,请与客服联系!“的提示,无法继续。 2、再找出2.6PJ版中的两个文件,一看,是解密过的,太高兴了,打开cjx.js源码,将”很抱歉,本域名以被锁定,请与客服联系!”那一段代码都给删除,然后上传替换。 成功,呵。呵。。。。。。 附件见下: 采集侠
上月底,代码托管网站GitHub遭遇大流量DDoS攻击。攻击者劫持百度广告联盟的JS脚本并将其替换成恶意代码,最后利用访问中国网站的海外用户对GitHub发动大规模分布式拒绝服务攻击。谷歌近日发表了针对此次攻击的分析报告,还原了整个攻击的全过程。 谷歌:纵览全部攻击过程 谷歌的Safe Browsing每天会扫描分析数百万个网页,从中找出恶意内容。Safe Browsing并不是从网络流量方面进行分析,而是从HTTP协议层面。 其实JS劫持攻击最早发生在三月初,而不是我们以为三月中下旬。根据谷歌3月1日
启用了autoptimize来优化页面加载。其主要功能是优化压缩html,合并js和css代码,减少http请求次数,加快页面加载。 但启用后就发现页面加载存在异常,console有报错信息。
最好的挣钱方式是钱生钱,怎样钱生钱呢,钱生钱可以通过投资,例如买股票、基金等方式,有人可能说买股票基金发财,我没这样的命和运气。买股票基金靠的不只有命运和运气,更多靠的是长期的经验和对股票基金数据的分析,今天我们使用scrapy框架来js逆向爬取某证信数据平台的国内指数成分股行情数据。
我们知道,XSS攻击大致分为三种类型 :Persistent型(持久型),Non-persistent(反射型)及Dom-based型。而反射型是最常用,也是使用得最广的一种攻击方式。它通过给别人发送带有恶意脚本代码参数的URL,当URL地址被打开时,特有的恶意代码参数被HTML解析、执行。它的特点是非持久化,必须用户点击带有特定参数的链接才能引起。
昨天尝试部署一个 Vue+Koa2 的前后端分离项目,没想到因为前端项目部署的问题,卡了一整天,今天才终于找到了问题所在,成功解决。这篇文章主要谈谈:
2017年9月14日更新 新手该如何学习SEO呢? 对于这个问题您可以参考我写的这篇文章《新手如何开始学习SEO优化》,希望能够给您带来帮助,如有其他疑问可以给我发消息或留言。 每天更新多少篇文章比较合适了? 这个要从两方面来看 第一:你更新的目的是什么? 第二:你有多大的能力? 对于第一个问题,例如,我是为我自己的博客更新,只是为了锻炼自己,那么你一天更新一篇也行,一周、一个月、三个月更新也行;如果你是为公司或是为了更多流量,那请看第二个问题。 对于第二个问题,如果你懂技术,或是公司有较大的编辑团队/技
说到信息收集,网上已经有许多文章进行描述了,那么从正常的子域名、端口、旁站、C段等进行信息收集的话,对于正常项目已经够用了,但是挖掘SRC的话,在诸多竞争对手的“帮助”下,大家收集到的信息都差不多,挖掘的漏洞也往往存在重复的情况。
说到信息收集,网上已经有许多文章进行描述了,那么从正常的子域名、端口、旁站、C段等进行信息收集的话,对于正常项目已经够用了,但是挖掘SRC的话,在诸多竞争对手的“帮助”下,大家收集到的信息都差不多,挖掘的漏洞也往往存在重复的情况。 那么现在我就想分享一下平时自己进行SRC挖掘过程中,主要是如何进行入手的。以下均为小弟拙见,大佬勿喷。
事情还得从元旦那回说起。话说2017年最后一天启用CDN内容分发服务后,网站也就更新了几篇文章而已,昨天按计划开更内容,写了一半准备插图的时候,就爆了。硬生生的不让我插入图片啊,俗话说字不如表,表不如图。一张图能解决很多文字才能表达清楚的意思,并且简单直白粗暴。
今天给一个8核16G的服务器安装了宝塔和wordpress网站,第一次遇到这么高配置的服务器,记录一下。同时遇到关于wordpress网站基于avada主题搬家中遇到的坑做一个总结和记录。
前言 这里主要是讲如何快速扫描到有问题的flash文件,用于批量,有时候很笨的方法也会有奇效,下面记录一下在实现过程中的一些思路和遇到的一些坑。 第三方插件 通过自己为数不多的网站渗透的经验,发现了两
做前端开发经常会碰到各种跨域问题,通常情况下,前端除了 iframe 、script 、link、img、svg 等有限的标签可以支持跨域外(这也与这些标签的用途有关),其他的资源都是禁止跨域引用的。说到跨域,与浏览器的同源策略是密不可分的。那我们先来理解一下浏览器为什么要设置同源策略。
我们都知道webpack-dev-server为我们在开发的时候提供了一个服务器以便于我们的开发,我们在使用之前当然需要安装:
对外输出东西,需要加给exports,用处控制哪些输出 注意,nodejs中没有全局变量,每个定义的变量只能在模块内使用,除非你exports这个变量。nodejs会自动将模块包裹在:
字面上意思:去除重复,在项目中,不可避免的会出现重复代码。但是如果不好好去处理这些重复代码,那很有可能就会给你很多“惊喜”。
HTTP/2 诞生于 8 年前 Google 一封 SPDY 协议白皮书。5 年前,RFC7540 和 RFC7541 的发布正式确立了 HTTP/2。5 年过去了,支持 HTTP/2 的浏览器的市场占有率达到了 96.88%,HTTP/3 已经从 QUIC 中诞生,然而回过头来看看国内各大网站,HTTP/2 仍然没有发挥它应该有的作用。不过,HTTP/2 究竟能做什么呢?
google developers 官方文档: https://developers.google.com/web/tools/chrome-devtools/
刚刚经过“618购物节”的挑战,京东(此文简称JD)首次向大众公布了618的交易额,那就是1199亿元。什么?才1199亿,阿里系小伙伴肯定在后面偷笑,搞了18天的大促,还不如淘宝“双11”一天的销售额。不过没关系,这次强东哥非常满意,因为“618”这个日子,这个让全国网民们沸腾的节日,已经被京东写进历史,这足以证明强东哥这一年的强势回归是有多么重要。
本来意气风发的打算大干一场,一看到目标傻眼了。两个的网站,放弃。一个重点企业,也没有多少希望,另一个教育网站,看来有点希望。开始吧。
前几天上网打开163首页时,发现页面底部莫名其妙的出现一个边框。这在以前可是未曾有过的,而且以后也绝不可能会有这么丑陋的设计。
随着H5在各行业领域的运用,无论是在APP内嵌入H5页面的hybrid应用还是直接在微信公众号或者轻应用中使用H5页面都是非常的常见(比如前端页面通过HTTP 接口调用拉取数据进行交互,实现前后台分离)。 而随着此类 技术的应用和发展,作为一个 测试人员,跟上时代的变化,除了保证前端页面UI的正确性,也要保证HTTP接口的正确性,从而保证了整个业务功能逻辑的正确性,而接口如果手工测试,不仅 工作量很大,而且效率比较地下,而它的特点更适合通过搭建自动化框架来测试,既能提升效率,又能保证质量。
1 背景 随着H5在各行业领域的运用,无论是在APP内嵌入H5页面的hybrid应用还是直接在微信公众号或者轻应用中使用H5页面都是非常的常见(比如前端页面通过HTTP 接口调用拉取数据进行交互,实现前后台分离)。而随着此类技术的应用和发展,作为一个测试人员,跟上时代的变化,除了保证前端页面UI的正确性,也要保证HTTP接口的正确性,从而保证了整个业务功能逻辑的正确性,而接口如果手工测试,不仅工作量很大,而且效率比较地下,而它的特点更适合通过搭建自动化框架来测试,既能提升效率,又能保证质量。 HTTP 接口
众所周知,爬虫比较难爬取的就是动态生成的网页,因为需要解析 JS, 其中比较典型的 例子就是淘宝,天猫,京东,QQ 空间等。所以在我爬取京东网站的时候,首先需要确 定的就是爬取策略。因为我想要爬取的是商品的信息以及相应的评论,并没有爬取特定 的商品的需求。所以在分析京东的网页的 url 的时候, 决定使用类似全站爬取的策略。 分析如图:
本文主要记录作为非web开发人员(本人),如何实现迅速部署自己的第一个SPA应用至星际文件系统 IPFS 作为入门web3.0 的第一个练习,拿我自身来说,前后端知识基本为0,我的基本流程如下:
Webpack构建速度优化基本优化完毕,接下来考虑的就是:线上代码质量的优化,即如何使用webpack构建出高质量的代码 Webpack构建流程:初始化配置参数 -> 绑定事件钩子回调 -> 确定Entry逐一遍历 -> 使用loader编译文件 -> 输出文件 提纲 本次优化构建代码质量基本技术: reactRouter按需加载; 公共代码提取,以及代码压缩; CDN接入; 开启gzip压缩; 接入treeShaking,剔除无用代码 开启Scope Hoisting (生产环境代码构建)为实时查看
看了那么多漏洞挖掘文章为什么还是挖不到漏洞?其实大多数的漏洞挖掘文章可能只能算漏洞复现文章。在这种web环境下,我觉得难的不是怎么测一个漏洞点,而是怎么找一个漏洞点。本文从挖洞过程的思路出发,完整讲述如何从0到1拿一个高危信息泄露。
曾经作为一名想黑盒出CNVD的小白,我几乎看遍了所有公开的关于挖CNVD的文章与视频,什么CNVD收录条件啊,利用搜索引擎啊,刷弱口令啊,复现三例凑足十个案例啊......
从浏览器到服务器 如果你的操作系统带有cURL这个软件(在GNU/Linux、Mac OS都自带这个工具,Windows用户可以从http://curl.haxx.se/download.html下载到),那么我们可以直接用下面的命令来看这看这个过程(-v 参数可以显示一次http通信的整个过程): curl -v https://www.phodal.com 我们就会看到下面的响应过程: * Rebuilt URL to: https://www.phodal.com/ * Trying 54.69.
webpack在启动后,会根据Entry配置的入口,递归解析所依赖的文件。这个过程分为「搜索文件」和「把匹配的文件进行分析、转化」的两个过程,因此可以从这两个角度来进行优化配置。
前端性能优化,是每个前端必备的技能,优化自己的代码,使自己的网址可以更加快速的访问打开,减少用户等待,今天就会从几个方面说起前端性能优化的方案,
最近在做小程序,和域名更换,和新域名备案事情,甚是较忙,少写了文章,今天尝试写一篇小白总结小程序的常见问题,刚接触小程序不到2周,在业余时间尝试小刀小程序,在做这个简历之前,自己亲身搜索了个人简历的小程序,都体验过,大部分是参差不齐,我这个算是比较用心的制作了,搜索出来的简历小程序要不就是其他第三方支持自动生成的,或者是自己制作的,但是都是放置一个设计的图,比较简单,但是也不缺一些好的案例。
此文主要讲的事情是如何让用户快点看到首屏页面,其主要影响因素是延迟和解析渲染耗时。有关安全部分其实也是优化的一部分。我们着重说下网络部分。
在前端学习里面,很多人都是注重学习代码(html,css,js)。或者是一些框架,库(jquery,vue,react),或者是各种工具(webpack,gulp)。在以往的文章里面,或者自己和别人交谈,都有建议过别人多练,不要闷头就写代码,多深入了解当中的原理,学习其中的思想。但是除了代码方面的知识之外,还有哪一些是作为一个前端,应该扩展学习的呢?下面简单罗列和整理了一下最近学习的资源。如果大家还有其它的推荐,欢迎在评论区留言。
WP rocket是一款优秀的网站速度优化的插件,用于对网站内容进行缓存,它的设置比较简单,效果很好。
常用语法 intitle:"index of" 找出Powersd by apache ,看到网站目录结构,找出日志文件 inurl:main.cgi linksys 找出监控探头 intext:classified top secret 找出机密文档 inurl:main.cgi 找出linksys监控摄像头的管理图形界面 inurl:NESSUSXXXXXXX 找出Nessus报告来找到易被攻击的系统 ht
好久没发文章了,最近一直在忙工作和一些零零散散的事,逆向碰的比较少。。也是没什么素材,毕竟我已经码前端有一段时间了~~这次就带来个D象的简单分析吧。ding象、shu美、ji验、yi盾等等。。这些专业的验证码反爬,可以说是非常毒瘤了(虽然我们在他们眼里也是毒瘤,就互相伤害呗。。),各种验证码的花样也是层出不穷。有空想学学深度学习,断断续续也有一阵子了,连个完整的点选还没写出来,他居然搞出了这么多花样了。。。
在正式开始分享我的内容前,我要极力推荐大家去看下Linus Särud和Bo0oM发表的两篇,关于Safari特殊字符处理被滥用,导致XSS或Cookie注入的研究文章。
https协议需要到CA(Certificate Authority,证书颁发机构)申请证书,一般免费证书较少,因而需要一定费用。
经常会有同学遇到api通过ip可以访问,但是通过域名却不可以访问。本篇文章总结了造成这种情况可能的原因。因为与具体技术的选型、规则配置有关,所以没有深入讨论,只是列出可能性,仅供参考。
Syborg是一款DNS子域名递归枚举工具,它的扫描模式既非主动,也非完全被动的。该工具可以直接构造一个域名,然后通过指定的DNS服务器查询该域名。
写在前面的话 当我们在查找某个域名的有效子域名时,我们通常需要使用子域名枚举这项技术。但是,除非DNS服务器暴露了完整的DNS空间(涉及到AXFR协议),否则我们真的很难拿到目标域名的子域名列表。 目前主要的技术是使用一个常用域名的字典,并通过对每一个域名尝试进行解析来查找子域名。虽然这种方法在某些情况下非常有效,但是对于那些名字非常奇怪或罕见的域名来说,这种方法就没多大用了。另一种方法就是利用网络爬虫来爬取二级域名,并尝试搜索出子域名的链接地址。当然了,还有一种更加快速的方法,即直接使用搜索引擎。 子
Vite在去年就已经出来了,但我真正的去了解它却是在最近Vue Conf上李奎关于Vite: 下一代web工具的分享。其中他提到的几点吸引到了我。分享的开始,他简要说明了本次分享的关键点:
JavaScript出于安全方面的考虑,不允许跨域调用其他页面的对象。在某域名下使用Ajax向另一个域名下的页面请求数据,会遇到跨域问题。怎样才能算跨域?协议,域名,端口都必须相同,才算在同一个域。通常来说,跨域分为以下几类:
JShaman的JS代码混淆加密中,有一项“域名锁定”功能。使用此功能后,代码运行时会检测浏览器地址中的域名信息,如是非指定域名,则不运行,以此防止自己网站的JS代码被复制他人的网站中使用的盗用行为。
https://segmentfault.com/a/1190000018785911
Via: http://blog.jobbole.com/84433/ 前言 在前一篇随笔《大型网站系统架构的演化》中,介绍了大型网站的演化过程,期间穿插了一些技术和手段,我们可以从中看出一个大型网站的轮廓,但想要掌握设计开发维护大型网站的技术,需要我们一步一步去研究实践。所以我打算写一个系列,从理论到实践讲述大型网站的点滴,这也是一个共同学习的过程,希望自己能坚持下去。系列大概会分为两部分,理论和实践,理论部分尽量通俗易懂,也要讲一些细节。实践部分会抽取一些技术做实践,将方法、解决问题过程分享出来。 本
今天遇到网站之前的url被百度搜索引擎抓取,需要在服务中进行301强制跳转,(如访问:www.baidu.com/kenni-1,www.baidu.com/kenni-1/,两个统一跳转到www.b
近期,Snapchat曾发生过一次源代码泄漏事件,在此次事件中攻击者从Snapchat网站上下载了完整的网站源码,并将其上传到了GitHub上。在过去的几年里,很多网站都存在错误配置的问题,而且这些安全问题都会被攻击者所利用。除此之外,由于Web开发的门槛相对来说比较低,所以很多经验不够丰富的开发人员很可能在Web开发的过程中泄漏一些机密数据,比如说Git代码库的密钥组件,这个密钥一旦泄露,也就意味着任何人都可以直接访问代码库中的敏感源代码、访问密钥以及密码等等。
大型网站打造并不是件容易的事情,即使是从小开始慢慢迭代。从本期《问底》开始,我们将为大家带来李平的大型网站打造系列,从理论和实践两个方面进行讲解。 在前一篇随笔大型网站系统架构的演化中,介绍了大型网站的演化过程,期间穿插了一些技术和手段,我们可以从中看出一个大型网站的轮廓,但想要掌握设计开发维护大型网站的技术,需要我们一步一步去研究实践。所以我打算写一个系列,从理论到实践讲述大型网站的点滴,这也是一个共同学习的过程,希望自己能坚持下去。系列大概会分为两部分,理论和实践,理论部分尽量通俗易懂,也要讲一些细节。
领取专属 10元无门槛券
手把手带您无忧上云