今天有个朋友给我说让我把网站弄一下,别让国内的人访问,主要是为了保证营销的数据准确性和防止同行抄袭。当然是没办法彻底屏蔽的,防小人不防君子吧。...我用的是Nginx, 首先我们要去弄到国内的IP地址段,访问网站 http://www.ip2location.com/free/visitor-blocker ,点击左侧的“Firewall List...点击下载ip文件 顺便要把你现在的IP最好不要加进去,否则你自己会访问不了。 下载不了的可以指定 使用 国内IP地址列表 方法一 复制整段代码到你的Nginx配置文件里面即可。
当主机用户访问已写入hosts文件的网址时,系统会首先自动从hosts文件中查找对应的IP地址,一旦找到,浏览器会通过直接访问网页的IP来打开对应网页。...1、把http://www.xxx.com网站屏蔽掉,可以通过这个格式修改。...而127.0.0.1没有真实服务,则直接访问失败,达到屏蔽网站的效果!...注:hosts文件里,127.0.0.0和0.0.0.0后面接的域名都会被屏蔽了的,用https访问的网址,可以用0.0.0.0去屏蔽 把hosts文件删除修改后,再测试可见访问正常: 四、注意 1、127.0.0.1...网站访问加速的需求,hosts文件的修改方式和屏蔽网站的方式一样,不过需要把域名的真实服务网址加上,而不能用127.0.0.1和0.0.0.0了。
转载请联系授权(微信ID:qianpangzi0206) 阅读本文大概需要 2 分钟 google搜索中发现好几次了,使用技术术语+中文经常出现一些机器翻译网站,比如对 stackoverflow 整篇回答进行机翻...,那质量是什么玩意,google 又没提供搜索设置可以直接过滤,实在看不下去了,装了个 Chrome 插件叫: uBlacklist 建议把以上几个网站全加进去。...uBlacklist网站列表: *://*.voidcc.com/* *://*.codeday.me/* *://*.voidcn.com/* *://*.codenong.com/* *://*.helplib.com...,可以对平时的习惯改进也是可以的。...只要你看到标题就不会点进去的话 google 过段时间就会滤掉的。 另外,考虑废物利用,写个脚本在(即将)访问到这些地址时直接跳转到原本的 stackoverflow 去。
8月8日,OpenAI 推出了GPTBot,和谷歌、Bing等类似的网络爬虫工具,能够自动抓取网站的数据,用来训练 GPT-4 或 GPT-5,提升未来人工智能系统的准确性和能力。...40.83.2.64/28 详情参考https://openai.com/gptbot-ranges.txt 如何禁止GPTBot访问 1、你可以通过robots.txt文件禁止 OpenAI 对自己的网站访问...,不将自己的数据用来训练,代码如下。...GPTBot会遵循robots协议, User-agent: GPTBot Disallow: / 你还可以通过以下代码,来控制 GPTBot 对网站部分内容的访问。...User-agent: GPTBot Allow: /directory-1/ Disallow: /directory-2/ 2、你也可以将以上ip段加入到防火墙来屏蔽GPTBot 3、将user-agent
前言 Nginx是一个高性能的HTTP和反向代理服务,目前很大一部分网站均使用了Nginx作为WEB服务器,Nginx虽然非常强大,但默认情况下并不能阻挡恶意访问。...** 防止文件被下载 比如将网站数据库导出到站点根目录进行备份,很有可能也会被别人下载,从而导致数据丢失的风险。以下规则可以防止一些常规的文件被下载,可根据实际情况增减。 location ~ \....(zip|rar|sql|bak|gz|7z)$ { return 444; } 屏蔽非常见蜘蛛(爬虫) 如果经常分析网站日志你会发现,一些奇怪的UA总是频繁的来访问网站,而这些UA对网站收录毫无意义...,通常存放的都是静态文件,如果因程序验证不严谨被上传木马程序,导致网站被黑。...(php|php5)$ { return 444; } 屏蔽某个IP或IP段 如果网站被恶意灌水或CC攻击,可从网站日志中分析特征IP,将其IP或IP段进行屏蔽。
,这里有一份常用的 Nginx 屏蔽规则,希望对你有所帮助。...防止文件被下载 比如将网站数据库导出到站点根目录进行备份,很有可能也会被别人下载,从而导致数据丢失的风险。以下规则可以防止一些常规的文件被下载,可根据实际情况增减。 location ~ \....(zip|rar|sql|bak|gz|7z)$ { return 444; } 屏蔽非常见蜘蛛(爬虫) 如果经常分析网站日志你会发现,一些奇怪的 UA 总是频繁的来访问网站,而这些 UA 对网站收录毫无意义...,通常存放的都是静态文件,如果因程序验证不严谨被上传木马程序,导致网站被黑。...(php|php5)$ { return 444; } 屏蔽某个IP或IP段 如果网站被恶意灌水或 CC 攻击,可从网站日志中分析特征 IP,将其 IP 或 IP 段进行屏蔽。
Nginx (engine x) 是一个高性能的HTTP和反向代理服务,目前很大一部分网站均使用了Nginx作为WEB服务器,Nginx虽然非常强大,但默认情况下并不能阻挡恶意访问,xiaoz整理了一份常用的...防止文件被下载 比如将网站数据库导出到站点根目录进行备份,很有可能也会被别人下载,从而导致数据丢失的风险。以下规则可以防止一些常规的文件被下载,可根据实际情况增减。 location ~ \....(zip|rar|sql|bak|gz|7z)$ { return 444; } 屏蔽非常见蜘蛛(爬虫) 如果经常分析网站日志你会发现,一些奇怪的UA总是频繁的来访问网站,而这些UA对网站收录毫无意义...,通常存放的都是静态文件,如果因程序验证不严谨被上传木马程序,导致网站被黑。...(php|php5)$ { return 444; } 屏蔽某个IP或IP段 如果网站被恶意灌水或CC攻击,可从网站日志中分析特征IP,将其IP或IP段进行屏蔽。
在nginx.conf的server配置项中加入 1.访问返回403 if ($http_referer ~* "xxx.com") { return 403; } 2.访问跳转指定网站
这里有一份常用的 Nginx 屏蔽规则,希望对你有所帮助。...(zip|rar|sql|bak|gz|7z)$ { return 444; } 屏蔽非常见蜘蛛(爬虫) 如果经常分析网站日志你会发现,一些奇怪的 UA 总是频繁的来访问网站,而这些 UA 对网站收录毫无意义...,通常存放的都是静态文件,如果因程序验证不严谨被上传木马程序,导致网站被黑。...(php|php5)$ { return 444; } 屏蔽某个IP或IP段 如果网站被恶意灌水或 CC 攻击,可从网站日志中分析特征 IP,将其 IP 或 IP 段进行屏蔽。...via: Nginx常用屏蔽规则,让网站更安全 | 喵斯基部落 https://www.moewah.com/archives/1796.html
智能手机的崛起,让现在的网站越来越重视移动端,随之而来的广告形式也越来越向移动端倾斜侧重;但是本君发现一个现象,现在各大手机浏览器厂商对移动端广告过滤越来越严格,几乎只要开启过滤,大部分广告是要被过滤的...我的观点是,只要浏览器商家想过滤,可以做到100%过滤的,您想再多的招也是没用的!WHY?因为广告脚本一般是作为客户端表现,是要经过浏览器解析后才显示的,只要浏览器想过滤你,您还想怎么玩?...浏览器商家过滤广告的原理是什么,其实没有那么复杂,他肯定是解析您网站网页内容时,等网页加载完,然后解析里面JS代码,出现悬浮(主要fixed标签属性,过滤率百分之九十几),网址,等关键属性代码时就会过滤其属性代码或者追加代码让您的代码失效...这个可以去欺骗杀毒软件,但是欺骗不了浏览器,浏览器最终就要再在前台显示的,他过滤的是加载完网页(也就是解析过的代码)就行过滤的,您拼接是不起作用的!...我写过测试代码,挂网站没有测试,只是挂网站子目录,单独测试目前没有被过滤!
很久之前其实就发现一个问题,很多的蜘蛛来抓取你的网站,通过分析网站的日志文件可以看到,有很多蜘蛛我们是欢迎的,有些我们确实不想要的,但是却长期的在抓取,于是想要把他屏蔽掉,当天一般想到的办法可能是定义robots...文件去屏蔽蜘蛛; 但是这个似乎并没有用处,一方面有些蜘蛛并不遵守这个规则协议,照样抓取,一方面很多蜘蛛其实是仿冒的,比如你也可以仿冒百度蜘蛛的UA信息去抓取别人的网站,所以robots文件几乎是没法实现的...之前介绍过宝塔免费的防火墙比较好用,可以借助这个防火墙功能,屏蔽恶意的无用的一些蜘蛛的UA信息,比如: Mozilla/5.0 (compatible; AhrefsBot/6.1; +http://ahrefs.com...,所以可以直接屏蔽他们。...其他有益的蜘蛛需要保留不要误杀了,比如谷歌百度搜狗头条什么等等;除了防火墙可以屏蔽UA还可以借助CDN去实现屏蔽UA; ? 为什么要屏蔽呢?
基于网站安全与盈利的因素,站长并不希望某些目录或页面被抓取和收录,比如付费内容、测试阶段的页面及复制内容页面等。...尽管在网站建设的过程中,使用 JavaScript、Flash 链接及Nofollow属性等都能让搜索引擎蜘蛛望而却步,而导致页面不被收录。...但在某些情况下搜索引擎是能够读取他们的,基于网站排名考虑,我们建议慎用 JavaScript、Flash 链接及Nofollow属性屏蔽收录。...要确保网站某些目录或页面不被收录,需要正确使用 robots 文件或Meta Robots 标签来实现网站的禁止收录机制。...1、robots 文件 搜索引擎蜘蛛访问网站时,会先查看网站根目录下有没有一个命名为 robots.txt 的纯文本文件,它的主要作用是制定搜索引擎抓取或者禁止网站的某些内容。
很久之前其实就发现一个问题,很多的蜘蛛来抓取你的网站,通过分析网站的日志文件可以看到,有很多蜘蛛我们是欢迎的,有些我们确实不想要的,但是却长期的在抓取,于是想要把他屏蔽掉,当天一般想到的办法可能是定义robots...文件去屏蔽蜘蛛; 但是这个似乎并没有用处,一方面有些蜘蛛并不遵守这个规则协议,照样抓取,一方面很多蜘蛛其实是仿冒的,比如你也可以仿冒百度蜘蛛的UA信息去抓取别人的网站,所以robots文件几乎是没法实现的...之前介绍过宝塔免费的防火墙比较好用,可以借助这个防火墙功能,屏蔽恶意的无用的一些蜘蛛的UA信息,比如: Mozilla/5.0 (compatible; AhrefsBot/6.1; +http://ahrefs.com...,所以可以直接屏蔽他们。...其他有益的蜘蛛需要保留不要误杀了,比如谷歌百度搜狗头条什么等等;除了防火墙可以屏蔽UA还可以借助CDN去实现屏蔽UA; 为什么要屏蔽呢?
用js限制网页只在手机端中打开,网站屏蔽PC端访问JS代码,网站只允许手机端访问。...p.indexOf("Linux")==0); if(system.win||system.mac||system.xll) { location.replace("http://这里替换为你需要跳转的页面网址
平时大家上网看视频的时间应该挺多的吧,那些片头视频是不是挺烦的呢,那么现在就把他们去掉好了。 方法很简单,有的朋友应该已经见过了,就是修改HOSTS文件。...打开我的电脑到“C:\WINDOWS\system32\drivers\etc”路径,右键点击“HOSTS”文件,选择属性,将“只读”去掉,确定。...pp2.pptv.com #乐视 127.0.0.1 pro.letv.com #搜狐高清 127.0.0.1 images.sohu.com @HostsX 国内站点广告/视频类网站...#天线视频 127.0.0.1 casting.openv.com 127.0.0.1 m.openv.tv 127.0.0.1 uniclick.openv.com #迅雷看看屏蔽...sandai.net 127.0.0.1 server1.adpolestar.net 127.0.0.1 advstat.xunlei.com 127.0.0.1 mpv.sandai.net 嫌麻烦的,
什么是恶意解析 一般情况下,要使域名能访问到网站需要两步: 第一步,将域名解析到网站所在的主机。 第二步,在web服务器中将域名与相应的网站绑定。...但是,如果通过主机IP能直接访问某网站,那么把域名解析到这个IP也将能访问到该网站,而无需在主机上绑定,也就是说任何人将任何域名解析到这个IP就能访问到这个网站。 原理和危害是什么呢?...简单解释就是,你的网站可以通过IP直接访问,本来这没什么问题,但是如果被人恶意用别的域名解析到你的IP的话,那么你的网站就能通过别人的域名来访问了,比如指向非法网站,容易引发搜索引擎惩罚,连带IP受到牵连...然后点击默认站点---选择刚刚新建的站点“moren.com”然后点击提交,如图: ? 在点击站点右侧的“设置”操作,进入站点的“配置文件”里,添加红框内代码,保存就OJBK了!!! ?...好了,收工,这种教程网上也有很多,基本都能解决的,还是那句话修改前记得做好备份(是指在主网站操作),因为我发现我的网站配置如上代码有出现访问空白的问题,就是IP访问和域名访问都会出现一样的界面,所以我才新建一个站点
把下方的html源码放到WordPress根目录的index.html文件(如果没有就创建)。...然后去网站配置文件把首页设置为index.html因为WordPress首页是index.php,所以并不冲突。...宝塔首页设置如下图:图片在index.html覆盖如下代码:#记得更改成你自己的备案号和名称#自用的很多之前的注释比较乱的美好丰富了生活,你开始为此暗暗窃喜,可在你窃喜的稍纵即逝间,这光景宛如一望无际的夜空中划过的流星,来的快走的也快,如流水,一闪即过。繁华落尽,花落执何手?...--本站积极响应《非经营性互联网信息服务备案管理办法》,于2019年7月5号起维护升级,届时可能无法正常浏览网站.
苹果在WWDC 2018表示,iOS和macOS的新操作系统将包含新的隐私功能。 这样的新的隐私功能推出的时机是在Facebook数据丑闻以及GDPR实施之后。...苹果在今天凌晨的WWDC开发者大会上宣布它会屏蔽“赞”按钮的cookie,这种cookie可以让网站跟踪用户。 ?...新的macOS系统(代号Mojave)和iOS 12还会推出新的功能让人难以创造独特指纹来追踪用户。...增强的安全功能是本次WWDC的重点之一,其他改进还包括上个月的Google IO大会上Android推出的手机防沉迷机制、Google Photos去年已经集成的智能相册功能以及小爱同学、三星Bixby...对于这三个新增加的功能,苹果也强调了功能的安全性,包括对手机使用情况数据的保护、以及分享照片时的端对端加密。
如果用的是宝塔面板! 宝塔-网站-设置-配置文件 把以下代码添加进去! 解决百分之90以上的垃圾蜘蛛! 服务器瞬间就清净了!...#禁止Scrapy等工具的抓取 if ($http_user_agent ~* (Scrapy|HttpClient|crawl|curb|git|Wtrace)) { return 403...; } #禁止指定UA及UA为空的访问 if ($http_user_agent ~* "CheckMarkNetwork|Synapse|Nimbostratus-Bot|Dark|scraper...LinkpadBot|Ezooms|^[ DISCUZ_CODE_0 ]quot; ) { return 403; } #禁止非GET|HEAD|POST方式的抓取...~ ^(GET|HEAD|POST)$) { return 403; } #屏蔽垃圾蜘蛛 if ($request_method ~ ^(HEAD)$ ) {
4月25日开始,陆续有用户在微博上反映,部分地区的联通用户无法正常访问工信部投诉网站,经过查证之后发现该地区联通用户在访问工信部投诉网站时IP地址竟然被解析到了“127.0.0.1”这个地址。 ?...根据微博上多名网友的反馈,出现这种情况的暂时已知的有大连、鞍山、阜新地区,而其他地区基本都解析正常。 ?...用户几乎同时用联通4G网络、联通宽带以及移动4G网络访问工信部投诉网站,联通的4G网络及宽带网络均无法打开该网站。...一般来说,用户使用的都是所属运营商默认的DNS服务器,在该网络状态下工信部网站IP地址解析成127.0.0.1,基本可以理解为是直接屏蔽掉了。...最近的一起DNS劫持时间也正是前一天MyEtherWallet的事故,黑客劫持DNS导致用户钱包资产被转移。 ? 截至笔者发稿之时,已知的问题地区访问工信部网站已经恢复正常,DNS解析也恢复。
领取专属 10元无门槛券
手把手带您无忧上云