前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >浅析网站不被搜索引擎收录的原因

浅析网站不被搜索引擎收录的原因

原创
作者头像
乐网网络
发布2019-04-13 15:49:37
1.8K0
发布2019-04-13 15:49:37
举报
文章被收录于专栏:站长去哪儿

以前总是说,怎样让搜索引擎收录我们的网站,如何让搜索引擎带来流量,但是总有小伙伴不走寻常路,或者这种不寻常路是对的,百度为什么不收录我的网站呢?我也提交了啊,也有外链啊,也有实质性的内容啊,也没屏蔽“蜘蛛”啊。今天我们就来稍稍分析下呗,或许有的小伙伴还指望网站不被收录呢。我们主要说说百度的,其它搜索引擎也是大同小异的。

目前百度抓取新链接的途径有两个,一是主动出击发现抓取,二就是从百度站长平台的链接提交工具中获取数据,其中通过主动推送功能“收”上来的数据最受百度spider的欢迎。可是重点是,为什么不抓取啊,为什么不收录啊,

1、网站封禁:这种情况还真有,真的有同学一边封禁着百度蜘蛛,一边向百度狂交数据,感觉就像小学那个放水的题目一样,一边流一边放,简直就是浪费啊,结果当然是无法收录。

2、质量筛选:百度spider进入3.0后,对低质内容的识别上了一个新台阶,尤其是时效性内容,从抓取这个环节就开始进行质量评估筛选,过滤掉大量过度优化等页面,从内部定期数据评估看,低质网页比之前下降62%。

3、抓取失败:抓取失败的原因很多,有时你在办公室访问完全没有问题,百度spider却遇到麻烦,站点要随时注意在不同时间地点保证网站的稳定性。

4、配额限制:虽然我们正在逐步放开主动推送的抓取配额,但如果站点页面数量突然爆发式增长,还是会影响到优质链接的抓取收录,所以站点在保证访问稳定外,也要关注网站安全,防止被黑注入。

5、robots:是站点与spider沟通的重要渠道,站点通过robots文件声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。有了这个文件当然是难以被抓取了咯。

6、域名被墙:很多小伙伴用的是买来的二手的已备案域名,可是使用后才发现域名在天朝已经被封杀了。这样的域名简直还没有IP的作用大,简直坏处一大堆。所以小伙伴用二手域名前注意检测下。

7、非主流域名:例如.gift .我爱你什么的,一般非主流域名被收录都是需要一个很长的流程的,首先得后缀被搜索引擎所承认,而后才有被收录的机会。所以建议小伙伴不要轻易选择非主流域名建站。小编建议选择非主流域名也一定要选择可以备案的非主流域名。

8、网站被k,网站被k无乱是先天原因还是后天原因都比较让人烦心,先天原因就是刚注册域名都时候没有做检测,前任域名所有者用域名做了些坏事被百度给关进了小黑屋,后天被k一般小编遇到都大部分是由于服务器或主机不够稳定导致的,在此建议,注册域名前除了被墙检测,最好看看域名的whois信息或者建站信息,选择服务器的时候尽量选择相对稳定的服务器(这里推荐腾讯云哈 qcloud.netle.com.cn),一般来说现在使用虚拟主机的也在慢慢变少了。同时如果网站用户量不断攀升,记得升级服务器配置。

以上内容还不完整,欢迎小伙伴们在下方留言补充,谢谢亲的支持。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档