本文长度为4859字,预估阅读时间8分钟。
引言:本文通过对15种网站SEO问题的描述从而介绍了相应的有效解决方案,使读者对困扰网站的SEO技术问题有更好的理解,以避免失去客户活造成业务损失。
译者|吕东昊
审校|Sarah
编辑|Cici
79亿美元——这是预计2020年达到的SEO市场规模。
这似乎是一笔数目可观的金钱,但考虑到企业主的日常需求——从“留住当前客户”到“在本地目录中展现更多的企业信息”,这些费用是合理的。
此外,还有一些SEO技术问题需要大家关注,如果这些问题没有能够很好地处理,那么企业的在线业务将会承受不同程度的损失。
为了防止客户流失和维持业务增长,企业需要在其网站上进行诊断和修复常见的SEO技术问题。
以下是你可能面临的15个最常见的SEO问题,以及对应的解决方案:
网站的速度
问题描述
你的网站在搜索引擎结果页上的排名有很大程度上取决于网站的加载速度。网站的加载速度越快,用户体验就越好,网站的加载速度越慢,排名就越低。如果服务器的响应时间超过2秒,Google则会减少发送到你网站的搜索爬虫数量,这意味着你的页面索引量会减少很多!
解决方案
借助Google PageSpeed Insights,这个工具可以跟踪和测量你的网站的PC和移动版本的性能。没有正确优化的页面会被发送相应警报。最妙的是,PageSpeed Insights还提供了纠正问题的可操作性的描述。
WordPress用户也可以向他们的托管提供商寻求帮助。建议选择一个好的WordPress托管服务,该服务可以测试它们的正常运行时间和速度(点击链接查看10个最好的WordPress托管服务列表)。除此之外,优化web页面上的图像、修复浏览器缓存、精简CSS和JavaScript代码也可能产生积极的结果,如同优化你的网站速度一样。
HTML中文本占比过低
问题描述
Html中文本的占比过低可能会突出反映你网站SEO问题。
过低占比可能反映的问题:
解决方案
JavaScript是很好的编程语言,但是如果你不知道你在做什么,它可能会让你的网站慢下来。为了纠正这一点,在必要时添加相关的页面文本,将内联脚本移到单独的文件中,并删除不必要的代码。这里有一个很有价值的资源可以帮助你,点击查看:
11个优化JavaScript的技巧,提高网站的加载和渲染速度https://www.upwork.com/hiring/development/11-tips-to-optimize-javascript-and-improve-website-loading-speeds/。
死链
问题描述
如果你的网站有几百页,一个或两个死链接是很常见的,而且几乎没有什么影响。然而,死链达到数十个的时候问题就变得严重了,原因如下:
解决方案
访问Google搜索控制台(Google Search Console),点击“Crawl”下的“Crawl Errors”选项,以了解你的页面返回的404响应。任何404错误都应该尽早解决,这样它们就不会困扰到你的访问者,并将这些访客引导到你的网站的其他部分。
语言的错误声明
问题描述
对于有全球受众的网站来说,语言声明变得很重要,这样搜索引擎就能检测到网站的语言。特别是对于文本到语音的转化,这有助于增强用户体验,因为翻译后的网站能够保证访客以正确的母语阅读内容。此外,还具有先天国际SEO和地理定位优势。
解决方案
声明你的web页面的区域属性,使用代码: rel=”alternate” hreflang tag.
比如,在http://sample.com/uk的<head>代码中,在http://example.com.uk-fr添加指向该页面的法语版本的链接元素,代码为:
<link rel=”alternate” hreflang=”fr” href=” http://example.com/uk-fr” />
网站所犯的一个常见错误是使用错误的语言代码,请参考这个HTML语言代码列表(https://www.w3schools.com/tags/ref_language_codes.asp)来选择正确的代码。请记住,语言声明是web页面相关性评分的一个重要方面,这对SEO很重要。
另一个错误是反链错误:这些来自指向文档语言注释的结果之间没有形成相互引用。使用Google Search Console > International Targeting来识别这些错误。这些注释需要通过其他页面来确认;也就是说,如果页面A链接到B,那么B必须链接回A。
复制内容
根据Raventools的统计,近29%的网络内容是重复的。确保你的网站不属于这一类。为什么?重复的内容不仅会影响你的排名,而且谷歌也会惩罚你的网站。事实上,你的网站可能会失去在搜索结果页上排名的机会。
解决方案
使用Siteliner(http://www.siteliner.com/)和Copyscape(https://www.copyscape.com/)这样的工具来分析你的网页内容并确保它的原创性。如果出现重复的内容,请遵循下面两个原则:
在Google Webmasters中标记你选择的URL版本。转到页面右上角的Settings选项,选择“Site Settings”,然后选择正确的URL格式。现在,当搜索引擎遇到一个链接到你网站的非www版本的网站网址时,你的首选选项是www,链接URL将被替换为www开头的网址样式。
如果不同的URL却有相同的内容,那么链接共享、网站反链和参数跟踪就很可能会出现一些问题。为了防止这些问题发生,应当使用规范代码。任何遇到这个代码的爬虫机器人都会找到相应的资源链接。复制页面的每个链接都被视为原始页面的链接。这样一来,你永远不会失去这些链接的SEO价值。
添加规范代码:将下列代码行添加到原始内容和重复内容:
“<link rel=”canonical” href=”https://yoursite.com.com/category/resource”/>”
将规范代码放在meta description中,在WordPress中的设置位置为“Yoast SEO Premium”下的页面底部:
缺少Alt属性或者图片损坏
问题描述
图片优化的问题很常见,不过除非你的网站过度依赖这些图片,你不需要太过着急去优化这些图片。缺少alt标签和图片损坏是大多数企业网站必须解决的两个最普遍的问题。
Alt标签是图片的HTML属性,用于描述图片的内容。如果一个图片不能正确地呈现在你的网站上,那么图片的alt标签将帮助描述其内容和功能。他们还通过帮助搜索引擎爬虫了解页面信息来强化对应关键字的相关性。
解决方案
完善这些标签非常简单。只需在HTML代码中定位到图片组件,并将alt标签添加到其中。
图片源代码类似于:
<img src=“image.jpg” alt=“image description” title=“image tooltip”>
Moz提供了一些alt属性的最佳优化案例:
Title标签问题
问题描述
title标签的问题不仅常见,而且也很多样化,最普遍的问题是:
解决方案
混乱的URL
问题描述
以“..index.php?p=367594”结尾的URL对你或者搜索爬虫来说毫无意义。它们既不直观对用户也不够友好。
这里有一个例子可以说明这一点:
URL可读性的常见等级划分
Cannot wait to see this page!
嗯,这正是我想要的内容
I have a good guess about what to expect when I click this.
我大概能猜到点击链接之后的内容
My drive will probably implode if I click that link.
这个链接看起来不太安全,点击它会不会损坏到我的硬盘
解决方案
以下是解决这个SEO问题的方法:
文字内容过少
问题描述
过少的内容对你的SEO极为不利。反之则会为网站SEO提供大大助力。
这张图表显示了排名靠前的网页中包含有其他有较好排名的关键词数量。这是丰满内容带来好处的真实案例:力求做一个有详细的和深入解读的内容丰富的网页。
过少的内容可以被看作是你仅仅是在追求网页的数量,而不追求每个页面的质量。
解决方案
深入研究一个主题,找出所有主题相关的信息和资讯,涵盖在你的内容中。
使用长尾关键字和问题形式的关键字作为副标题将增强你的网页语音搜索的吸引力,同时也能给你冗长的内容提供良好的结构呈现。
建议一篇博客文章的平均字数在2250到2500字(单词)之间。
不合格的移动体验
问题描述
这是一个很大的问题,因为谷歌在2018年开始了其移动为先的试运营规则(尽管这个过程将是一个缓慢的过渡)。这家搜索巨头将根据其移动版本对网站进行排名,因此,我们需要将移动浏览体验作为一个考虑重点。然而,并没有多少网站真正针对移动浏览进行了优化。
试想一下:
解决方案
o Google Page Insights
o Pingdom
o GMetrix
不友好的接触形式
问题描述
你的联系方式是否存在问题?用户是否希望填写?
据formisimo的研究显示,在150万网络用户中,只有49%的人在看到表单时填写了表单。更重要的是,在这49%的情况下,只有16%的人提交了完整的表格。因此,如果你想收集客户的信息,你需要多做一些工作去纠正这个问题。
解决方案
Robots文件的设置
问题描述
如果你的网站没有被搜索引擎索引, robots.txt文件可能是罪魁祸首。网络爬虫通常会首先读取这个文本文件,以确定它们是否被允许索引该站点上的url。所以robots.txt就像一个爬行网站的规则手册。
解决方案
首先检查你的网站上的robots.txt。只需在Google搜索栏中输入你的网址site.com/robots.txt。现在,这些文件对每个人来说都是不同的。然而,你应该注意那些不允许搜索引擎抓取的符号Disallow: /
如果你看到了,立即让web开发人员知道,这样他们就可以解决这个问题。这条不允许的代码意味着你告诉蜘蛛不要在你的整个网站上爬行。请记住,对robots.txt进行调整。如果你不熟悉这个过程,txt文件可能会对你的网站产生重大影响。所以你应该把这个任务交给一个专业的开发人员。
配置错误的NOINDEX
问题描述
企业主面临的最普遍的SEO问题之一是NOINDEX。事实上,这个问题的破坏性影响远远超过了配置错误的robot.txt所带来的负面影响。
首先,一个配置错误的robots.txt。robots.txt文件不会从Google索引中删除你的站点页面,但是NOINDEX指令能够将你的索引页面从Google索引中清除掉。NOINDEX在开发阶段对网站很有用,因为该指令阻止了它们在用户的搜索结果中过早出现。但对于已建立的商业网站来说,它只会带来麻烦。
解决方案
你需要做的第一件事就是找到问题所在。虽然使用像Screaming Frog这样的在线工具更容易(而且更快),可以帮助你同时扫描多个页面,但我们还是推荐手动检查。
遍历每一个代码,如果你找到NOINDEX,然后用INDEX来替换它。你甚至可以把它留空。一旦你完成了这一步,谷歌将自动接收到再次索引你的网页的信号。
Meta Descriptions 描述过长
问题描述
在线用户经常会发现一些文本在搜索结果页面中被Google的省略号所取代,比如下面图片中的第二个例子。为什么?因为文本超出了指定的单词或代码界限。
当这种情况发生时,用户需要猜测你的站点是否提供了他们正在寻找的信息,这不是什么好现象。
解决方案
你需要控制web页面title和meta descriptions的代码长度,以确保搜索引擎不需要查找剩余的句子,用户不会去点击其他链接。
XML站点地图中的错误
问题描述
XML站点地图能够提醒Google你的网站的主要业务或主题。因此,一个缺失或错误的网站地图可能会向谷歌传递关于你的页面的错误信息。搜索引擎不仅很难解密网站的内容,而且网站的层级也可能不被理解。Google Search Console或Bing Webmaster Tools 可以帮助你发现这个问题。
解决方案
Sitemaps报告的登录页面提供了提交给搜索控制台的站点地图列表https://support.google.com/webmasters/answer/183669?hl=en。点击其中一个,深入了解更多信息(如果它是一个站点地图索引)。在其他信息位中,你将看到列出的错误。
要解决这个问题,请确保站点地图生成和提交的插件在你的站点上工作正常,并且不会出现任何问题。这也是为什么使用那些经过适当整合并获得好评的SEO插件是有意义的。
最后想说的话
希望你现在对困扰网站的SEO技术问题有了更好的理解,并知道该如何解决问题。为了避免失去客户或造成业务损失,一定要仔细检查文中所述的每一个问题。