徐大大seo:为什么服务端渲染有利于SEO与服务器对SEO的影响有哪些?

2022-05-11 23:42:43 浏览数 (1)

基于html的服务端渲染的问题,只是粗略的介绍了一下它的优缺点,其中涉及到一个SEO,SEO的全称是Search Engine Optimise 即,搜索引擎优化。

谈到seo这个问题,可能需要了解一下搜索引擎的原理,涉及比较深的算法问题我也说不清楚,只是简单的说一下自己对这个问题的理解吧。

引擎工作原理

(官方答案)搜索引擎的工作原理是从互联网上抓取网页,建立索引数据库,在索引数据库中搜索排序。它的整个工作过程大体分为信息采集、信息分析、信息查询和用户接口四部分。信息采集是网络机器人扫描一定IP地址范围内的网站,通过链接遍历Web空间,来进行采集网页资料,为保证采集的资料最新,网络机器人还会回访已抓取过的网页;信息分析是通过分析程序,从采集的信息中提取索引项,用索引项表示文档并生成文档库的索引表,从而建立索引数据库;信息查询是指用户以关键词查找信息时,搜索引擎会根据用户的查询条件在索引库中快速检索文档,然后对检出的文档与查询条件的相关度进行评价,最后根据相关度对检索结果进行排序并输出。

如果用自己的图解释这个过的话。

但是假如说问: 这个信息分析,建立索引是怎样的一个过程,这个我也不清楚,有的文献找不到,找到了也看不了。。。

为什么服务端渲染有利于SEO

首先我们需要明白一点,SEO并不是一项技术,而是一种针对搜索引擎的策略,它的目的的让搜索引擎的爬虫,更快,更准确的爬取到我们开发的网站。

如果我们有人写过爬虫的话(我们暂且认为搜索引擎的爬虫跟我们平时写的是一个东西),那么会了解,我们的爬虫爬取的其实是网页里的标签内容,通过获取这些内容进行分析。假设我们的网站都是采用前后端分离进行开发,界面都需要用js去请求接口,等到接口返回之后才展示真个界面。那么我们的爬虫也需根本获取不到我们想要的内容。

而通过服务渲染,服务端将整个界面的数据填充完整之后,直接返回这个界面。第一,少了客户端请求的过程。第二,返回的直接就是整个界面。必然使爬虫能够更快,更准确的爬取到它想要的信息。

所以有这么一个结论服务端渲染有利于SEO。

那么这里我们再聊聊服务器对SEO的影响有哪些?

互联网站优化推广团队分析,网站访问人数越多,对服务器的负载量就会越大。因此网站经历了几次服务器更换。因为服务器的变动,如果处理不好,对SEO流量会有不同程度的影响。避免遇见服务器变动类的问题不清楚如何处理,搜罗了一下资料,并结合自己的一些经验来谈谈服务器对SEO的影响,以及在服务器出现变动时,SEO方面的应对办法应该如何处理。

服务器对SEO的影响

1.服务器的配置对网站速度会有影响

配置低的服务器会影响网站打开速度。网站打开速度慢对搜索引擎蜘蛛抓取速度会有影响,单位时间内抓取量就会相对少。不利于收录。以下简单普及下服务器配置方面的几个知识点。

①带宽:带宽越大,速度越快。联想一下,你家装了4M的网络,与装了50M网络的区别。就能瞬间秒懂。

②单/双/多线:如果你是针对本地用户的,可以选择单线路服务器,但双线路服务器一般会优于单线服务器。双线路服务器=电信网通双线路接入。北方用网通的多,南方用电信的多。假如你的用户是遍及南北,此时选择双线路服务器会更适合一些。

③内存:服务器内存的大小会影响运行速度。就如电脑的内存,手机的内存一般,容量大的肯定要比容量小的运作速度快。

延伸问题:

如何测试服务器速度 

①通过 ping.chinaz.com,输入网址,便可了解到速度。

②点击 开始—>运行—>CMD—ping 网址

2.服务器稳定性对搜索引擎蜘蛛抓取频次的影响

服务器如果经常宕机则会影响到搜索引擎蜘蛛访问网站的频次。举个栗子,开了一家面包店,一周有3天是关门的。一周有3次要吃“闭门羹”。作为顾客,你还会去吗。同样的道理,每次蜘蛛来访问你的网站时都出现宕机的情况。那么,访问频次当然会相应的减少。访问频次的减少,优质内容再多都没用。因为不来,就没有所谓的抓取。

3.服务器正确的设置很关键

新来的运维哥对我说,最近有个搜索引擎蜘蛛来得特别勤快对服务器造成的压力比较大,把它的IP封了吧。我一看,倒吸一口气——那可是Baiduspider的IP!瞪着眼对他说:封了,吃啥饭?还要不要流量?

与SEO相关的服务器设置有这些:

在看之前先了解这几个术语:

UA封禁:即为用户代理(User-Agent),服务器通过UA识别访问者的身份。当网站针对指定UA的访问,返回异常页面(如403,500)或跳转到其他页面的情况,即为UA禁封。

IP封禁:IP禁封是指限制网络的出口IP地址,禁止该IP段的使用者进行内容访问。而UA禁封则是针对服务器通过UA(用户代理)识别身份后的用户进行指定的跳转。

Http状态码:状态代码(也称作错误代码),指为服务器所接收每个请求(网页点击)分配的 3 位数代码。多数有效网页点击都有状态代码 200("正常")。"网页未找到"错误会生产 404 错误。

看完解释后,来了解下如何设置服务器才有利于SEO。

UA封禁:主要是使用Robots,在Robots文件中,别误把搜索引擎UA给封禁了,否则会影响抓取。不清楚Robots是什么可以自行百度。

设定正确的页面HTTP状态码:

此前网站存在一批垃圾页面,全部做成不能打开的状态。但是页面状态码没有返回404,而是返回200,而且每天还有蜘蛛大量去抓取。好家伙,从抓取量分配的角度来看,就极大的浪费了蜘蛛抓取量,同时还造成蜘蛛的误解,认为网站存在大量重复的页面。

服务器过载或者临时维护时,无法处理请求时,请返回503,而不是404。搜索引擎蜘蛛对503的解读是网站临时关闭,某个页面暂时不能访问,过段时间会再回来抓取。如果是做了404,搜索引擎则可能删除了页面。

4.服务器支持url重写

这个很关键,主要是从动态URL与静态URL角度上来思考。如果动态URL上存在多个参数,建议对URL进行静态化处理,避免搜索引擎蜘蛛掉入黑洞去。浪费抓取。如果发现自己的服务器没有URL重写的功能,可以与服务商联系进行配置。

关于徐大大seo

我是徐大大seo,10多年的老SEO人,分享我这些年学习到的技术与心得,包括白帽黑帽SEO,Python开发,爬虫,web安全。真正的大师,永远保持一颗学徒的心(流量为"基",一直探索!)你关注的人,决定你看到的世界,而我主要关注IT互联网。

0 人点赞