什么是SEO,所谓seo优化就是让
百度
,360
,搜狗
,等搜索引擎收录你的破站。也许你会说,搞那个干吗,反正我的网站百度迟早会收录的。但是SEO可以使你的网站更快的让搜索引擎收录,以及在搜索引擎中的排名。
首先我们先看看本站的数据吧
这里以百度为例,说说常见的SEO的几个数据
主动推送:
最为快速的提交方式,建议您将站点当天新产出链接立即通过此方式推送给百度,以保证新链接可以及时被百度收录。
sitemap:
您可以定期将网站链接放到Sitemap中,然后将Sitemap提交给百度。百度会周期性的抓取检查您提交的Sitemap,对其中的链接进行处理,但收录速度慢于主动推送。
手工提交:
如果您不想通过程序提交,那么可以采用此种方式,手动将链接提交给百度。
自动推送:
是轻量级链接提交组件,将自动推送的JS代码放置在站点每一个页面源代码中,当页面被访问时,页面链接会自动推送给百度,有利于新页面更快被百度发现。
优化方法
基于插件的优化:我们可以根据不同的平台,安装不同的seo插件。如:DZ
,typecho
,WP
等常见的程序,下载相应的插件即可。
利用Python爬虫
我们可以利用下面代码对网站进行爬虫
代码语言:javascript复制import os
import re
import shutil
REJECT_FILETYPE = 'rar,7z,css,js,jpg,jpeg,gif,bmp,png,swf,exe'
def getinfo(webaddress):
global REJECT_FILETYPE
url = 'http://' webaddress '/'
print 'Getting>>>>> ' url
websitefilepath = os.path.abspath('.') '/' webaddress
if os.path.exists(websitefilepath):
shutil.rmtree(websitefilepath)
outputfilepath = os.path.abspath('.') '/' 'output.txt'
fobj = open(outputfilepath,'w ')
command = 'wget -r -m -nv --reject=' REJECT_FILETYPE ' -o ' outputfilepath ' ' url
tmp0 = os.popen(command).readlines()
print >> fobj,tmp0
allinfo = fobj.read()
target_url = re.compile(r'".*?"',re.DOTALL).findall(allinfo)
print target_url
target_num = len(target_url)
fobj1 = open('result.txt','w')
for i in range(target_num):
if len(target_url[i][1:-1])<70:
print >> fobj1,target_url[i][1:-1]
else:
print "NO"
fobj.close()
fobj1.close()
if os.path.exists(outputfilepath):
os.remove(outputfilepath)
if __name__=="__main__":
webaddress = raw_input("Input the Website Address(without "http:")>")
getinfo(webaddress)
print "Well Done."
执行完成后,后生成一个result.txt
文件。
然后我们利用百度站长平台的提示语法,进行提交。
参数说明:
字段 | 参数类型 | 说明 |
---|---|---|
success | int | 成功推送的url条数 |
remain | int | 当天剩余的可推送url条数 |
not_same_site | array | 由于不是本站url而未处理的url列表 |
成功返回示例:
代码语言:javascript复制{
"remain":4999998,
"success":2,
"not_same_site":[],
"not_valid":[]
}
版权属于:逍遥子大表哥
本文链接:https://cloud.tencent.com/developer/article/1921149
按照知识共享署名-非商业性使用 4.0 国际协议进行许可,转载引用文章应遵循相同协议。