Scrapy-笔记一 入门项目 爬虫抓取w3c网站

2019-11-27 23:26:39 浏览数 (1)

学习自:http://blog.csdn.net/u012150179/article/details/32911511

入门项目建议仔细学习

关于环境配置请看:http://scrapy-chs.readthedocs.io/zh_CN/1.0/intro/install.html

1.创建项目:

代码语言:javascript复制
	scrapy crawl w3school

2.在items.py中定义Item容器

所谓Item容器就是将在网页中获取的数据结构化保存的数据结构,类似于Python中字典。下面为items.py中代码。

代码语言:javascript复制
from scrapy.item import Item,Field  
  
class W3schoolItem(Item):  
    title = Field()  
    link = Field()  
    desc = Field()

定义了自己的W3schoolItem类,它继承自scrapy的Item(这里没有显示定义W3schoolItem的__init__()方法,也正因为如此,python也会为你自动调用基类的__init__(),否则必须显式在子类的__init__()中调用基类__init__())。之后声明W3schoolItem中元素并使用Field定义。

3.在pipelines.py中编写W3schoolPipeline

实现对item的处理。

在其中主要完成数据的查重、丢弃,验证item中数据,将得到的item数据保存等工作。代码如下:

代码语言:javascript复制
# -*- coding: utf-8 -*-
 
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html
 
import json  
import codecs  
  
class W3SchoolPipeline(object):  
    def __init__(self):  
        #初始化打开json记录文件数据
        #定义编码为utf-8
        self.file = codecs.open('w3school_data_utf8.json', 'wb', encoding='utf-8')  
  
    def process_item(self, item, spider):  
        line = json.dumps(dict(item))   'n'  
        # print line  
        
        self.file.write(line.decode("unicode_escape"))  
        return item  
        #返回类型必须要是item类型

其中的process_item方法是必须调用的用来处理item,并且返回值必须为Item类的对象,或者是抛出DropItem异常。并且上述方法将得到的item实现解码,以便正常显示中文,最终保存到json文件中。

注意:在编写完pipeline后,为了能够启动它,必须将其加入到ITEM_PIPLINES配置中,即在settings.py中加入下面一句:

代码语言:javascript复制
ITEM_PIPELINES = {  
    'w3school.pipelines.W3SchoolPipeline':300  
}

4.爬虫主代码

spider/文件夹下编写w3cshool_spider.py

代码语言:javascript复制
#!/usr/bin/python
# -*- coding:utf-8 -*-
 
from scrapy.spider import Spider
from scrapy.selector import Selector
from scrapy import log
 
from w3school.items import W3schoolItem
 
 
class W3schoolSpider(Spider):
    """爬取w3school标签"""
    #log.start("log",loglevel='INFO')
    #name为必须,需要在启动项目时制定
    name = "w3school"
    allowed_domains = ["w3school.com.cn"]
    #制定url列表,一般放置url根路口
    start_urls = [
        "http://www.w3school.com.cn/xml/xml_syntax.asp"
    ]
 
    def parse(self, response):
        #选择器获取页面源码,
        sel = Selector(response)
        #使用xparh进行筛选,选取所有div中id为navsecond的层所包含的所有div中id为course的ul中ul标签下的,li标签内容,
        sites = sel.xpath('//div[@id="navsecond"]/div[@id="course"]/ul[1]/li')
        
        #定义一个items容器
        items = []
        #site的内容包括href为链接,title为标题,
        for site in sites:
            #成为ie一个item的字典类型
            item = W3schoolItem()
            #对每一个site使用xpath抽取出a标签内的text,href,title.
            title = site.xpath('a/text()').extract()
            link = site.xpath('a/@href').extract()
            desc = site.xpath('a/@title').extract()
 
            item['title'] = [t.encode('utf-8') for t in title]
            item['link'] = [l.encode('utf-8') for l in link]
            item['desc'] = [d.encode('utf-8') for d in desc]
            #在列表中加入这个字典
            items.append(item)
 
            #记录
            log.msg("Appending item...",level='INFO')
 
 
        log.msg("Append done.",level='INFO')
        return items

(1)需要注意的是编写的spider必须继承自scrapy的Spider类。

属性name即spider唯一名字,start_url可以理解为爬取入口。

(2)parse方法。

parse()是对scrapy.Spider类的override。

(3)网页中的数据提取机制。

scrapy使用选择器Selector并通过XPath实现数据的提取。关于XPath 推荐w3school的教程。

(4)在parse方法中还使用到了log功能实现信息记录。

使用log.mes()函数即可。

5.最终结果:

提取的是http://www.w3school.com.cn/xml/xml_syntax.asp网页中下图部分。

即“XML 基础”下所有目录结构的名字、链接和描述。使用Firebug找到次部分对应的代码块后就可以使用XPath执行信息提取。Xpath表达式如上面代码中所示。

上面还涉及到了对item中信息的编码,是为了中文信息在json文件中的正确显示。

6.运行项目

代码语言:javascript复制
scrapy crawl w3school

运行 vim w3school_data_utf8.json

即可看到

7.审查元素

一般使用谷歌浏览器,然后在页面右击选择审查||检查,或者f12可以看到页面的源代码,可以进行xpath的筛选

原创文章,转载请注明: 转载自URl-team

本文链接地址: Scrapy-笔记一 入门项目 爬虫抓取w3c网站

Related posts:

  1. Scrapy-笔记二 中文处理以及保存中文数据
  2. Scrapy笔记三 自动多网页爬取-本wordpress博客所有文章
  3. Scrapy笔记四 自动爬取网页之使用CrawlSpider
  4. Scrapy笔记五 爬取妹子图网的图片 详细解析
  5. Scrapy笔记零 环境搭建与五大组件架构
  6. 基于百度IP定位的网站访问来源分析的python实战项目–实践笔记二–调百度地图将经纬信息可视化呈现

0 人点赞