学习自:http://blog.csdn.net/u012150179/article/details/32911511
入门项目建议仔细学习
关于环境配置请看:http://scrapy-chs.readthedocs.io/zh_CN/1.0/intro/install.html
1.创建项目:
代码语言:javascript复制 scrapy crawl w3school
2.在items.py中定义Item容器
所谓Item容器就是将在网页中获取的数据结构化保存的数据结构,类似于Python中字典。下面为items.py中代码。
代码语言:javascript复制from scrapy.item import Item,Field
class W3schoolItem(Item):
title = Field()
link = Field()
desc = Field()
定义了自己的W3schoolItem类,它继承自scrapy的Item(这里没有显示定义W3schoolItem的__init__()方法,也正因为如此,python也会为你自动调用基类的__init__(),否则必须显式在子类的__init__()中调用基类__init__())。之后声明W3schoolItem中元素并使用Field定义。
3.在pipelines.py中编写W3schoolPipeline
实现对item的处理。
在其中主要完成数据的查重、丢弃,验证item中数据,将得到的item数据保存等工作。代码如下:
代码语言:javascript复制# -*- coding: utf-8 -*-
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html
import json
import codecs
class W3SchoolPipeline(object):
def __init__(self):
#初始化打开json记录文件数据
#定义编码为utf-8
self.file = codecs.open('w3school_data_utf8.json', 'wb', encoding='utf-8')
def process_item(self, item, spider):
line = json.dumps(dict(item)) 'n'
# print line
self.file.write(line.decode("unicode_escape"))
return item
#返回类型必须要是item类型
其中的process_item方法是必须调用的用来处理item,并且返回值必须为Item类的对象,或者是抛出DropItem异常。并且上述方法将得到的item实现解码,以便正常显示中文,最终保存到json文件中。
注意:在编写完pipeline后,为了能够启动它,必须将其加入到ITEM_PIPLINES配置中,即在settings.py中加入下面一句:
代码语言:javascript复制ITEM_PIPELINES = {
'w3school.pipelines.W3SchoolPipeline':300
}
4.爬虫主代码
spider/文件夹下编写w3cshool_spider.py
代码语言:javascript复制#!/usr/bin/python
# -*- coding:utf-8 -*-
from scrapy.spider import Spider
from scrapy.selector import Selector
from scrapy import log
from w3school.items import W3schoolItem
class W3schoolSpider(Spider):
"""爬取w3school标签"""
#log.start("log",loglevel='INFO')
#name为必须,需要在启动项目时制定
name = "w3school"
allowed_domains = ["w3school.com.cn"]
#制定url列表,一般放置url根路口
start_urls = [
"http://www.w3school.com.cn/xml/xml_syntax.asp"
]
def parse(self, response):
#选择器获取页面源码,
sel = Selector(response)
#使用xparh进行筛选,选取所有div中id为navsecond的层所包含的所有div中id为course的ul中ul标签下的,li标签内容,
sites = sel.xpath('//div[@id="navsecond"]/div[@id="course"]/ul[1]/li')
#定义一个items容器
items = []
#site的内容包括href为链接,title为标题,
for site in sites:
#成为ie一个item的字典类型
item = W3schoolItem()
#对每一个site使用xpath抽取出a标签内的text,href,title.
title = site.xpath('a/text()').extract()
link = site.xpath('a/@href').extract()
desc = site.xpath('a/@title').extract()
item['title'] = [t.encode('utf-8') for t in title]
item['link'] = [l.encode('utf-8') for l in link]
item['desc'] = [d.encode('utf-8') for d in desc]
#在列表中加入这个字典
items.append(item)
#记录
log.msg("Appending item...",level='INFO')
log.msg("Append done.",level='INFO')
return items
(1)需要注意的是编写的spider必须继承自scrapy的Spider类。
属性name即spider唯一名字,start_url可以理解为爬取入口。
(2)parse方法。
parse()是对scrapy.Spider类的override。
(3)网页中的数据提取机制。
scrapy使用选择器Selector并通过XPath实现数据的提取。关于XPath 推荐w3school的教程。
(4)在parse方法中还使用到了log功能实现信息记录。
使用log.mes()函数即可。
5.最终结果:
提取的是http://www.w3school.com.cn/xml/xml_syntax.asp网页中下图部分。
即“XML 基础”下所有目录结构的名字、链接和描述。使用Firebug找到次部分对应的代码块后就可以使用XPath执行信息提取。Xpath表达式如上面代码中所示。
上面还涉及到了对item中信息的编码,是为了中文信息在json文件中的正确显示。
6.运行项目
代码语言:javascript复制scrapy crawl w3school
运行 vim w3school_data_utf8.json
即可看到
7.审查元素
一般使用谷歌浏览器,然后在页面右击选择审查||检查,或者f12可以看到页面的源代码,可以进行xpath的筛选
原创文章,转载请注明: 转载自URl-team
本文链接地址: Scrapy-笔记一 入门项目 爬虫抓取w3c网站
Related posts:
- Scrapy-笔记二 中文处理以及保存中文数据
- Scrapy笔记三 自动多网页爬取-本wordpress博客所有文章
- Scrapy笔记四 自动爬取网页之使用CrawlSpider
- Scrapy笔记五 爬取妹子图网的图片 详细解析
- Scrapy笔记零 环境搭建与五大组件架构
- 基于百度IP定位的网站访问来源分析的python实战项目–实践笔记二–调百度地图将经纬信息可视化呈现