前言:自从2014年4月大一开始接触Java,7月开始接触网络爬虫至今已经两年的时间,共抓取非同类型网站150余个,其中包括一些超大型网站,比如百度文库,亚马逊,魔方格,学科网等。也在学长五年经验留下来的代码的基础上,整合成一个小型的爬虫框架,主要用于抓取期刊之类的数据型网站,包括元数据抓取和文件下载。在此感谢曾经给我指导方向,帮助我学习的学长们。
关于本系列博文:主要基于Java语言,使用Jsoup解析网页源码,HttpClient模拟请求,MySQL数据持久化存储等,包括模拟登陆,数据抓取,代理IP,验证码识别等。
学习前的准备工作: 1.关于Java基础 此文档主要以Jsoup解析 MySql数据库存储讲解数据抓取,需要具备一定的Java基础和数据库基础。由于在实际抓取中经常使用到Java中对String的操作,如indexOf,subString,split,replace等,请重点回顾相关用法及有可能抛出的异常。对于一些复杂的网站只靠Jsoup解析 String操作远远不够,有时候也需要使用正则表达式,也需要适当了解。
2.关于开发必备软件如下: 开发工具推荐使用Eclipse系列,注意修改工作空间编码为UTF-8。 下载地址: http://www.eclipse.org/downloads/packages/eclipse-ide-java-ee-developers/mars1 浏览器使用火狐或者谷歌,请自行选择。 火狐浏览器下载地址: http://download.firefox.com.cn/releases/stub/official/zh-CN/Firefox-latest.exe 谷歌浏览器下载地址: http://w.x.baidu.com/alading/anquan_soft_down_ub/14744
3.解析网页源码使用的是Jsoup,使用前请先查看一下文档学习。 教程网址:http://www.open-open.com/jsoup/(重点) Jsoup解析网页源码时常用的Element(s)类:http://blog.csdn.net/TMaskBoy/article/details/49076727
4.关于http请求介绍(包括Chrome开发者工具说明) http://www.imooc.com/video/13082