Python爬虫:用Scrapy框架爬取漫画(附源码)
scrapy 是一个为了爬取网站数据,提取结构性数据而编写的应用框架。关于框架使用的更多详情可浏览官方文档,本篇文章展示的是爬取漫画图片的大体实现过程。
首先是 scrapy 的安装,博主用的是Mac系统,直接运行命令行:
pip install Scrapy
对于html节点信息的提取使用了 Beautiful Soup 库,大概的用法可见之前的一篇文章,直接通过命令安装:
pip install beautifulsoup4
对于目标网页的 Beautiful Soup 对象初始化需要用到 html5lib 解释器,安装的命令:
pip install html5lib
安装完成后,直接在命令行运行命令:
scrapy
可以看到如下输出结果,这时候证明scrapy安装完成了。
Scrapy 1.2.1 - no active project
Usage:
scrapy <command> [options] [args]
Available commands:
bench Run quick benchmark test
commands
fetch Fetch a URL using the Scrapy downloader
genspider Generate new spider using pre-defined templates
runspider Run a self-contained spider (without creating a project)
settings Get settings values
...
scrapy startproject Comics
Comics
文件结构为:|____Comics| |______init__.py| |______pycache__| |____items.py| |____pipelines.py| |____settings.py| |____spiders| | |______init__.py| | |______pycache__|____scrapy.cfg
find . -print | sed -e 's;[^/]*/;|____;g;s;____|; |;g'
1、创建Spider类
scrapy.Spider
的子类。Comics/spiders
文件路径下创建 comics.py
文件。comics.py
的具体实现:#coding:utf-8
import scrapy
class Comics(scrapy.Spider):
name = "comics"
def start_requests(self):
urls = ['http://www.xeall.com/shenshi']
for url in urls:
yield scrapy.Request(url=url, callback=self.parse)
def parse(self, response):
self.log(response.body);
scrapy.Spider
的子类,其中的name
属性为该爬虫的唯一标识,作为scrapy爬取命令的参数。其他方法的属性后续再解释。Comics
路径下,运行命令,启动爬虫任务开始爬取网页。scrapy crawl comics
2016-11-26 22:04:35 [scrapy] INFO: Scrapy 1.2.1 started (bot: Comics)2016-11-26 22:04:35 [scrapy] INFO: Overridden settings: {'ROBOTSTXT_OBEY': True, 'BOT_NAME': 'Comics', 'NEWSPIDER_MODULE': 'Comics.spiders', 'SPIDER_MODULES': ['Comics.spiders']}2016-11-26 22:04:35 [scrapy] INFO: Enabled extensions:['scrapy.extensions.corestats.CoreStats', 'scrapy.extensions.telnet.TelnetConsole', 'scrapy.extensions.logstats.LogStats'] ...
1、起始地址
http://www.xeall.com/shenshi
url
我们放在了start_requests
函数的urls
数组中。其中start_requests
是重载了父类的方法,爬虫任务开始时会执行到这个方法。start_requests
方法中主要的执行在这一行代码:请求指定的url
,请求完成后调用对应的回调函数self.parse
scrapy.Request(url=url, callback=self.parse)
#coding:utf-8
import scrapy
class Comics(scrapy.Spider):
name = "comics"
start_urls = ['http://www.xeall.com/shenshi']
def parse(self, response):
self.log(response.body);
start_urls
是框架中提供的属性,为一个包含目标网页url的数组,设置了start_urls
的值后,不需要重载start_requests
方法,爬虫也会依次爬取start_urls
中的地址,并在请求完成后自动调用parse
作为回调方法。
2、爬取漫画url
当前页漫画列表
parse
方法。BeautifulSoup
库from bs4 import BeautifulSoup
BeautifulSoup
初始化。def parse(self, response): content = response.body; soup = BeautifulSoup(content, "html5lib")
html5lib
解释器,若没安装这里会报错。lxml
,此时解析出的结果会有问题,而导致无法进行接下来的数据提取。所以当发现有时候提取结果又问题时,打印soup
看看是否正确。listcon
的ul
标签,通过listcon
类能唯一确认对应的标签listcon_tag = soup.find('ul', class_='listcon')
find
方法意为寻找class
为listcon
的ul
标签,返回的是对应标签的所有内容。href
属性的a
标签,这些a
标签即为每部漫画对应的信息。com_a_list = listcon_tag.find_all('a', attrs={'href': True})
href
属性合成完整能访问的url地址,保存在一个数组中。comics_url_list = []base = 'http://www.xeall.com' for tag_a in com_a_list: url = base + tag_a['href'] comics_url_list.append(url)
comics_url_list
数组即包含当前页每部漫画的url。
3、下一页列表
href
属性的a
标签page_tag = soup.find('ul', class_='pagelist')page_a_list = page_tag.find_all('a', attrs={'href': True})
a
标签中,倒数第一个代表末页的url,倒数第二个代表下一页的url,因此,我们可以通过取page_a_list
数组中倒数第二个元素来获取到下一页的url。select
控件来判断。通过源码可以判断,当前页对应的option
标签会具有selected
属性,下图为当前页为第一页select_tag = soup.find('select', attrs={'name': 'sldd'})
option_list = select_tag.find_all('option')
last_option = option_list[-1]
current_option = select_tag.find('option' ,attrs={'selected': True})
is_last = (last_option.string == current_option.string)
parse
方法做处理if not is_last: next_page = 'http://www.xeall.com/shenshi/' + page_a_list[-2]['href'] if next_page is not None: print('\n------ parse next page --------') print(next_page) yield scrapy.Request(next_page, callback=self.parse)
4、爬取漫画图片
parse
方法中提取到当前页的所有漫画url时,就可以开始对每部漫画进行处理。comics_url_list
数组的下方加上下面代码:for url in comics_url_list: yield scrapy.Request(url=url, callback=self.comics_parse)
self.comics_parse
,comics_parse
方法用来处理每部漫画,下面为具体实现。
5、当前页图片
BeautifulSoup
,和前面基本一致def comics_parse(self, response): content = response.body; soup = BeautifulSoup(content, "html5lib")
class
为pagelist
的ul
标签page_list_tag = soup.find('ul', class_='pagelist')
li
标签的class
属性thisclass
,以此获取到当前页页数current_li = page_list_tag.find('li', class_='thisclass')page_num = current_li.a.string
li_tag = soup.find('li', id='imgshow')
img_tag = li_tag.find('img')
img_url = img_tag['src']
title = img_tag['alt']
self.save_img(page_num, title, img_url)
save_img
,具体完整实现如下# 先导入库
import os
import urllib
import zlib
def save_img(self, img_mun, title, img_url):
# 将图片保存到本地
self.log('saving pic: ' + img_url)
# 保存漫画的文件夹
document = '/Users/moshuqi/Desktop/cartoon'
# 每部漫画的文件名以标题命名
comics_path = document + '/' + title
exists = os.path.exists(comics_path)
if not exists:
self.log('create document: ' + title)
os.makedirs(comics_path)
# 每张图片以页数命名
pic_name = comics_path + '/' + img_mun + '.jpg'
# 检查图片是否已经下载到本地,若存在则不再重新下载
exists = os.path.exists(pic_name)
if exists:
self.log('pic exists: ' + pic_name)
return
try:
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
headers = { 'User-Agent' : user_agent }
req = urllib.request.Request(img_url, headers=headers)
response = urllib.request.urlopen(req, timeout=30)
# 请求返回到的数据
data = response.read()
# 若返回数据为压缩数据需要先进行解压
if response.info().get('Content-Encoding') == 'gzip':
data = zlib.decompress(data, 16 + zlib.MAX_WBITS)
# 图片保存到本地
fp = open(pic_name, "wb")
fp.write(data)
fp.close
self.log('save image finished:' + pic_name)
except Exception as e:
self.log('save image error.')
self.log(e)
document
为本地指定的文件夹,可自定义。页数.jpg
的格式命名,若本地已存在同名图片则不再进行重新下载,一般用在反复开始任务的情况下进行判断以避免对已存在图片进行重复请求。response.info().get('Content-Encoding')
的类型来进行判断。压缩过的图片要先经过zlib.decompress
解压再保存到本地,否则图片打不开。
7、下一页图片
href
属性为#
时为漫画的最后一页a_tag_list = page_list_tag.find_all('a')next_page = a_tag_list[-1]['href']if next_page == '#': self.log('parse comics:' + title + 'finished.')else: next_page = 'http://www.xeall.com/shenshi/' + next_page yield scrapy.Request(next_page, callback=self.comics_parse)
yield scrapy.Request(next_page, callback=self.comics_parse)
FilesPipeline
、ImagesPipeline
来保存下载的文件或者图片。XPath
类用来对网页信息进行提取,这个的效率要比BeautifulSoup
高,也可以通过专门的item
类将爬取的数据结果保存作为一个类返回。具体请查阅官网。