实现业务逻辑如下:

1. 创建scrapy项目,并生成 爬虫
2. 在suning.py中实现Schedul 和 Spider业务逻辑
3. 修改start_urls为正确的初始请求地址
4. 构造parse(self,response)函数(底部封装自动发送请求,)获取响应
5. 根据响应,使用xpath提取大分类和中间分类的list
6. 根据上述得到的list再遍历,使用xpath提取我们需要的内容字段,存入刚构建的空dict中
7. 如果要进入到下一个商品列表页面,则 yield 一个Requset对象,指明要进入的url,callback,以及把item通过meta传到列表页响应中。
8. 构建callback对应的商品列表页面数据提取函数 parse_book_list(self,response),使用xpath提取我们需要的内容字段,使用yield response.yellow()构造请求,指明要进入的url(使用的是follow,所以可以是不完整的url),callback,以及把item通过meta传到详情页响应中。
9. 构建callback对应的商品详情页面数据提取函数 parse_book_detail(self,response),使用xpath提取我们需要的内容字段,字段提取完成后,就可以把item返回了,yield item。
10. 构建分类页中的后一部分图书列表数据请求,首先找到next_url,然后构造Request。
11. 上述最终yield 的item 通过在settings中设置spiderpiplelines,就会进入指定的spiderpiplelines中通过process_item()进行进一步数据处理,比如清洗和保存。
12. 另外在Downloader Middlewares中还可以设置open_spider(),close_spider(),做相应处理。
# 注意点,scrapy框架底层实现了多线程,所以item传递时,为避免数据覆盖错位情况,需要使用deepcopy()传递下去。

下面直接上代码:

# suning.py
# -*- coding: utf-8 -*-
import scrapy
import re
from copy import deepcopy class SuningSpider(scrapy.Spider):
name = 'suning'
allowed_domains = ['suning.com']
start_urls = ['https://book.suning.com/'] def parse(self, response):
#获取大分类的分组
div_list = response.xpath("//div[@class='menu-list']/div[@class='menu-item']")
# 和大分类呼应的中间分类组
div_sub_list = response.xpath("//div[@class='menu-list']/div[@class='menu-sub']")
for div in div_list[:1]:
item = {}
#大分类的名字--eg:文学艺术
item["b_cate"] = div.xpath(".//h3/a/text()").extract_first()
#当前大分类的所有的中间分类的位置
current_sub_div = div_sub_list[div_list.index(div)]
#获取中间分类的分组--eg: 小说,青春文学
p_list = current_sub_div.xpath(".//div[@class='submenu-left']/p[@class='submenu-item']")
for p in p_list:
#中间分类的名字
item["m_cate"] = p.xpath("./a/text()").extract_first()
#获取小分类的分组
li_list = p.xpath("./following-sibling::ul[1]/li")
for li in li_list:
#小分类的名字
item["s_cate"] = li.xpath("./a/text()").extract_first()
#小分类的URL地址
item["s_href"] = li.xpath("./a/@href").extract_first() #请求图书的列表页
yield scrapy.Request(
item["s_href"],
callback=self.parse_book_list,
meta={"item":deepcopy(item)}
) #发送请求,获取列表页第一页后一部分的数据
next_part_url_temp = "https://list.suning.com/emall/showProductList.do?ci={}&pg=03&cp=0&il=0&iy=0&adNumber=0&n=1&ch=4&sesab=ABBAAA&id=IDENTIFYING&cc=010&paging=1&sub=0"
#获取url地址的ci
ci = item["s_href"].split("-")[1]
next_part_url = next_part_url_temp.format(ci)
yield scrapy.Request(
next_part_url,
callback=self.parse_book_list,
meta={"item":deepcopy(item)}
) def parse_book_list(self,response): #处理图书列表页内容
item = response.meta["item"]
#获取图书列表页的分组
# li_list = response.xpath("//div[@id='filter-results']/ul/li")
li_list =response.xpath("//li[contains(@class,'product book')]")
for li in li_list[:1]:
#书名
item["book_name"] = li.xpath(".//p[@class='sell-point']/a/text()").extract_first().strip()
#书的url地址,不完整
item["book_href"] = li.xpath(".//p[@class='sell-point']/a/@href").extract_first()
#书店名
item["book_store_name"] = li.xpath(".//p[contains(@class,'seller oh no-more')]/a/text()").extract_first()
#发送详情页的请求
yield response.follow(
item["book_href"],
callback = self.parse_book_detail,
meta = {"item":deepcopy(item)}
) #列表页翻页
#前半部分数据的url地址
next_url_1 = "https://list.suning.com/emall/showProductList.do?ci={}&pg=03&cp={}&il=0&iy=0&adNumber=0&n=1&ch=4&sesab=ABBAAA&id=IDENTIFYING&cc=010"
#后半部分数据的url地址
next_url_2 = "https://list.suning.com/emall/showProductList.do?ci={}&pg=03&cp={}&il=0&iy=0&adNumber=0&n=1&ch=4&sesab=ABBAAA&id=IDENTIFYING&cc=010&paging=1&sub=0"
ci = item["s_href"].split("-")[1]
#当前的页码数
current_page = re.findall('param.currentPage = "(.*?)";',response.body.decode())[0]
#总的页码数
total_page = re.findall('param.pageNumbers = "(.*?)";',response.body.decode())[0]
if int(current_page)<int(total_page):
next_page_num = int(current_page) + 1
next_url_1 = next_url_1.format(ci,next_page_num) #组装前半部分URL
yield scrapy.Request(
next_url_1,
callback=self.parse_book_list,
meta = {"item":item}
)
#构造后半部分数据的请求
next_url_2 = next_url_2.format(ci,next_page_num)
yield scrapy.Request(
next_url_2,
callback=self.parse_book_list,
meta = {"item":item}
) def parse_book_detail(self,response):#处理图书详情页内容
item = response.meta["item"]
price_temp_url = "https://pas.suning.com/nspcsale_0_000000000{}_000000000{}_{}_10_010_0100101_226503_1000000_9017_10106____{}_{}.html"
p1 = response.url.split("/")[-1].split(".")[0]
p3 = response.url.split("/")[-2]
p4 = re.findall('"catenIds":"(.*?)",',response.body.decode())
if len(p4)>0:
p4 = p4[0]
p5 = re.findall('"weight":"(.*?)",',response.body.decode())[0]
price_url = price_temp_url.format(p1,p1,p3,p4,p5)
yield scrapy.Request(
price_url,
callback=self.parse_book_pirce,
meta={"item":item}
) def parse_book_pirce(self,response): #提取图书的价格
item = response.meta["item"]
# item["book_price"] = re.findall('"netPrice":"(.*?)"',response.body.decode())[0]
# print(item)
yield item

关于setting.py & pipeline.py & middlewares.py的代码比较简单,这里就不传了。

scrapy爬虫--苏宁图书的更多相关文章

  1. Scrapy项目_苏宁图书信息

     苏宁图书(https://book.suning.com/) 目标: 1.图书一级分类 2.图书二级分类 3.图书三级分类 4.图书名字 5.图书作者 6.图书价格 7.通过Scrapy获取以上数据 ...

  2. scrapy爬虫结果插入mysql数据库

    1.通过工具创建数据库scrapy

  3. Python之Scrapy爬虫框架安装及简单使用

    题记:早已听闻python爬虫框架的大名.近些天学习了下其中的Scrapy爬虫框架,将自己理解的跟大家分享.有表述不当之处,望大神们斧正. 一.初窥Scrapy Scrapy是一个为了爬取网站数据,提 ...

  4. Linux搭建Scrapy爬虫集成开发环境

    安装Python 下载地址:http://www.python.org/, Python 有 Python 2 和 Python 3 两个版本, 语法有些区别,ubuntu上自带了python2.7. ...

  5. Scrapy 爬虫

    Scrapy 爬虫 使用指南 完全教程   scrapy note command 全局命令: startproject :在 project_name 文件夹下创建一个名为 project_name ...

  6. [Python爬虫] scrapy爬虫系列 <一>.安装及入门介绍

    前面介绍了很多Selenium基于自动测试的Python爬虫程序,主要利用它的xpath语句,通过分析网页DOM树结构进行爬取内容,同时可以结合Phantomjs模拟浏览器进行鼠标或键盘操作.但是,更 ...

  7. 同时运行多个scrapy爬虫的几种方法(自定义scrapy项目命令)

    试想一下,前面做的实验和例子都只有一个spider.然而,现实的开发的爬虫肯定不止一个.既然这样,那么就会有如下几个问题:1.在同一个项目中怎么创建多个爬虫的呢?2.多个爬虫的时候是怎么将他们运行起来 ...

  8. 如何让你的scrapy爬虫不再被ban之二(利用第三方平台crawlera做scrapy爬虫防屏蔽)

    我们在做scrapy爬虫的时候,爬虫经常被ban是常态.然而前面的文章如何让你的scrapy爬虫不再被ban,介绍了scrapy爬虫防屏蔽的各种策略组合.前面采用的是禁用cookies.动态设置use ...

  9. 如何让你的scrapy爬虫不再被ban

    前面用scrapy编写爬虫抓取了自己博客的内容并保存成json格式的数据(scrapy爬虫成长日记之创建工程-抽取数据-保存为json格式的数据)和写入数据库(scrapy爬虫成长日记之将抓取内容写入 ...

  10. scrapy爬虫成长日记之将抓取内容写入mysql数据库

    前面小试了一下scrapy抓取博客园的博客(您可在此查看scrapy爬虫成长日记之创建工程-抽取数据-保存为json格式的数据),但是前面抓取的数据时保存为json格式的文本文件中的.这很显然不满足我 ...

随机推荐

  1. CentOS7使用ZFS文件系统

    默认情况下,CentOS7并没有含ZFS支持的文件和,需要进行更新和安装第三方库. Step 1:安装第三方库和更新系统 [root@localhost ~]# rpm -Uvh http://www ...

  2. ES6 Iterator

    不同数据集合怎么用统一的方式读取 可以用for...of循环了

  3. cookie和session 以及Django中应用

    cookie和session 以及Django中应用   cookie和session机制 cookie和session机制 cookie机制采用的是在客户端保持状态的方案.作用就是为了解决HTTP协 ...

  4. hbase-基础架构

    介绍 hbase架构主要由hmaster,zookeeper和regionserver三部分构成,底层数据存储在hdfs中 hmaster 允许有多个master节点,使用zookeeper控制,保证 ...

  5. 地址重写 No input file specified的解决方法

    转载自:http://blog.csdn.net/williamsblog/article/details/37532737 (一)IIS Noinput file specified 方法一:改PH ...

  6. RQNOJ 1 明明的随机数

    查重和排序,这里我用的set进行存储数据,利用了set的唯一性和自动性,方便了很多 #include <iostream> using namespace std; #include &l ...

  7. Java:Hashtable

    概要 前一章,我们学习了HashMap.这一章,我们对Hashtable进行学习.我们先对Hashtable有个整体认识,然后再学习它的源码,最后再通过实例来学会使用Hashtable.第1部分 Ha ...

  8. 返回头部js

    $('.backTop, .backCss').click(function() { var id=$(this).attr('class'); $('html, body').animate({sc ...

  9. # 2019-2020-3 《Java 程序设计》第四周总结

    2019-2020-3 <Java 程序设计>第四周知识总结 第五章:继承 1.定义继承关系的语法结构: [修饰符] class 子类名 extends 父类名 { 类体定义 } 父类中应 ...

  10. const和static readonly 区别

    const的值是在编译期间确定的,因此只能在声明时通过常量表达式指定其值. 而static readonly是在运行时计算出其值的,所以还可以通过静态构造函数来赋值. static readonly ...