1.配置信息

# 设置mongo参数
MONGO_URI = 'localhost'
MONGO_DB = 'taobao' # 设置搜索关键字
KEYWORDS=['小米手机','华为手机']
# 最大爬取页数
MAX_PAGE = 2
# 相应超时设置
SELENIUM_TIMEOUT = 20 ROBOTSTXT_OBEY = False #忽略 # 中间件
DOWNLOADER_MIDDLEWARES = {
'taobaoSpider.middlewares.SeleniumMiddleware': 300,
} #项目管道
ITEM_PIPELINES = {
# 'taobaoSpider.pipelines.TaobaospiderPipeline': 300,
'taobaoSpider.pipelines.MongoPipeline': 400,
}
2.item
import scrapy

class TaobaospiderItem(scrapy.Item):
# define the fields for your item here like:
# name = scrapy.Field()
title = scrapy.Field()
price = scrapy.Field()
sales = scrapy.Field()
shop = scrapy.Field()
location = scrapy.Field()
image = scrapy.Field()

3.spider

# -*- coding: utf-8 -*-
import scrapy class TaobaoSpider(scrapy.Spider):
name = 'taobao'
allowed_domains = ['taobao.com']
base_url = 'https://s.taobao.com/search?q=' def start_url(self):
# 通过self.settings.get()的方式获取setting里面的参数
for keyword in self.gettings.get('KEYWORDS'):
for page in range(1,self.gettings.get('MAX_PAGE')+1):
url = self.base_url.format(self.url)
yield scrapy.Request(url=self.url,
callback=self.parse,
meta={'page':page}, # 传递页码
dont_filter=True) # 不去重 def parse(self, response): products = response.xpath('//*[@id="mainsrp-itemlist"]/div[@class="m-itemlist"]/div[@class="grid g-claerfix"]/div[1]') # products = response.xpath('//div[contains(@class,"item J_MouserOnverReq"/')
for product in products:
from taobaoSpider.taobaoSpider.items import TaobaospiderItem
item = TaobaospiderItem()
item['title'] = ''.join(product.xpath('//div[contains(@class,"title")]/text()').extract()).strip()
item['location'] = ''.join(product.xpath('//div[contains(@class,"location")]/text()').extract()).strip()
item['shop'] = ''.join(product.xpath('//div[contains(@class,"shop")]/text()').extract()).strip()
item['price'] = ''.join(product.xpath('//div[contains(@class,"price")]/text()').extract()).strip()
item['deal'] = ''.join(product.xpath('//div[contains(@class,"deal-cnt")]/text()').extract()).strip()
item['iamge'] = ''.join(product.xpath('//div[@class="pic"]/img[contains(@class,"img")/@data-src').extract()).strip()
yield item

4.中间件

from selenium import webdriver
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from scrapy.http import HtmlResponse
from logging import getLogger class SeleniumMiddleware(object):
# def __init__(self, timeout=None, service_args=[]):
def __init__(self, timeout=None):
self.logger = getLogger(__name__)
self.timeout = timeout
# self.browser = webdriver.PhantomJS(service_args=service_args)
# 无界面模式
# self.options = webdriver.ChromeOptions()
# self.options.add_argument('--headless')
# self.browser = webdriver.Chrome(chrome_options=self.options)
self.browser = webdriver.Chrome()
# self.browser.set_window_size(1400, 700)
self.browser.set_page_load_timeout(self.timeout)
self.wait = WebDriverWait(self.browser, self.timeout)
print('timeout:', self.timeout) def __del__(self):
self.browser.close() def process_request(self, request, spider):
'''
:param request:
:param spider:
:return:
'''
self.logger.debug('Selenium is Runing')
# 得到的是个int型的整数
page = request.meta.get('page', 1)
try:
self.browser.get(request.url)
print(10*'-', request.url,10*'-')
if page > 1:
# 从第二页开始,等待页面加载完成
# Presence_of_all_elements_located 判断一组元素是否存在
input = self.wait.until(
EC.presence_of_element_located((By.CSS_SELECTOR, '##mainsrp-pager > div > div > div > div.form > input')))
# Element_to_be_clickable 判断元素是否可点击
submit = self.wait.until(
EC.element_to_be_clickable((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit')))
input.clear()
# 输入第几页
input.send_keys(page)
submit.click()
# Text_to_be_present_in_element 判断元素是否有xx文本信息
self.wait.until(EC.text_to_be_present_in_element((
By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > ul > li.item.active > span'), str(page)))
# Presence_of_all_elements_located 判断一组元素是否存在
# 检测每一个item是否加载出来了
self.wait.until(EC.presence_of_element_located((
By.CSS_SELECTOR, '#mainsrp-itemlist .m-itemlist .grid.g-clearfix .item')))
return HtmlResponse(url=request.url, body=self.browser.page_source, request=request, encoding='utf-8', status=200)
except TimeoutException:
return HtmlResponse(url=request.url, status=500, request=request) # 类方法 感觉就是获取setting里面的数据 在这里调用
# 得到数据之后变成类变量
@classmethod
def from_crawler(cls, crawler):
return cls(timeout=crawler.settings.get('SELENIUM_TIMEOUT'),)
# service_args=crawler.settings.get('PHANTOMJS_SERVICE_ARGS'))

5.管道(存储到mongo中)

class Pipeline(object):
def process_item(self, item, spider):
return item import pymongo # 存储到mongo中
class MongoPipeline(object): # 配置mongo数据库
def __init__(self,mongo_url,mongo_db):
self.mongo_url = mongo_url
self.mongo_db = mongo_db # 从setting中获取参数
@classmethod
def from_crawler(cls,crawler):
mongo_url = crawler.settings.get('MONGO_URL')
mongo_db = crawler.settings.get('MONGO_DB') # 连接数据库
def open_spider(self,spider):
self.client = pymongo.MongoClient(self.mongo_url)
self.db = self.client[self.mongo_db] # 关闭数据库连接
def close_spider(self,spider):
self.client.close() # 设置存储格式
def process_item(self,item,spider):
# item.__class__.__name__ 输出的item的类名
name = item.__class__.__name__
print('---------------name', name, '-------------------')
self.db[name].insert(dict(item))
return item

scrapy+selenium 爬取淘宝商城商品数据存入到mongo中的更多相关文章

  1. 使用scrapy+selenium爬取淘宝网

    --***2019-3-27测试有效***---- 第一步: 打开cmd,输入scrapy startproject taobao_s新建一个项目. 接着cd 进入我们的项目文件夹内输入scrapy ...

  2. 爬取淘宝商品数据并保存在excel中

    1.re实现 import requests from requests.exceptions import RequestException import re,json import xlwt,x ...

  3. 利用Selenium爬取淘宝商品信息

    一.  Selenium和PhantomJS介绍 Selenium是一个用于Web应用程序测试的工具,Selenium直接运行在浏览器中,就像真正的用户在操作一样.由于这个性质,Selenium也是一 ...

  4. Scrapy+selenium爬取简书全站

    Scrapy+selenium爬取简书全站 环境 Ubuntu 18.04 Python 3.8 Scrapy 2.1 爬取内容 文字标题 作者 作者头像 发布日期 内容 文章连接 文章ID 思路 分 ...

  5. python3编写网络爬虫16-使用selenium 爬取淘宝商品信息

    一.使用selenium 模拟浏览器操作爬取淘宝商品信息 之前我们已经成功尝试分析Ajax来抓取相关数据,但是并不是所有页面都可以通过分析Ajax来完成抓取.比如,淘宝,它的整个页面数据确实也是通过A ...

  6. 使用Selenium爬取淘宝商品

    import pymongo from selenium import webdriver from selenium.common.exceptions import TimeoutExceptio ...

  7. 爬虫实战4:用selenium爬取淘宝美食

    方案1:一次性爬取全部淘宝美食信息 1. spider.py文件如下 __author__ = 'Administrator' from selenium import webdriver from ...

  8. 使用selenium抓取淘宝的商品信息

    淘宝的页面大量使用了js加载数据,所以采用selenium来进行爬取更为简单,selenum作为一个测试工具,主要配合无窗口浏览器phantomjs来使用. import re from seleni ...

  9. 吴裕雄--天生自然PYTHON爬虫:使用Selenium爬取大型电商网站数据

    用python爬取动态网页时,普通的requests,urllib2无法实现.例如有些网站点击下一页时,会加载新的内容,但是网页的URL却没有改变(没有传入页码相关的参数),requests.urll ...

随机推荐

  1. python查询neo4j的数据以字典的方式返回数据

    在使用python操作neo4j的时候,如果查询的数据比较多,结构比较复杂的时候,返回的数据量会比较大,而且信息比较多,并且不唯一.所以写了该方法,用于查询比较复杂的数据. def query_gra ...

  2. SpringBoot 对IBM MQ进行数据监听接收以及数据发送

    一.需求介绍 后端使用Spring Boot2.0框架,要实现IBM MQ的实时数据JMS监听接收处理,并形成回执通过MQ队列发送. 二.引入依赖jar包 <dependency> < ...

  3. 高深的dp POJ 2229Sumsets

    对于这个问题, 我们显然可以看出来, 当他是奇数的时候, 直接等于他的前一个偶数 dp [ i ] = dp [ i - 1] ; 那么问题, 当它是偶数的时候, 我们应该怎么进行 dp 记忆化搜索并 ...

  4. Spring Boot:上传文件大小超限制如何捕获 MaxUploadSizeExceededException 异常

    Spring Boot 默认上传文件大小限制是 1MB,默认单次请求大小是 10MB,超出大小会跑出 MaxUploadSizeExceededException 异常 spring.servlet. ...

  5. 环信联合创始人: Saas敏捷开发实践!

    马晓宇 --环信联合创始人/执行总裁 我们是一个做云服务的创业公司,所以我就云服务创业公司的角度,来谈谈我们是怎么去实践敏捷开发的.确切地说,就是讲讲我们这几年的这些教训... 1-创业公司敏捷开发流 ...

  6. WEB监控系列第三篇:graphite指南

    一  使用说明 以下是喂数据的方式,但是在实际使用中我们使用statsd来喂数据,请参考我的第四篇文章:statsd指南 喂数据有三种方式: There are three main methods ...

  7. 深入浅出GNU X86-64 汇编

    深入浅出GNU X86-64 汇编 来源 https://blog.csdn.net/pro_technician/article/details/78173777 原文 https://www3.n ...

  8. javaIO——BufferedReader

    今天来学习一下 java.io.BufferedReader ,从命名可以看出,跟前面学习的 StringReader 和 CharArrayReader 有些不一样,这些都是按照数据源类型命名,Bu ...

  9. C++ STL 之 内建函数对象

    STL 内建了一些函数对象.分为:算数类函数对象,关系运算类函数对象,逻辑运算类仿函数.这些仿函数所产生的对象,用法和一般函数完全相同,当然我们还可以产生无名的临时对象来履行函数功能.使用内建函数对象 ...

  10. vue 项目文件流数据格式转blob图片预览展示

    为了图片安全性,有时候上传图片后后台不会直接返回图片地址,会返回文件流的数据格式,这种格式需要处理下才能展示在页面上   // 使用axios请求上传接口 axios({ method: 'get', ...