ItemLoader使用
作用
  方便管理维护重用xpath或css规则
 
实例

itemloader+图片处理
  1. # items.py
  2.  
  3. import scrapy
  4. from scrapy.loader.processors import MapCompose, Join, TakeFirst
  5. from scrapy.loader import ItemLoader
  6. import datetime
  7. import re
  8.  
  9. def date_convert(value):
  10. try:
  11. create_date = datetime.datetime.strptime(value, "%Y/%m/%d").date()
  12. except Exception as e:
  13. create_date = datetime.datetime.now().date()
  14.  
  15. return create_date
  16.  
  17. def get_nums(value):
  18. match_re = re.match(".*?(\d+).*", value)
  19. if match_re:
  20. nums = int(match_re.group(1))
  21. else:
  22. nums = 0
  23.  
  24. return nums
  25.  
  26. def return_value(value):
  27. return value
  28.  
  29. def remove_comment_tags(value):
  30. #去掉tag中提取的评论
  31. if "评论" in value:
  32. return ""
  33. else:
  34. return value
  35.  
  36. class ArticleItemLoader(ItemLoader):
  37. #自定义itemloader
  38. default_output_processor = TakeFirst()
  39.  
  40. class ArticlespiderItem(scrapy.Item):
  41. # title字段值回在最后加上 -jobbole-abc
  42. title = scrapy.Field(
  43. input_processor=MapCompose(lambda x:x+"-jobbole", lambda y:y+"-abc")
  44. )
  45. create_date = scrapy.Field(
  46. input_processor=MapCompose(date_convert),
  47. )
  48. url = scrapy.Field()
  49. url_object_id = scrapy.Field()
  50. # 由于front_image_url需要存储一个列表,不能使用defauls方法获取,为了保持原来的列表,我们重写一个output_processor
  51. front_image_url = scrapy.Field(
  52. output_processor=MapCompose(return_value)
  53. )
  54. front_image_path = scrapy.Field()
  55. praise_nums = scrapy.Field(
  56. input_processor=MapCompose(get_nums)
  57. )
  58. comment_nums = scrapy.Field(
  59. input_processor=MapCompose(get_nums)
  60. )
  61. fav_nums = scrapy.Field(
  62. input_processor=MapCompose(get_nums)
  63. )
  64. tags = scrapy.Field(
  65. input_processor=MapCompose(remove_comment_tags),
  66. output_processor=Join(",")
  67. )
  68. content = scrapy.Field()
  69.  
  70. # pipelines.py
  71.  
  72. from scrapy.pipelines.images import ImagesPipeline
  73.  
  74. class ArticleImagePipeline(ImagesPipeline):
  75.  
  76. def item_completed(self, results, item, info):
  77.  
  78. if "front_image_url" in item:
  79.  
  80. for res, value in results:
  81.  
  82. image_path = value['path']
  83.  
  84. item['front_image_path'] = image_path
  85.  
  86. # 处理完成路径需要将item返回,因为在settings中,配置的了优先级,该pipelines可以将items继续传递给下一个pipelines中
  87.  
  88. return item
  89.  
  90. # 使用自己的pipelines
  91.  
  92. ITEM_PIPELINES = {
  93. 'ArticleSpider.pipelines.ArticlespiderPipeline': 300,
  94. 'ArticleSpider.pipelines.ArticleImagePipeline': 1,
  95. }

Scrapy学习-8-ItemLoader的更多相关文章

  1. Scrapy学习篇(十)之下载器中间件(Downloader Middleware)

    下载器中间件是介于Scrapy的request/response处理的钩子框架,是用于全局修改Scrapy request和response的一个轻量.底层的系统. 激活Downloader Midd ...

  2. Scrapy学习篇(七)之Item Pipeline

    在之前的Scrapy学习篇(四)之数据的存储的章节中,我们其实已经使用了Item Pipeline,那一章节主要的目的是形成一个笼统的认识,知道scrapy能干些什么,但是,为了形成一个更加全面的体系 ...

  3. Python爬虫框架Scrapy学习笔记原创

     字号 scrapy [TOC] 开始 scrapy安装 首先手动安装windows版本的Twisted https://www.lfd.uci.edu/~gohlke/pythonlibs/#twi ...

  4. Scrapy:学习笔记(2)——Scrapy项目

    Scrapy:学习笔记(2)——Scrapy项目 1.创建项目 创建一个Scrapy项目,并将其命名为“demo” scrapy startproject demo cd demo 稍等片刻后,Scr ...

  5. Scrapy:学习笔记(1)——XPath

    Scrapy:学习笔记(1)——XPath 1.快速开始 XPath是一种可以快速在HTML文档中选择并抽取元素.属性和文本的方法. 在Chrome,打开开发者工具,可以使用$x工具函数来使用XPat ...

  6. scrapy学习(完全版)

    scrapy1.6中文文档 scrapy1.6中文文档 scrapy中文文档 Scrapy框架 下载页面 解析页面 并发 深度 安装 scrapy学习教程 如果安装了anconda,可以在anacon ...

  7. python爬虫之Scrapy学习

    在爬虫的路上,学习scrapy是一个必不可少的环节.也许有好多朋友此时此刻也正在接触并学习scrapy,那么很好,我们一起学习.开始接触scrapy的朋友可能会有些疑惑,毕竟是一个框架,上来不知从何学 ...

  8. Scrapy基础(十三)————ItemLoader的简单使用

    ItemLoader的简单使用:目的是解决在爬虫文件中代码结构杂乱,无序,可读性差的缺点 经过之前的基础,我们可以爬取一些不用登录,没有Ajax的,等等其他的简单的爬虫回顾我们的代码,是不是有点冗长, ...

  9. 转载一个不错的Scrapy学习博客笔记

    背景: 最近在学习网络爬虫Scrapy,官网是 http://scrapy.org 官方描述:Scrapy is a fast high-level screen scraping and web c ...

随机推荐

  1. core 下使用 autofac

    依赖注入小伙伴们比较常了,这里只说core 下autofac依赖注入的使用 ,不多费话,直接代码. 在 Startup.cs里 public void ConfigureServices(IServi ...

  2. selenium--Xpath定位

    前戏 前面介绍过了七种定位方式,今天来介绍最后一种,也是最强大,本人最常用的定位方式xpath Xpath 即为 xml 路径语言,它是一种用来确定 xml 文档中某部分位置的语言.Xpath 基于 ...

  3. getpwuid和getpwnam的用法

    如果知道一个用户的用户ID或者登录名,可以通过getpwuid或getpwnam函数获得用户的登录信息.函数原型为:         #include <pwd.h> #include & ...

  4. 【线段树 细节题】bzoj1067: [SCOI2007]降雨量

    主要还是细节分析:线段树作为工具 Description 我们常常会说这样的话:“X年是自Y年以来降雨量最多的”.它的含义是X年的降雨量不超过Y年,且对于任意Y<Z<X,Z年的降雨量严格小 ...

  5. python中函数定义之实参、形参

    一般在函数的定义中,会有一类变量---形参,它是函数完成其工作的一项信息.实参往往是调用函数时传递给函数的信息.我们在调用函数时,将要让函数使用的信息放在括号内.例如定义一个函数def greet_u ...

  6. pyhton链式赋值在可变类型/不可变类型上的区别以及其本质

    关于链式赋值的一些注意点: a=[]b=[]x=y=[]print(a==b) #Trueprint(x==y) #Trueprint(a is b) #Falseprint(x is y) #Tru ...

  7. (原)剑指offer变态跳台阶

    变态跳台阶 时间限制:1秒空间限制:32768K 题目描述 一只青蛙一次可以跳上1级台阶,也可以跳上2级……它也可以跳上n级.求该青蛙跳上一个n级的台阶总共有多少种跳法.   分析一下明天是个斐波那契 ...

  8. Memcached特性及优缺点

    为了加快文件访问速度且提供多个使用者.需要在内存中建立内存缓存数据的管理减小读写磁盘的次数及保证数据的更新.因为需要使用cache缓存.   1.Memcached 主要特性 a.数据仅存在于内存中, ...

  9. java 罕见的依赖报错 jstat: error while loading shared libraries: libjli.so: cannot open shared object file: No such file or directory

    java 都用了N长时间了,突然,意外地发现有一个依赖的so文件从来没找见过 # ldd /usr/bin/java linux-vdso.so.1 =>  (0x00007fffba76900 ...

  10. cf886d Restoration of string

    明确几点 假设有串 ab,那么 a 后头必须是 b,b 前头必须是 a,否则就不是最频繁的了. 不可成环,aba是非法的. #include <iostream> #include < ...