需要学习的知识: 1.获取到的json数据如何处理 2.保存到json文件 3.保存到MongoDB数据库 4.下载项目图片(含缩略图) 1.创建项目 scrapy startproject gank 2.生成项目爬虫文件 scrapy genspider gank_img gank.io 注意:项目名称gank不能跟项目爬虫文件名gank_img一致 3.gank_img.py文件 import json import scrapy from gank.items import GankIte…
#!/usr/bin/env python # -*- coding: utf-8 -*- # @Date : 2017-08-24 10:17:28 # @Author : EnderZhou (zptxwd@gmail.com) # @Link : http://www.cnblogs.com/enderzhou/ # @Version : $Id$ import requests from bs4 import BeautifulSoup as bs import threading im…
创建scrapy项目 scrapy startproject jingdong 填充 item.py文件 在这里定义想要存储的字段信息 import scrapy class JingdongItem(scrapy.Item): content = scrapy.Field() creationTime = scrapy.Field() productColor = scrapy.Field() productSize = scrapy.Field() userClientShow = scra…
创建scrapy项目 scrapy startproject jingdong 填充 item.py文件 在这里定义想要存储的字段信息 import scrapy class JingdongItem(scrapy.Item): content = scrapy.Field() creationTime = scrapy.Field() productColor = scrapy.Field() productSize = scrapy.Field() userClientShow = scra…
前几天刚学了python网络编程,书里没什么实践项目,只好到网上找点东西做. 一直对爬虫很好奇,所以不妨从爬虫先入手吧. Python版本:3.6 这是我看的教程:Python - Jack -Cui -CSDN 大概学了一下urllib,beautifulsoup这两个库,也看了一些官方文档,学会了这两个库的大概的用法. urllib用来爬取url的内容,如html文档等.beautifulsoup是用来解析html文档,就像js的DOM操作一样.简单流程如下: from urllib imp…
import urllib.request import os def url_open(url): req = urllib.request.Request(url) req.add_header("User-Agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:54.0) Gecko/20100101 Firefox/54.0") response = urllib.request.urlopen(url) h…
#看到贴吧大佬在发图,准备盗一下 #只是爬取一个帖子中的图片 1.先新建一个scrapy项目 scrapy startproject TuBaEx 2.新建一个爬虫 scrapy genspider tubaex https://tieba.baidu.com/p/4092816277 3.先写下items #保存图片的url img_url=scrapy.Field() 4.开始写爬虫 # -*- coding: utf-8 -*- import scrapy from TuBaEx.item…
  python连续爬取多个网页的图片分别保存到不同的文件夹 作者:vpoet mail:vpoet_sir@163.com #coding:utf-8 import urllib import urllib2 import re # 将正则表达式编译成Pattern对象 rex=r'src="(http://imgsrc.baidu.com/forum/w%3D580.*?\.jpg)"'; pages = ('); for page in pages: pageurl = &quo…
用到的主要知识点:requests.get 获取网页HTMLetree.HTML 使用lxml解析器解析网页xpath 使用xpath获取网页标签信息.图片地址request.urlretrieve 下载图片(注:该网站使用urlretrieve下载图片时,返回403错误.原因目前未知!) 改用 with as 下载图片:with open('文件地址及名字', 'wb') as f: f.write(res.content) 详细代码如下: #!/user/bin env python # a…
原文链接 前言 这篇笔记基于上上篇笔记的---<scrapy电影天堂实战(二)创建爬虫项目>,而这篇又涉及redis,所以又先熟悉了下redis,记录了下<redis基础笔记>,这篇为了节省篇幅所以只添加改动部分代码. 个人实现思路 过滤重复数据 在pipeline写个redispipeline,要爬的内容hash后的键movie_hash通过pipeline时与从redis获取的movie_hash(set类型)比对,如果在redis里面则在pipeline里raise Drop…