爬虫2 url管理器 url_manager.py】的更多相关文章

#coding:utf8 class UrlManager(object): def __init__(self): self.new_urls = set() self.old_urls = set() def add_new_url(self, url): if url is None: return if url not in self.new_urls and url not in self.old_urls: self.new_urls.add(url) def add_new_url…
本次python爬虫百步百科,里面详细分析了爬虫的步骤,对每一步代码都有详细的注释说明,可通过本案例掌握python爬虫的特点: 1.爬虫调度入口(crawler_main.py) # coding:utf-8from com.wenhy.crawler_baidu_baike import url_manager, html_downloader, html_parser, html_outputerprint "爬虫百度百科调度入口"# 创建爬虫类class SpiderMain(…
Python的爬虫框架主要可以分为以下五个部分: 爬虫调度器:用于各个模块之间的通信,可以理解为爬虫的入口与核心(main函数),爬虫的执行策略在此模块进行定义: URL管理器:负责URL的管理,包括带爬取和已爬取的URL.已经提供相应的接口函数(类似增删改查的函数) 网页下载器:负责通过URL将网页进行下载,主要是进行相应的伪装处理模拟浏览器访问.下载网页 网页解析器:负责网页信息的解析,这里是解析方式视具体需求来确定 信息采集器:负责将解析后的信息进行存储.显示等处理 代码示例是爬取CSDN…
URL管理器模块 一般是用来维护爬取的url和未爬取的url已经新添加的url的,如果队列中已经存在了当前爬取的url了就不需要再重复爬取了,另外防止造成一个死循环.举个例子 我爬www.baidu.com 其中我抓取的列表中有music.baidu.om,然后我再继续抓取该页面的所有链接,但是其中含有www.baidu.com,可以想象如果不做处理的话就成了一个死循环了,在百度首页和百度音乐页循环,所以有一个对列来维护URL是很重要的. 下面以python代码实现为例,使用的deque双向队列…
URL管理器:管理待抓取URL集合和已抓取URL集合 -- 防止重复抓取.防止循环抓取 URL需要支持哪些功能: 添加新URL到待爬取集合中.判断待添加URL是否在容器中,判断是否还有待爬取URL,获取待爬取URL,将URL从待爬取移动到已爬取. URL管理器的实现方式: 1.内存  python内存  待爬取URL集合:set()            已爬取URL集合:set() 2.关系数据库  mysql  urls(url,is_crawled) 3.缓存数据库  redis 待爬取U…
import urllib.request #python3中将urllib2拆分为了urllib.request.urllib.error.urllib.response等 import http.cookiejar url = "http://www.baidu.com" print("第一种方法") response1 = urllib.request.urlopen(url) print(response1.getcode()) #打印response1的状…
#coding:utf8 import urllib2 __author__ = 'wang' class HtmlDownloader(object): def download(self, url): if url is None: return None response = urllib2.urlopen(url) if response.getcode() != 200: return None return response.read()…
#coding:utf8 __author__ = 'wang' class HtmlOutputer(object): def __init__(self): self.datas = []; def collect_data(self, data): if data is None: return print data self.datas.append(data) def output_html(self): fout = open('output.html', 'w') fout.wri…
#coding:utf8 import urlparse from bs4 import BeautifulSoup import re __author__ = 'wang' class HtmlParser(object): def parse(self, page_url, html_cont): if page_url is None or html_cont is None: return soup = BeautifulSoup(html_cont, 'html.parser', f…
一.插入.更新和删除 调用一个模型类对象的save方法的时候就可以实现对模型类对应数据表的插入和更新. 调用一个模型类对象的delete方法的时候就可以实现对模型类对应数据表数据的删除. 二.自关联 自关联是一种特殊的一对多的关系. [案例]:显示广州市的上级地区和下级地区. 地区表:id, atitle, aParent_id; mysql终端中批量执行sql语句:source areas.sql; 第1步,添加地区模型类 app1/models.py [关系属性],代表当前地区的父级地区 c…