爬起点小说 day02】的更多相关文章

总的来说起点小说还是挺好爬的,就是爬取小说的时候太慢了,4000多本小说就爬了2天一夜 首先爬取的是网页的所有类别,并把类别名存入到mongodb中,链接存到redis中: import scrapy from bson.objectid import ObjectId from scrapy.http import Request from qidianNovel.spiders.connectionSQL import getredis,getMongodb # 把起点首页的所有列表 cla…
先介绍下我自己爬起点小说的思路: 1.爬取所有的类型列表 a.链接存redis中 类型表:novel_list 具体每一种类型:bnovel_all_list(把novel_list和bnovel_list合并为bnovel_list) b.名字存到mongodb中,构成树链表 表名: bnovel_all_list2.爬取小说的名字和链接(redis:all_novel_href (只需要novels 的id) mongodb:novels上一个id作为标签) 小说表:每次添加,去重(如果有就…
# 把所有类别的前3页的小说爬取下来 import scrapyfrom scrapy.http import Requestfrom time import sleepfrom qidianNovel.spiders.connectionSQL import getredis,getMongodb# 把起点首页的所有列表,起点是最后两页没有下一页(此处当做一页)class spider_list_novel(scrapy.Spider): name = "spider_list_novel&q…
本次实战项目适合,有一定Python语法知识的小白学员.本人也是根据一些网上的资料,自己摸索编写的内容.有不明白的童鞋,欢迎提问. 目的:爬取百度小说吧中的原创小说<猎奇师>部分小说内容 链接:http://tieba.baidu.com/p/4792877734 首先,自己定义一个类,方便使用.其实类就像一个"水果篮",这个"水果篮"里有很多的"水果",也就是我们类里面定义的变量啊,函数啊等等,各种各样的.每一种"水果&q…
转载出处:药少敏   ,感谢原作者清晰的讲解思路! 下述代码是我通过自己互联网搜索和拜读完此篇文章之后写出的具有同样效果的爬虫代码: from bs4 import BeautifulSoup import requests if __name__ == '__main__': html = requests.get('http://www.136book.com/huaqiangu/') soup = BeautifulSoup(html.content, 'lxml') #获取所有div s…
继上一篇爬取小说一念之间的第一章,这里将进一步展示如何爬取整篇小说 # -*- coding: utf- -*- import urllib.request import bs4 import re # 爬取源码 def getHtml(url): user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/53…
我们首先选定从笔趣看网站爬取这本小说. 然后开始分析网页构造,这些与以前的分析过程大同小异,就不再多叙述了,只需要找到几个关键的标签和user-agent基本上就可以了. 那么下面,我们直接来看代码. from urllib import request from bs4 import BeautifulSoup import re import sys if __name__ == "__main__": #创建txt文件 file = open('一念永恒.txt', 'w', e…
Scrapy爬取小说简单逻辑 一 准备工作 1)安装Python 2)安装PIP 3)安装scrapy 4)安装pywin32 5)安装VCForPython27.exe ........... 具体安装步骤,可参考http://www.cnblogs.com/zyj-python/p/7392476.html 二 爬虫逻辑 1.CMD终端创建爬虫项目 cd Desktop(返回桌面目录) #选择文件保存位置,我放在了桌面 Scrapy startProject BooksSpider #Boo…
本次是小阿鹏,第一次通过python爬虫去爬一个小说网站的小说. 下面直接上菜. 1.首先我需要导入相应的包,这里我采用了第三方模块的架包,requests.requests是python实现的简单易用的HTTP库,使用起来比urllib简洁很多,因为是第三方库,所以使用前需要cmd安装. cmd安装方式,打开cmd,输入以下命令: pip install requests 2.添加相应的包后,我们需要一个小说链接去爬下这本小说也就是一个url.下面是我当时爬的小说url:http://www.…
上次写博客还是两个月以前的事,今天闲来无事,决定把以前刚接触python爬虫时的一个想法付诸行动:就是从网站上爬取小说,这样可以省下好多流量(^_^). 因为只是闲暇之余写的,还望各位看官海涵:不足之处,不用客气///^_^....... 好了,上菜了‘(*>﹏<*)′ from bs4 import BeautifulSoup import urllib.request import re import os,time def getUrls(url): urls = [] #url = '…