一.爬虫基础

1.1 requests类

  1.1.1 request的7个方法

requests.request() 实例化一个对象,拥有以下方法

requests.get(url, *args)

requests.head() 头信息

requests.post()

requests.put()

requests.patch() 修改一部分内容

requests.delete()

url = "http://quanben5.com/n/doupocangqiong/6.html"

headers = {
"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.81 Safari/537.36"
} r = requests.get(url, headers=headers) data = {
"pinyin": "doupocangqiong",
"content_id": "",
} r = requests.post(url, data=data, headers=headers)

  1.1.2*arg里面的参数

params 字典或者字节序列,作为参数增加到url中
data 字典字节序列文件对象, 放在url里面对应的地方
json 作为requests的内容
headers 字典 模拟服务头
cookies 字典 cookieJar
auth 元组
files 字典类型,传输文件
timeout 设定的超时时间
proxies 字典类型,设定访问代理服务器,可以增加登录认证 pxs={"http":"http://user:pass@10.10.1.1234"}
allow_redirects 默认True 是否允许重定向
stream 默认TRUE 获得数据立刻下载
verity 默认True 认证SSL证书开关
cert 本地SSL证书路径

1.2 BeautifulSoup类

soup = BeautifulSoup("","html.parser")
soup.prettify()
soup.find_all(name, attrs, recursive, string, **kwargs)
name: 标签名称
attrs: 属性
string: 检索字符串
soup.head
soup.head.contents 列表
soup.body.contents[1]
soup.body.children
soup.body.descendants
.parent
.parents
.next_sibling 下一个
.previous_sibling 上一个
.next_siblings 下一个所有 迭代
.previous_siblings 上一个所有

1.3 selenium

 from selenium import webdriver
from selenium.webdriver.chrome.options import Options
import time chrome_options = Options()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--disable-gpu') d = webdriver.Chrome(chrome_options=chrome_options) # 设置成不显示浏览器的模式
d.get('http://quanben5.com/n/dazhuzai/23241.html')
time.sleep(2)
print(d.page_source) # 显示出的是加载完之后的内容

查找单个和多个元素

d.find_element_by_id

d.find_elements_by_id

元素交互

from selenium import webdriver

d = webdriver.Chrome()
d.get('http://www.baidu.com')
inputText = d.find_element_by_id("kw")
inputText.send_keys("萝莉")
button = d.find_element_by_id("su")
button.click()

二.实战

首先要找到可以在线看小说的网页

这里我随便百度了一下,首先选择了一个全本5200小说网("https://www.qb5200.tw")

打开某小说章节目录表

https://www.qb5200.tw/xiaoshuo/0/357/

查看源代码

发现正文卷是在class为listmain的div下面的第二个dt标签里

之后的路径标签为a

     url_text = soup.find_all('div', 'listmain')[0]  # 找到第一个class=listmain的div标签
main_text = url_text.find_all('dt')[1] # 找到下面的第二个dt标签
for tag in main_text.next_siblings:
try:
url = ''.join(['https://', host, tag.a.attrs['href']])
print('parsering', url)
except:
continue

找到每个章节的url

在随便打开一章

查看源代码为:

 def getHTMLText(url, headers={}):
"""
获取网站源码
:param url:
:return: class response
"""
if headers != {}:
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.81 Safari/537.36"} # proxies = get_random_ip()
proxies = {}
try:
# print("start", url)
r = requests.get(url, proxies=proxies, headers=headers)
r.raise_for_status()
# r.encoding = r.apparent_encoding
# print('end', url)
return r
except:
return r.status_code def parseByQB5200(soup, host, f):
"""
在全本小说网的源码下爬取小说
:param soup, host:
:param f:
:return:
"""
url_text = soup.find_all('div', 'listmain')[0]
main_text = url_text.find_all('dt')[1]
x = 0
for tag in main_text.next_siblings:
time.sleep(1)
try:
url = ''.join(['https://', host, tag.a.attrs['href']])
print('parsering', url)
soup = BeautifulSoup(getHTMLText(url).text, "html.parser")
passage = soup.find_all("div", "content")[0]
title = passage.h1.string
f.writelines(''.join([title, '\n']))
passage = soup.find_all("div", "showtxt")[0]
for i in passage.descendants:
if i.name != "br":
st = i.string
if st.strip().startswith('http') or st.strip().startswith('请记住本书'):
continue
f.writelines(''.join([' ', st.strip(), '\n']))
x += 1
print('%d.%s 下载完成' % (x, title))
except:
continue def getNovelUrls(url):
"""
通过小说的目录网址判断小说所在的网站
并调用属于该网站的爬虫语句
:param url:
:return:
""" response = getHTMLText(url)
host = url.split('//')[1].split('/')[0]
host_list = {
"www.qb5200.tw": parseByQB5200,
# "www.qu.la": parseByQuLa,
"quanben5.com": parseByQB5
}
print(response)
soup = BeautifulSoup(response.text, 'html.parser')
with open('1.txt', 'w', encoding='utf8') as f:
host_list[host](soup, host, f) if __name__ == '__main__':
getNovelUrls("https://www.qb5200.tw/xiaoshuo/0/357/")

在全本5200爬取小说txt

问题在于

全本小说网("www.qb5200.tw")在这样的暴力获取下只允许爬3次,之后就403错误

本来以为是同一IP限制访问次数, 使用了IP代理之后发现问题依旧

猜测应该是跟请求头有关

因此加上了访问该网站时浏览器的所有请求头,并且把User-Agent设置为随机


USER_AGENT_LIST = [
'MSIE (MSIE 6.0; X11; Linux; i686) Opera 7.23',
'Opera/9.20 (Macintosh; Intel Mac OS X; U; en)',
'Opera/9.0 (Macintosh; PPC Mac OS X; U; en)',
'iTunes/9.0.3 (Macintosh; U; Intel Mac OS X 10_6_2; en-ca)',
'Mozilla/4.76 [en_jp] (X11; U; SunOS 5.8 sun4u)',
'iTunes/4.2 (Macintosh; U; PPC Mac OS X 10.2)',
'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:5.0) Gecko/20100101 Firefox/5.0',
'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:9.0) Gecko/20100101 Firefox/9.0',
'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.8; rv:16.0) Gecko/20120813 Firefox/16.0',
'Mozilla/4.77 [en] (X11; I; IRIX;64 6.5 IP30)',
'Mozilla/4.8 [en] (X11; U; SunOS; 5.7 sun4u)'
]
headers = {"User-Agent": random.choice(USER_AGENT_LIST),
"Host": "www.qb5200.tw",
"Connection": "keep-alive",
"Pragma": "no-cache",
"Cache-Control": "no-cache",
"Upgrade-Insecure-Requests": "",
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8",
"Referer": "https://www.qb5200.tw/xiaoshuo/0/355/",
"Accept-Encoding": "gzip, deflate, br",
"Accept-Language": "zh-CN,zh;q=0.9",
"Cookie": "UM_distinctid=16736c47b1d8b-04bd85d2b5e8ab-50422618-144000-16736c47b1e1f2; bcolor=; font=; size=; fontcolor=; width=; CNZZDATA1260750615=1497982366-1542811927-%7C1542882690; fikker-7ZUK-qXIL=qDaKEBihatSNEFgtMlGVIKubCHYLi89J; fikker-7ZUK-qXIL=qDaKEBihatSNEFgtMlGVIKubCHYLi89J; fikker-Sbwr-GN9F=GbMX3HOhwvoDMxopLMGt3VWliXQIK0SP; fikker-Sbwr-GN9F=GbMX3HOhwvoDMxopLMGt3VWliXQIK0SP; fikker-yJ3O-W61D=UfinETMnCR38ADWZEl1KNHQRU2m81Fwb; fikker-yJ3O-W61D=UfinETMnCR38ADWZEl1KNHQRU2m81Fwb; fikker-rWK3-6KHs=T9T5b7lYVJReTQviPm2IdLPyHu83RwFM; fikker-rWK3-6KHs=T9T5b7lYVJReTQviPm2IdLPyHu83RwFM" }

随机请求头

解决问题.

三.使用ajax动态加载的实例:

全本5小说网("quanben5.com")

同样的方法搜索源代码

然而发现了问题

给出的html页面只有一半的源码

因此按F12打开检查

发现所有的文本存在这个xhr里

点击查看请求头信息

发现是post请求

请求的url是/index.php?c=book&a=ajax_content

请求的数据在最下面的form表单里

打开网页源文件和js文件,搜索这些表单信息

分别在ajax.js里和源文件里找到了这些

源文件里面的可以直接生成data数据表单

在ajax.js里可以知道rndval字段是当前时间,精确到毫秒

四.优化

采用了gvent进行异步IO处理,每一张网页保存在temp里面,最后将文件合成一个txt

加入了搜索功能,目前仅支持一个小说网站

代码如下:

 #!/usr/bin/env python
# encoding: utf-8 """
@version:
@author: Wish Chen
@contact: 986859110@qq.com
@file: get_novels.py
@time: 2018/11/21 19:43 """
import gevent
from gevent import monkey
monkey.patch_all()
import requests, time, random, re, os
from bs4 import BeautifulSoup dir = os.path.dirname(os.path.abspath(__file__)) def getHTMLText(url, data=[], method='get'):
"""
获取网站的源代码
请求默认为get
:param url:
:param data:
:param method:
:return:
"""
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.81 Safari/537.36"}
proxies = {}
try:
# print("start", url)
r = requests.request(method, url, proxies=proxies, headers=headers, data=data)
r.raise_for_status()
# r.encoding = r.apparent_encoding
# print('end', url)
return r
except:
return r.status_code def fetch_async(x, url):
"""
异步IO所需要执行的操作
获取源文件
模拟向ajax请求获取完整文字
每一章输入到temp文件夹下
:param x:
:param url:
:return:
"""
url_main = "http://quanben5.com/index.php?c=book&a=ajax_content"
r = getHTMLText(url) # 获取每一章的源文件
title = re.search(r'<h1 class="title1">(.*)</h1>', r.text).group(1)
result = re.search(r'<script type="text/javascript">ajax_post\((.*)\)</script>', r.text).group(1)
num_list = result.split("','")
num_list[9] = num_list[9][:-1]
content = {} # 开始模拟post请求发送的表单
for i in range(1, 5):
content[num_list[i * 2]] = num_list[i * 2 + 1]
content['_type'] = "ajax"
content['rndval'] = int(time.time() * 1000)
r = getHTMLText(url_main, data=content, method='post') # 模拟post请求
soup = BeautifulSoup(r.text, "lxml")
with open(os.path.join(dir, 'temp', "%s.txt" % x), "w", encoding='utf8') as f:
f.writelines(''.join([str(x), '.', title, '\n\n']))
for tag in soup.body.children:
if tag.name == 'p':
f.writelines(''.join([' ', tag.string.strip(), '\n\n']))
print('%d.%s 下载完成' % (x, title)) def get_together(name, author, x):
"""
将temp目录下的各网页下载下来的txt
合并在一起
并删除temp文件
:param name:
:param author:
:return:
"""
with open(os.path.join(dir, "%s.txt" % name), "w", encoding='utf8') as f:
f.writelines(''.join([name, '\n\n作者:', author, '\n\n'])) for i in range(x):
try:
f.write(open(os.path.join(dir, 'temp', "%s.txt" % (i+1)), "r", encoding='utf8').read())
f.write('\n\n')
# os.remove(os.path.join(dir, 'temp', "%s.txt" % (i+1)))
except:
continue def parseByQB5(response, host):
"""
在全本5小说网的源码下爬取小说
获得书名和作者
采用gevent异步IO优化
:param response:
:param host:
:return:
"""
soup = BeautifulSoup(response.text, 'html.parser')
url_text = soup.find_all('div', 'box')[2]
main_text = url_text.find_all('h2')[0].next_sibling
url_list = []
for tag in main_text.descendants:
if tag.name == 'li':
url = ''.join(['http://', host, tag.a.attrs['href']])
url_list.append(url)
from gevent.pool import Pool
pool = Pool(100) gevent.joinall([pool.spawn(fetch_async, i+1, url=url_list[i]) for i in range(len(url_list))]) name = re.search(r"<h3><span>(.*)</span></h3>", response.text).group(1)
author = re.search(r'<span class="author">(.*)</span></p>', response.text).group(1)
print("%d文档已下载,正在合并..." % len(url_list))
get_together(name, author, len(url_list)) def getNovelUrls(url):
"""
通过小说的目录网址判断小说所在的网站
并调用属于该网站的爬虫语句
:param url:
:return:
""" response = getHTMLText(url)
host = url.split('//')[1].split('/')[0]
host_list = {
"quanben5.com": parseByQB5
}
host_list[host](response, host) def get_url():
input_name = input('>>')
r = getHTMLText("http://quanben5.com//index.php?c=book&a=search&keywords=%s" % input_name)
soup = BeautifulSoup(r.text, "html.parser")
main_book = soup.find_all("div", "pic_txt_list")
for i in range(len(main_book)):
tag = main_book[i].h3
print("%s.%s %s" %(i, tag.span.text, tag.next_sibling.next_sibling.text))
choice = int(input(">>"))
if choice in range(len(main_book)):
return ''.join(["http://quanben5.com", main_book[choice].h3.a["href"], "xiaoshuo.html"]) if __name__ == '__main__':
# url_list = [
# "https://www.qu.la/book/365/",
# "https://www.qb5200.tw/xiaoshuo/0/357/",
# "http://quanben5.com/n/doupocangqiong/xiaoshuo.html",
# "http://quanben5.com/n/dazhuzai/xiaoshuo.html",
# "http://quanben5.com/n/douluodalu/xiaoshuo.html",
# "http://quanben5.com/n/renxingderuodian/xiaoshuo.html"
# ]
# if not os.path.exists('temp'):
# os.mkdir('temp')
# getNovelUrls(url_list[5])
while True:
url = get_url()
time_start = time.time()
getNovelUrls(url)
print("成功爬取! 用时:%ds" % (int((time.time()-time_start)*100)/100))

异步IO+搜索

封装性还不够好

最好一个网站用一个类来封装

采用scrapy框架

正在设计中...

五.未解决问题:

代理IP问题:

目前只有免费的代理IP网

生成随机IP并使用代理IP访问

多网站定制

要观察各个网站的目录源代码结构以及文章源代码结构

每一个网站都可以用一个parse函数来解析其内容

python从爬虫基础到爬取网络小说实例的更多相关文章

  1. python爬虫-基础入门-爬取整个网站《3》

    python爬虫-基础入门-爬取整个网站<3> 描述: 前两章粗略的讲述了python2.python3爬取整个网站,这章节简单的记录一下python2.python3的区别 python ...

  2. python爬虫-基础入门-爬取整个网站《2》

    python爬虫-基础入门-爬取整个网站<2> 描述: 开场白已在<python爬虫-基础入门-爬取整个网站<1>>中描述过了,这里不在描述,只附上 python3 ...

  3. python爬虫-基础入门-爬取整个网站《1》

    python爬虫-基础入门-爬取整个网站<1> 描述: 使用环境:python2.7.15 ,开发工具:pycharm,现爬取一个网站页面(http://www.baidu.com)所有数 ...

  4. python3爬虫-使用requests爬取起点小说

    import requests from lxml import etree from urllib import parse import os, time def get_page_html(ur ...

  5. python爬虫基础应用----爬取校花网视频

    一.爬虫简单介绍 爬虫是什么? 爬虫是首先使用模拟浏览器访问网站获取数据,然后通过解析过滤获得有价值的信息,最后保存到到自己库中的程序. 爬虫程序包括哪些模块? python中的爬虫程序主要包括,re ...

  6. Python爬虫基础--分布式爬取贝壳网房屋信息(Client)

    1. client_code01 2. client_code02 3. 这个时候运行多个client就可以分布式进行数据爬取.

  7. python 爬取网络小说 清洗 并下载至txt文件

    什么是爬虫 网络爬虫,也叫网络蜘蛛(spider),是一种用来自动浏览万维网的网络机器人.其目的一般为编纂网络索引. 网络搜索引擎等站点通过爬虫软件更新自身的网站内容或其对其他网站的索引.网络爬虫可以 ...

  8. python简单爬虫 用beautifulsoup爬取百度百科词条

    目标:爬取“湖南大学”百科词条并处理数据 需要获取的数据: 源代码: <div class="basic-info cmn-clearfix"> <dl clas ...

  9. Python爬虫基础--分布式爬取贝壳网房屋信息(Server)

    1. server_code01 2. server_code02 3. server_code03

随机推荐

  1. day16-面向对象基础(三)

    今日摘要 今天主要整理一下这俩天学习的内容,面向对象也快学完了,深刻的认识到面向对象就是一个思想,怎么把思想理解了,其他也就不是什么事了 1.类的约束 2.类的类方法与静态方法 3.类的反射 4.类的 ...

  2. 监控elssticSearch健康状态

    [4ajr@elk1 scripts]$ curl 172.30.210.175:9200/_cat/health [4ajr@elk1 scripts]$ cat check_es_healthy. ...

  3. python3 random模块

    import random '''随机获取从0-1之间的小数'''print(random.random())print(format(random.random(), ".2f" ...

  4. yidiandian

    hzwer libreoj (需要拿新版的打开)

  5. kubernetes1.14.0部署

    2019/4/6/使用kubeadm安装部署kubernetes集群: 前提:1.各节点时间同步:2.各节点主机名称解析:dns OR hosts:3.各节点iptables及firewalld服务被 ...

  6. 程序员修神之路--🤠分布式高并发下Actor模型如此优秀🤠

    写在开始 一般来说有两种策略用来在并发线程中进行通信:共享数据和消息传递.使用共享数据方式的并发编程面临的最大的一个问题就是数据条件竞争.处理各种锁的问题是让人十分头痛的一件事. 传统多数流行的语言并 ...

  7. Vue slot插槽内容分发

    slot插槽使用 使用场景,一般父组件中又一大段模板内容需要运用到子组件上.或者更加复杂的,子组件需要运用到父组件大段模板内容,而子组件却不知道挂载的内容是什么.挂载点的内容是由父组件来决定的. Sl ...

  8. 利用JDBC工具类 模拟用户登录!

    一.建库 设置 id为主键并自增! 二.定义登录接口 package com.aaa.dao; public interface IDengDao { /* 1.定义一个登陆的接口,参数是name 和 ...

  9. Python——模块——随机模块

    1.引用模块 import random 2.随机整数 random.randint(a,b) 3.随机浮点数 random.uniform(a,b) 4.从列表中随机取元素 random.choic ...

  10. Python——socketserver编程(客户端/服务器)

    一.socketserver是标准库中的高级模块,它的目标是简化很多多样板代码,是创建网络客户端和服务器所必须的代码.(事件驱动) 二.模块类 BaseServer :包含核心服务器功能和mix-in ...