目标:每一个小说保存成一个txt文件

思路:获取每个小说地址(图一),进入后获取每章节地址(图二),然后进入获取该章节内容(图三)保存文件中。循环

效果图:

每一行都有注释,不多解释了

import requests
from bs4 import BeautifulSoup
import os if __name__ == '__main__':
# 要下载的网页
url = 'https://www.biqubao.com/quanben/'
# 网站根网址
root_url = 'https://www.biqubao.com'
# 保存本地路径
path = 'F:\\python\\txt' # 解析网址
req = requests.get(url)
# 设置编码,浏览器查看网站编码:F12,控制开输入document.characterSet回车即可查看
req.encoding = 'gbk' # 获取网页所有内容
soup = BeautifulSoup(req.text, 'html.parser') # 查找网页中div的id为main的标签
list_tag = soup.div(id="main")
# 查看div内所有里标签
li = list_tag[0](['li'])
# 删除第一个没用的标签
del li[0]
# 循环遍历
for i in li:
# 获取到a标签间的内容---小说类型
txt_type = i.a.string
# 获取a标签的href地址值---小说网址
short_url = (i(['a'])[1].get('href'))
# 获取第三个span标签的值---作者
author = i(['span'])[3].string # 获取网页设置网页编码
req = requests.get(root_url + short_url)
req.encoding = 'gbk' # 解析网页
soup = BeautifulSoup(req.text, "html.parser")
list_tag = soup.div(id="list") # 获取小说名
name = list_tag[0].dl.dt.string print("类型:{} 短址:{} 作者:{} 小说名:{}".format(txt_type, short_url, author, name)) # 创建同名文件夹
# paths = path + '\\' + name
if not os.path.exists(path):
# 获取当前目录并组合新目录
# os.path.join(path, name)
os.mkdir(path) # 循环所有的dd标签
for dd_tag in list_tag[0].dl.find_all('dd'):
# 章节名
zjName = dd_tag.string
# 章节地址
zjUrl = root_url + dd_tag.a.get('href') # 访问网址爬取章节内容
req2 = requests.get(zjUrl)
req2.encoding = 'gbk' zj_soup = BeautifulSoup(req2.text, "html.parser")
content_tag = zj_soup.div.find(id="content") # 把空格内容替换成换行
text = str(content_tag.text.replace('\xa0', '\n'))
text.replace('\ufffd', '\n') # 写入文件操作'a'追加
with open(path + "\\" + name + ".txt", 'a') as f:
f.write('\n' + '\n' + zjName)
f.write(text)
print("{}------->写入完毕".format(zjName))

python 3 爬取某小说网站小说,注释详细的更多相关文章

  1. Python轻松爬取Rosimm写真网站全部图片

    RosimmImage 爬取Rosimm写真网站图片 有图有真相 def main_start(url): """ 爬虫入口,主要爬取操作 ""&qu ...

  2. Python爬虫爬取美剧网站

    一直有爱看美剧的习惯,一方面锻炼一下英语听力,一方面打发一下时间.之前是能在视频网站上面在线看的,可是自从广电总局的限制令之后,进口的美剧英剧等貌似就不在像以前一样同步更新了.但是,作为一个宅diao ...

  3. Python——Scrapy爬取链家网站所有房源信息

    用scrapy爬取链家全国以上房源分类的信息: 路径: items.py # -*- coding: utf-8 -*- # Define here the models for your scrap ...

  4. python爬虫爬取ip记录网站信息并存入数据库

    import requests import re import pymysql #10页 仔细观察路由 db = pymysql.connect("localhost",&quo ...

  5. Python爬虫爬取全书网小说,程序源码+程序详细分析

    Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...

  6. Jsoup-基于Java实现网络爬虫-爬取笔趣阁小说

    注意!仅供学习交流使用,请勿用在歪门邪道的地方!技术只是工具!关键在于用途! 今天接触了一款有意思的框架,作用是网络爬虫,他可以像操作JS一样对网页内容进行提取 初体验Jsoup <!-- Ma ...

  7. bs4爬取笔趣阁小说

    参考链接:https://www.cnblogs.com/wt714/p/11963497.html 模块:requests,bs4,queue,sys,time 步骤:给出URL--> 访问U ...

  8. Python 爬取所有51VOA网站的Learn a words文本及mp3音频

    Python 爬取所有51VOA网站的Learn a words文本及mp3音频 #!/usr/bin/env python # -*- coding: utf-8 -*- #Python 爬取所有5 ...

  9. Python开发爬虫之BeautifulSoup解析网页篇:爬取安居客网站上北京二手房数据

    目标:爬取安居客网站上前10页北京二手房的数据,包括二手房源的名称.价格.几室几厅.大小.建造年份.联系人.地址.标签等. 网址为:https://beijing.anjuke.com/sale/ B ...

  10. python爬虫学习之使用BeautifulSoup库爬取开奖网站信息-模块化

    实例需求:运用python语言爬取http://kaijiang.zhcw.com/zhcw/html/ssq/list_1.html这个开奖网站所有的信息,并且保存为txt文件和excel文件. 实 ...

随机推荐

  1. centos安装node环境

    一.安装wget yum install -y wget 二.下载node最新的安装包 wget https://nodejs.org/dist/v10.13.0/node-v10.13.0-linu ...

  2. Spring security oauth2 client_credentials认证 最简单示例代码

    基于spring-boot-2.0.0 1,在pom.xml中添加: <!-- security --> <!-- https://mvnrepository.com/artifac ...

  3. POJ - 3616 Milking Time (动态规划)

    Bessie is such a hard-working cow. In fact, she is so focused on maximizing her productivity that sh ...

  4. Vue(小案例_vue+axios仿手机app)_购物车

    一.前言 1.购物车 二.主要内容 1.效果演示如下,当我们选择商品数量改变的时候,也要让购物车里面的数据改变 2.具体实现 (1)小球从上面跳到下面的效果 (2)当点击上面的“加入购物车按钮”让小球 ...

  5. <二>企业级开源仓库nexus3实战应用–使用nexus3配置docker私有仓库

    1,安装nexus3. 这个地方略了,安装部署可以参考:nexus3安装配置. 2,配置走起. 1,创建blob存储. 登陆之后,先创建一个用于存储镜像的空间. 定义一个name,下边的内容会自动补全 ...

  6. 使用AForge.NET Framework打开摄像头并截图 C#

    videoDevices = new FilterInfoCollection(FilterCategory.VideoInputDevice); if (videoDevices.Count == ...

  7. 【.net】ASP.Net设置和取消设置web项目起始页

    #在visual studio中设置和取消web项目的起始页 方法一:在所要设置的页面上右键->设为起始页 方法二:web项目上右键->属性页 website项目: tips:如果取消要取 ...

  8. 《Java》第四周学习总结

    20175301 李锦然 一:本周学习内容 1:学习第五章视频 2:做实验 第五章主要讲的是子类与父类的关系,子类的继承与多态,final类super类等内容 仓库地址https://gitee.co ...

  9. windows7 java环境配置

    最近在工作碰到了在ie浏览器调用java程序时,出现了一些问题,所以在这里整理一下: jdk的下载地址为:http://666dx.pc6.com/wwb3/jdkx6417.zip 正对于windo ...

  10. https协议的简单理解

    本片文章梳理三个知识点: 1.对称加密和非对称加密的区别 2.https协议的请求流程 3.http协议和https协议的区别 一.对称加密和非对称加密 对称加密:加密和解密使用同一密钥. 非对称加密 ...