python爬虫学习01--电子书爬取

1.获取网页信息

import requests        #导入requests库
'''
获取网页信息
'''
if __name__ == '__main__': #主函数入口
target = 'https://www.xsbiquge.com/78_78513/108078.html'#要爬取的目标地址
req = requests.get(url=target) #进行get请求
req.encoding='utf-8' #设置编码
print(req.text) #打印输出

2.引入BeautifulSoup对网页内容进行解析

import requests        #导入requests库
from bs4 import BeautifulSoup #引入BeautifulSoup库 '''
引入BeautifulSoup对网页内容进行解析
获取网页电子书文本信息
'''
if __name__ == '__main__': #主函数入口
target = 'https://www.xsbiquge.com/78_78513/108078.html'#要爬取的目标地址
req = requests.get(url=target) #发起请求,获取html信息
req.encoding='utf-8' #设置编码
html = req.text #将网页的html信息保存在html变量中
bs = BeautifulSoup(html,'lxml') #使用lxml对网页信息进行解析
texts = bs.find('div',id='content') #获取所有<div id = "content">的内容
print(texts) #打印输出

3.切分数据,去掉空格,提取文字

import requests        #导入requests库
from bs4 import BeautifulSoup #引入BeautifulSoup库 '''
引入BeautifulSoup对网页内容进行解析
获取网页电子书文本信息
最后一句texts.text 是提取所有文字,然后再使用 strip 方法去掉回车,
最后使用 split 方法根据 \xa0 切分数据,因为每一段的开头,都有四个空格
'''
if __name__ == '__main__': #主函数入口
target = 'https://www.xsbiquge.com/78_78513/108078.html'#要爬取的目标地址
req = requests.get(url=target) #发起请求,获取html信息
req.encoding='utf-8' #设置编码
html = req.text #将网页的html信息保存在html变量中
bs = BeautifulSoup(html,'lxml') #使用lxml对网页信息进行解析
texts = bs.find('div',id='content') #获取所有<div id = "content">的内容
print(texts.text.strip().split('\xa0'*4)) #打印输出

4.查看章节列表

import requests        #导入requests库
from bs4 import BeautifulSoup #引入BeautifulSoup库 '''
查看章节列表信息
引入BeautifulSoup对网页内容进行解析
获取网页电子书文本信息 '''
if __name__ == '__main__': #主函数入口
target = 'https://www.xsbiquge.com/78_78513/'#要爬取的目标地址,《元尊》的章节目录网址
req = requests.get(url=target) #发起请求,获取html信息
req.encoding='utf-8' #设置编码
html = req.text #将网页的html信息保存在html变量中
bs = BeautifulSoup(html,'lxml') #使用lxml对网页信息进行解析
chapters = bs.find('div',id='list') #获取所有<div id = "list">的内容
chapters = chapters.find_all('a') #找到list中的a标签中的内容
for chapter in chapters:
print(chapter) #打印章节列表

5.获取章节目录和章节链接

import requests        #导入requests库
from bs4 import BeautifulSoup #引入BeautifulSoup库 '''
查看章节列表信息
引入BeautifulSoup对网页内容进行解析
获取网页电子书文本信息 '''
if __name__ == '__main__': #主函数入口
server = 'https://www.xsbiquge.com'
target = 'https://www.xsbiquge.com/78_78513/'#要爬取的目标地址,《元尊》的章节目录网址
req = requests.get(url=target) #发起请求,获取html信息
req.encoding='utf-8' #设置编码
html = req.text #将网页的html信息保存在html变量中
bs = BeautifulSoup(html,'lxml') #使用lxml对网页信息进行解析
chapters = bs.find('div',id='list') #获取所有<div id = "list">的内容
chapters = chapters.find_all('a') #找到list中的a标签中的内容
for chapter in chapters:
url = chapter.get('href') #获取章节链接中的href
print("《"+chapter.string+"》") #打印章节名字
print(server+url) #将电子书网站与获取到的章节连接进行拼接,得到每一个章节的链接

6.整合数据,下载电子书文档

import requests        #导入requests库
from bs4 import BeautifulSoup #引入BeautifulSoup库
import time
from tqdm import tqdm '''
查看章节列表信息
引入BeautifulSoup对网页内容进行解析
获取网页电子书文本信息 '''
def get_content(target):
req = requests.get(url=target) # 发起请求,获取html信息
req.encoding = 'utf-8' # 设置编码
html = req.text # 将网页的html信息保存在html变量中
bf = BeautifulSoup(html, 'lxml') # 使用lxml对网页信息进行解析
texts = bf.find('div', id='content') # 获取所有<div id = "content">的内容
content = texts.text.strip().split('\xa0' * 4)
return content if __name__ == '__main__': #主函数入口
server = 'https://www.xsbiquge.com' #电子书网站地址
book_name = '《元尊》.txt'
target = 'https://www.xsbiquge.com/78_78513/'#要爬取的目标地址,《元尊》的章节目录网址
req = requests.get(url=target) #发起请求,获取html信息
req.encoding='utf-8' #设置编码
html = req.text #将网页的html信息保存在html变量中
chapter_bs = BeautifulSoup(html,'lxml') #使用lxml对网页信息进行解析
chapters = chapter_bs.find('div',id='list') #获取所有<div id = "list">的内容
chapters = chapters.find_all('a') #找到list中的a标签中的内容
for chapter in tqdm(chapters):
chapter_name = chapter.string #章节名字
url = server + chapter.get('href') #获取章节链接中的href
content = get_content(url)
with open(book_name,'a',encoding='utf-8') as f:
f.write("《"+chapter_name+"》")
f.write('\n')
f.write('\n'.join(content))
f.write('\n')

python爬虫学习01--电子书爬取的更多相关文章

  1. Python爬虫学习之正则表达式爬取个人博客

    实例需求:运用python语言爬取http://www.eastmountyxz.com/个人博客的基本信息,包括网页标题,网页所有图片的url,网页文章的url.标题以及摘要. 实例环境:pytho ...

  2. Python爬虫学习笔记之爬取新浪微博

    import requests from urllib.parse import urlencode from pyquery import PyQuery as pq from pymongo im ...

  3. python爬虫:了解JS加密爬取网易云音乐

    python爬虫:了解JS加密爬取网易云音乐 前言 大家好,我是"持之以恒_liu",之所以起这个名字,就是希望我自己无论做什么事,只要一开始选择了,那么就要坚持到底,不管结果如何 ...

  4. Python爬虫:为什么你爬取不到网页数据

    前言: 之前小编写了一篇关于爬虫为什么爬取不到数据文章(文章链接为:Python爬虫经常爬不到数据,或许你可以看一下小编的这篇文章), 但是当时小编也是胡乱编写的,其实里面有很多问题的,现在小编重新发 ...

  5. Python爬虫实战二之爬取百度贴吧帖子

    大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 前言 亲爱的们,教程比较旧了,百度贴吧页面可能改版,可能代码不 ...

  6. Python爬虫实战一之爬取糗事百科段子

    大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧.那么这次为大家带来,Python爬取糗事百科的小段子的例子. 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把 ...

  7. 转 Python爬虫实战二之爬取百度贴吧帖子

    静觅 » Python爬虫实战二之爬取百度贴吧帖子 大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 本篇目标 ...

  8. 转 Python爬虫实战一之爬取糗事百科段子

    静觅 » Python爬虫实战一之爬取糗事百科段子 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来. 友情提示 糗事百科在前一段时间进行了改版,导致 ...

  9. python爬虫26 | 把数据爬取下来之后就存储到你的MySQL数据库。

    小帅b说过 在这几篇中会着重说说将爬取下来的数据进行存储 上次我们说了一种 csv 的存储方式 这次主要来说说怎么将爬取下来的数据保存到 MySQL 数据库 接下来就是 学习python的正确姿势 真 ...

随机推荐

  1. S7-1200视频教程: S7-1200的功能与特点-跟我学 - 1/112

    S7-1200视频教程: S7-1200的功能与特点-跟我学 - 1/112 观看连接: http://www.elearning.siemens.com.cn/video/Course/201012 ...

  2. Win10下创建virtualenv Linux下创建

    虚拟环境 为什么要搭建虚拟环境 开发多个不同的项目 可能需要用到同一个包不同版本新版本会覆盖旧的 作用 虚拟环境 可以搭建独立的Python运行环境 使项目之间版本不受影响 Linux下如何搭建虚拟环 ...

  3. 前端笔记:div只显示两行内容,多出内容以...显示

    代码: text-overflow: -o-ellipsis-lastline;overflow: hidden;text-overflow: ellipsis;display: -webkit-bo ...

  4. 黎活明8天快速掌握android视频教程--18_在SQLite中使用事务

    1 所谓的事业就是一系列的操作 比如:执行转账操作:将personid=1的账户转账10元到personid=2的账号中 所以的一系列操作就是:personid=1的账户钱要减少10元 personi ...

  5. Data Science and Matrix Optimization-课程推荐

    课程介绍:Data science is a "concept to unify statistics, data analysis, machine learning and their ...

  6. LeetCode第29场双周赛题解

    第一题 用一个新数组newSalary保存去掉最低和最高工资的工资列表,然后遍历newSalary,计算总和,除以元素个数,就得到了平均值. class Solution { public: doub ...

  7. 新技术新框架不断涌现,目前学习web前端开发都要掌握什么?

    web前端开发由网页制作演变而来,随着web2.0的发展,网页不再只是承载单一的文字和图片,各种丰富媒体让网页的内容更加生动,网页上软件化的交互形式为用户提供了更好的使用体验,这些都是基于前端技术实现 ...

  8. Python3笔记017 - 4.2 列表

    第4章 序列的应用 python的数据类型分为:空类型.布尔类型.数字类型.字节类型.字符串类型.元组类型.列表类型.字典类型.集合类型 在python中序列是一块用于存放多个值的连续内存空间. py ...

  9. node实现文件属性批量修改(文件名)

    前言 书接上回,我们实现了批量修改文件的时间,但是却没有实现文件名称的批量修改,是因为我也说过,没有界面的话直接在命令行实现显得有点繁琐,所以我们就通过接口+界面的方式来实现我们这个小需求吧.所以,闲 ...

  10. 介绍web开发中实现会话跟踪的常用技术方法

    由于http是无状态的协议,这种特性严重阻碍了客户端与服务器进行动态交互,例如购物车程序,客户在购物车中添加了商品,服务器如何知道购物车已有的物品呢?为了支持客户端与服务器之间的交互,为了弥补http ...