引入

  大多数情况下的需求,我们都会指定去使用聚焦爬虫,也就是爬取页面中指定部分的数据值,而不是整个页面的数据。因此,在聚焦爬虫中使用数据解析。所以,我们的数据爬取的流程为:

  • 指定url
  • 基于requests模块发起请求
  • 获取响应中的数据
  • 数据解析
  • 进行持久化存储

数据解析:

  - 被应用在聚焦爬虫。

  - 解析的数据存储在标签之间或者标签对应的属性中

BeautifulSoup解析

环境安装

  需要将pip源设置为国内源,阿里源、豆瓣源、网易源等

- windows

  • (1)打开文件资源管理器(文件夹地址栏中)
  • (2)地址栏上面输入 %appdata%
  • (3)在这里面新建一个文件夹  pip
  • (4)在pip文件夹里面新建一个文件叫做  pip.ini ,内容写如下即可
  1. [global]
  2. timeout = 6000
  3. index-url = https://mirrors.aliyun.com/pypi/simple/
  4. trusted-host = mirrors.aliyun.com

 - linux

  • (1)cd ~
  • (2)mkdir ~/.pip
  • (3)vi ~/.pip/pip.conf
  • (4)编辑内容,和windows一模一样

- 需要安装:pip install bs4

bs4在使用时候需要一个第三方库,把这个库也安装一下

pip install lxml

- 环境安装:

pip install lxml

pip install bs4

解析原理

  • 实例化一个BeautifuSoup对象,然后将页面源码数据加载到该对象中;
  1. BeautifulSoup(fp,'lxml')
  2. BeautifulSoup(page_text,'lxml')
  • 调用该对象相关属性和方法进行标签定位和数据提取;

使用流程:

- 导包:from bs4 import BeautifulSoup

- 使用方式:可以将一个html文档,转化为BeautifulSoup对象,然后通过对象的方法或者属性去查找指定的节点内容

(1)转化本地文件:

- soup = BeautifulSoup(open('本地文件'), 'lxml')

(2)转化网络文件:

- soup = BeautifulSoup('字符串类型或者字节类型', 'lxml')

  (3)打印soup对象显示内容为html文件中的内容。打印的是加载到该对象的源码

  1. from bs4 import BeautifulSoup
  2.  
  3. fp = open('./test.html','r',encoding='utf-8')
  4. soup = BeautifulSoup(fp,'lxml')
  5. print(soup)

相关属性和方法:

(1)根据标签名查找

  soup.tagName:定位到第一次出现的标签,只能找到第一个符合要求的标签

  1. print(soup.div)

  1. print(soup.p)

(2)获取属性

- soup.a.attrs       获取a所有的属性和属性值,返回一个字典

- soup.a.attrs['href']      获取href属性

- soup.a['href']         也可简写为这种形式

  1. print(soup.a['href'])

3)获取内容直接将列表内容转换成字符串,是单数的。不需要join了

- soup.a.string

- soup.a.text

- soup.a.get_text()

【注意】如果标签还有标签,那么string获取到的结果为None,而其它两个,可以获取文本内容  

  1. string: # 直系
  2. text,get_text(): # 所有
  1. print(soup.p.string)

  1. print(soup.p.text)

  1. print(soup.p.get_text)

(4)find:找到第一个符合要求的标签,加第二个参数是属性定位,如果是class属性需要加一个下划线,否则会被认成关键字。其他的不需要。

soup.find('tagName',attrName="attrValue"):属性定位。返回值是单数

- soup.find('a')  找到第一个符合要求的

- soup.find('a', title="xxx")

- soup.find('a', alt="xxx")

- soup.find('a', class_="xxx")

- soup.find('a', id="xxx")

  1. print(soup.find('div',class_='song'))

(5)find_all:找到所有符合要求的标签

- soup.find_all('a')

- soup.find_all(['a','b'])       找到所有的a和b标签

- soup.find_all('a', limit=2)     限制前两个

(6)根据选择器选择指定的内容。select选择器返回永远是列表,需要通过下标提取指定的对象  

  常见的选择器:标签选择器(a)、类选择器(.)、id选择器(#)、层级选择器

  1. soup.select('#feng')
  2. print(soup.select('.song'))

层级选择器:>表示一个层级,空格表示多个层级

层级选择器是不可以用索引的,而最后返回的列表的基础上是可以用索引的

  1. print(soup.select('.tang li > a')[1])

  1. print(soup.select('.song > a'))

案例

案例1:使用bs4实现将诗词名句网站中三国演义小说的每一章的内容爬去到本地磁盘进行存储 

 http://www.shicimingju.com/book/sanguoyanyi.html 

  1. import requests
  2. from bs4 import BeautifulSoup
  3.  
  4. headers={
  5. 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',
  6. }
  7.  
  8. def parse_content(url):
  9. #获取标题正文页数据
  10. page_text = requests.get(url,headers=headers).text
  11. soup = BeautifulSoup(page_text,'lxml')
  12.  
  13. #解析获得标签
  14. ele = soup.find('div',class_='chapter_content')
  15. content = ele.text #获取标签中的数据值
  16. return content
  17.  
  18. if __name__ == "__main__":
  19. url = 'http://www.shicimingju.com/book/sanguoyanyi.html'
  20. reponse = requests.get(url=url,headers=headers)
  21. page_text = reponse.text
  22.  
  23. soup = BeautifulSoup(page_text,'lxml') #创建soup对象
  24. a_eles = soup.select('.book-mulu > ul > li > a') #解析数据
  25. print(a_eles)
  26. cap = 1
  27. for ele in a_eles:
  28. print('开始下载第%d章节'%cap)
  29. cap+=1
  30. title = ele.string
  31. content_url = 'http://www.shicimingju.com'+ele['href']
  32. content = parse_content(content_url)
  33.  
  34. with open('./sanguo.txt','w') as fp:
  35. fp.write(title+":"+content+'\n\n\n\n\n')
  36. print('结束下载第%d章节'%cap)
  1. import requests
  2. from bs4 import BeautifulSoup
  3.  
  4. headers = {
  5. 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'
  6. }
  7. url = 'http://www.shicimingju.com/book/sanguoyanyi.html'
  8. page_text = requests.get(url=url,headers=headers).text
  9.  
  10. #数据解析:章节标题,章节内容
  11. soup = BeautifulSoup(page_text,'lxml')
  12. a_list = soup.select('.book-mulu > ul > li > a')
  13. fp = open('./sanguo.txt','w',encoding='utf-8')
  14. for a in a_list: #把a标签当soup对象使用,因为它也是源码
  15. title = a.string
  16. detail_url = 'http://www.shicimingju.com'+a['href']
  17. detail_page_text = requests.get(url=detail_url,headers=headers).text
  18. soup = BeautifulSoup(detail_page_text,'lxml')
  19. content = soup.find('div',class_="chapter_content").text # bs4中,把text提取出来的列表直接转换成字符串,与xpath不同
  20.  
  21. fp.write(title+':'+content+'\n')
  22. print(title,'保存成功!')
  23. fp.close()
  24. print('over!')

  1. a_list = soup.select('.book-mulu > ul > li > a')
  2. print(a_list) # 一个个a标签

  1. for a in a_list: #把a标签当soup对象使用,因为它也是源码
  2. title = a.string # 章节标题
  3. print(title)

  1. for a in a_list:
  2. title = a.string
  3. detail_url = 'http://www.shicimingju.com'+a['href'] # 章节url
  4. print(detail_url)

  1. for a in a_list: #把a标签当soup对象使用,因为它也是源码
  2. title = a.string
  3. detail_url = 'http://www.shicimingju.com'+a['href']
  4. detail_page_text = requests.get(url=detail_url,headers=headers).text
  5. soup = BeautifulSoup(detail_page_text,'lxml')
  6. content = soup.find('div',class_="chapter_content").text

最终生成文件

https://blog.csdn.net/qq_36381299/article/details/81000905

Python爬虫 | Beautifulsoup解析html页面的更多相关文章

  1. python爬虫数据解析之BeautifulSoup

    BeautifulSoup是一个可以从HTML或者XML文件中提取数据的python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式. BeautfulSoup是python爬虫三 ...

  2. python爬虫网页解析之lxml模块

    08.06自我总结 python爬虫网页解析之lxml模块 一.模块的安装 windows系统下的安装: 方法一:pip3 install lxml 方法二:下载对应系统版本的wheel文件:http ...

  3. python爬虫网页解析之parsel模块

    08.06自我总结 python爬虫网页解析之parsel模块 一.parsel模块安装 官网链接https://pypi.org/project/parsel/1.0.2/ pip install ...

  4. python爬虫--数据解析

    数据解析 什么是数据解析及作用 概念:就是将一组数据中的局部数据进行提取 作用:来实现聚焦爬虫 数据解析的通用原理 标签定位 取文本或者属性 正则解析 正则回顾 单字符: . : 除换行以外所有字符 ...

  5. python爬虫数据解析之正则表达式

    爬虫的一般分为四步,第二个步骤就是对爬取的数据进行解析. python爬虫一般使用三种解析方式,一正则表达式,二xpath,三BeautifulSoup. 这篇博客主要记录下正则表达式的使用. 正则表 ...

  6. Python爬虫之解析网页

    常用的类库为lxml, BeautifulSoup, re(正则) 以获取豆瓣电影正在热映的电影名为例,url='https://movie.douban.com/cinema/nowplaying/ ...

  7. python爬虫之下载京东页面图片

    import requests from bs4 import BeautifulSoup import time import re t = 0 #用于给图片命名 for i in range(10 ...

  8. Python爬虫【解析库之beautifulsoup】

    解析库的安装 pip3 install beautifulsoup4 初始化 BeautifulSoup(str,"解析库") from bs4 import BeautifulS ...

  9. Python爬虫html解析工具beautifulSoup在pycharm中安装及失败的解决办法

    1.安装步骤: 首先,你要先进入pycharm的Project Interpreter界面,进入方法是:setting(ctrl+alt+s) ->Project Interpreter,Pro ...

随机推荐

  1. Go 基本数据类型

    Go基础语法 package main import "fmt" func main(){ fmt.Println("Hello world") } 注意点: ...

  2. 词汇AFFRIKE非洲AFFRIKE英语

    affrike 英文单词,含义是非洲,非洲大陆. 中文名:非洲 外文名:affrike 目录 释义 affrike noun名词 非洲,也用做africa 1.Word Origin and Hist ...

  3. Windows 编译安装 nginx 服务器 + rtmp 模块

    有关博客: <Windows 编译安装 nginx 服务器 + rtmp 模块>.<Ubuntu 编译安装 nginx>.<Arm-Linux 移植 Nginx> ...

  4. 【开发工具】- Idea.2018.02注册码激活

    1.从下面地址下载一个jar包,名称是  JetbrainsCrack-3.1-release-enc.jar 下载地址: 链接: https://pan.baidu.com/s/1VZjklI3qh ...

  5. 仿EXCEL插件,智表ZCELL产品V1.7 版本发布,增加自定义右键菜单功能

    详细请移步 智表(ZCELL)官网www.zcell.net 更新说明  这次更新主要应用户要求,主要解决了自定义右键菜单事件的支持,并新增了公式中自定义函数传参.快捷键剪切等功能,欢迎大家体验使用. ...

  6. JavaWeb 之 三层架构:软件设计架构

    界面层(表示层):用户看的得界面.用户可以通过界面上的组件和服务器进行交互. 业务逻辑层:处理业务逻辑的. 数据访问层:操作数据存储文件.

  7. FFmpeg--如何同步音视频的解决方案

    如何同步视频 PTS和DTS 幸运的是,音频和视频流都有一些关于以多快速度和什么时间来播放它们的信息在里面.音频流有采样,视频流有每秒的帧率.然而,如果我们只是简单的通过数帧和乘以帧率的方式来同步视频 ...

  8. SpringBoot2.x服务器端主动推送技术

    一.服务端推送常用技术介绍 服务端主流推送技术:websocket.SSE等 1.客户端轮询:ajax定时拉取后台数据 js   setInterval定时函数  +  ajax异步加载  定时向服务 ...

  9. ElasticSearch(十二):Spring Data ElasticSearch 的使用(二)

    在前一篇博文中,创建了Spring Data Elasticsearch工程,并且进行了简单的测试,此处对Spring Data Elasticsearch进行增删改查的操作. 1.增加 在之前工程的 ...

  10. FreeBSD安装后使用su命令显示sorry的解决办法

    FreeBSD中,可以使用su命令成为root用户,但FreeBSD对执行su命令的用户进行了更严格的限制,能使用su命令的用户必须属于wheel组(root的基本属组,组ID为0),否则就不能通过 ...