bs4笔记
1、网页输出乱码的解决办法
r= requests.get('https://www.baidu.com/')
r.encoding = 'gbk2312' #有可能 gbk、utf-8
soup=BeautifulSoup(r.text,"html.parser")
来源:https://blog.csdn.net/w839687571/article/details/81414433
2、打开本地html的方法
import requests
from bs4 import BeautifulSoup
import io
path = '/Users/lucax/Desktop/素材/html/123.html'
htmlfile = io.open(path, 'r', encoding='utf-8')
htmlhandle = htmlfile.read()
soup = BeautifulSoup(htmlhandle, "html.parser")
print soup
2-1、自己输入文字再输出的方法
markup = "<b><!--Hey, buddy. Want to buy a used parser?--></b>"
soup = BeautifulSoup(markup)
comment = soup.b.string #输出里面的字符
soup.prettify() #套上html框架加入markup的文案输出
3、各种拿网页元素的方法
soup.title --获取网页title
soup.title.name --获取title标签的标签文案
soup.title.string --获取title标签里面的文案 string 和 text 用法的区别 https://www.cnblogs.com/kaibindirver/p/11374669.html
soup.strings --获取网页所有文案,每个文案分别放入到数组里,但只能使用for循环展示出来
soup.stripped_strings ---(接着strings取出的内容)可以把空格和换行符去掉
soup.p --获取网页的p标签
soup.a --获取网页的a标签
soup.find_all('a') --获取网页所有的a标签
soup.find(id='link3') --获取id=link3的标签
soup.find('a',id='link2') --获取 a 标签 且 id=link2 的标签
soup.get_text() --获取网页中所有文字内容
soup.text.encode('utf-8') --获取网页中所有文字内容 另外一种写法
soup.text --获取网页中所有文字内容 另外一种写法
4、标签内属性、值、标签名操作的方法
soup.p['class'] -获取标签里面的属性对应的值
soup.p.get('class') -获取标签里面的属性对应的值,另一种写法
soup.p.attrs --获取p标签所有的属性和值(字典形式输出)
soup.a.name='新的标签' --修改网页里面a标签的标签为'新的标签'
soup.p['class']='123' --修改属性的值
del soup.p['class'] --删除属性
5、替换文案的操作方法
soup.div.find('div',id="site_nav_top").replace_with("No longer bold") --替换整个标签的方法
soup.div.find('div',id="site_nav_top").string.replace_with("No longer bold") --替换标签内文案的方法
6、把tag内的子节点已列表形式输出 .contents 属性
head_tag = soup.head
head_tag
# <head><title>The Dormouse's story</title></head>
head_tag.contents
[<title>The Dormouse's story</title>]
title_tag = head_tag.contents[0]
title_tag
# <title>The Dormouse's story</title>
title_tag.contents
# [u'The Dormouse's story']
7.获取网页所有标签内文字
soup.strings
stripped_strings 过滤空格的方法
用法
for string in soup.strings:
print string
8、搜索有特定属性的标签的方法
9\获取tr标签内多个td标签,其中一个td标签里面em标签的写法
bs4笔记的更多相关文章
- Python爬虫常用模块,BeautifulSoup笔记
import urllib import urllib.request as request import re from bs4 import * #url = 'http://zh.house.q ...
- 商业爬虫学习笔记day7-------解析方法之bs4
一.Beautiful Soup 1.简介 Beautiful Soup 是python的一个库,最主要的功能是从网页抓取数据.其特点如下(这三个特点正是bs强大的原因,来自官方手册) a. Beau ...
- 机器学习实战笔记(Python实现)-08-线性回归
--------------------------------------------------------------------------------------- 本系列文章为<机器 ...
- 爬虫笔记(四)------关于BeautifulSoup4解析器与编码
前言:本机环境配置:ubuntu 14.10,python 2.7,BeautifulSoup4 一.解析器概述 如同前几章笔记,当我们输入: soup=BeautifulSoup(response. ...
- python3.4学习笔记(十七) 网络爬虫使用Beautifulsoup4抓取内容
python3.4学习笔记(十七) 网络爬虫使用Beautifulsoup4抓取内容 Beautiful Soup 是用Python写的一个HTML/XML的解析器,它可以很好的处理不规范标记并生成剖 ...
- 笔记之Python网络数据采集
笔记之Python网络数据采集 非原创即采集 一念清净, 烈焰成池, 一念觉醒, 方登彼岸 网络数据采集, 无非就是写一个自动化程序向网络服务器请求数据, 再对数据进行解析, 提取需要的信息 通常, ...
- python笔记之提取网页中的超链接
python笔记之提取网页中的超链接 对于提取网页中的超链接,先把网页内容读取出来,然后用beautifulsoup来解析是比较方便的.但是我发现一个问题,如果直接提取a标签的href,就会包含jav ...
- <Python Text Processing with NLTK 2.0 Cookbook>代码笔记
如下是<Python Text Processing with NLTK 2.0 Cookbook>一书部分章节的代码笔记. Tokenizing text into sentences ...
- python爬虫基础_requests和bs4
这些都是笔记,还缺少详细整理,后续会更新. 下面这种方式,属于入门阶段,手动成分比较多. 首先安装必要组件: pip3 install requests pip3 install beautifuls ...
随机推荐
- 6.Hbase 原理
2 HBase体系结构 2.1 设计思路 HBase是一个分布式的数据库,使用Zookeeper管理集群,使用HDFS作为底层存储.在架构层面上由HMaster(Zookeeper选举产生的Leade ...
- 用Python做一个飞机大战游戏
基于pygame的一款小游戏 这是我上半年做的一款小游戏,但是一直忘记了,现在才上传代码. github项目地址:StarMan 代码基于pygame,Python版本3.5.2运行正常. 游戏很简单 ...
- python 学习笔记_1 pip安装、卸载、更新包相关操作及数据类型学习
'''prepare_1 pip安装.卸载.更新组件type 各数据类型''' py -3 -m pip py -3 -m pip listpy -3 -m pip show nosepy -3 -m ...
- [转]Linux 桌面玩家指南:20. 把 Linux 系统装入 U 盘打包带走
原文:https://www.cnblogs.com/youxia/p/LinuxDesktop020.html ------------------------------------------- ...
- TFTP简单文件传送协议
T F T P ( Trivial File Transfer Protocol)即简单文件传送协议,最初打算用于引导无盘系统(通常是工作站或X终端).和将在介绍的使用T C P的文件传送协议(F T ...
- django.db.utils.OperationalError: (1050, "Table 'article_category' already exists")
(转自:https://blog.csdn.net/huanhuanq1209/article/details/77884014) 执行manage.py makemigrations 未提示错误信息 ...
- Miller-Rabin素性测试
有时候我们想快速的知道一个数是不是素数,而这个数又特别的大导致 $O(\sqrt n)$ 的算法也难以通过,这时候我们可以对其进行 Miller-Rabin 素数测试,可以很大概率测出其是否为素数. ...
- C# Contract诊断
命名空间 : using System.Diagnostics.Contracts; 属性标记 : [ContractOption(category: "runtime", set ...
- 解决每次执行Java等命令时都要重新source /etc/profile后才能执行,否则找不到命令
linux mint 我们通常将环境变量设置在/etc/profile这个文件中,这个文件是全局的. /etc/profile:在登录时,操作系 统定制用户环境时使用的第一个文件 ,此文件为系统的每个 ...
- js里url里有特殊字符(如&)情况,后台request.getParameter("url")里&变成&
js:encodeURIComponent(url) //用encodeURIComponent转码 java后台:用java.net.URLDecoder.decode((request.getPa ...

