爬虫的基本操作


爬虫基础知识

什么是爬虫?

  在最开始,还没有诞生Google和百度等一系列搜索引擎的公司的时候,人们进入一些公司的网站只能通过在浏览器地址栏输入网址的方式访问,如同在很早之前前手机不流行的时候,我们会把各个好友的电话号码抄写在一个电话本上一样将各个公司的网站记录在文档中,很不方便。

  当搜索引擎公司出现的时候,这些搜索引擎公司来做了一个大黄页,把所有网站的网址搜集起来,用户不用和各个公司打交道,而是直接和搜索引擎公司打交道,让搜索引擎帮助自己在它自己制作的大黄页中找出用户需要的内容返回给用户使用。简单点说,就是公司把信息交给搜索引擎公司,让搜索引擎公司在有用户需要本公司信息的时候提交给用户。

  搜索引擎公司搜集数据不光是公司或个人主动上传,主要还会通过网络爬虫爬去网上信息并且提取出关键字更网友搜索。

  整个网络可以理解为通过a标签链接起来的蜘蛛网,可以在网络中获取任何信息。

  爬虫的作用就是搜集网络信息为我所用。

爬虫的分类

  定向爬虫:只爬取某一个或某几个网站,根据自己的需要有专一目的性爬取。

  非定向爬虫:随机爬去整个网络的网站,见什么爬什么。

爬虫爬取大体步骤

 假设我们爬取“汽车之家”的相关数据:https://www.autohome.com.cn/news/

  

下载页面:

  请求网站:https://www.autohome.com.cn/news/  ,返回的为 HTML 页面字符串。

筛选信息:

  使用正则表达式筛选出我们需要的信息。(python非常牛逼的是有大神把正则表达式写好了,都在开源模块里边了。)

开源模块使用的简单案例

# __author : "王佳伟"
# date : 2019-01-16 import requests
from bs4 import BeautifulSoup # 1.request 模块
respone = requests.get("https://www.autohome.com.cn/news/")
respone.text # 2.BeautifulSoup 模块
soup = BeautifulSoup(respone.text, features='html.parser') # 把HTML文本转换为对象
target = soup.find(id='auto-channel-lazyload-article')
print(target)

爬取汽车之家数据案例

爬取汽车之家新闻列表的标题即链接

     

 # __author : "王佳伟"
# date : 2019-01-16 import requests
from bs4 import BeautifulSoup # 1.request 模块 # 下载目标网站的HTML源码
response = requests.get(
url="https://www.autohome.com.cn/news/"
)
# 编码查看网页头
# respone.encoding='gb2312'
# 拿到文本并转换为网页自己的编码
response.encoding = response.apparent_encoding
# print(response.text) # 2.BeautifulSoup 模块 # 把HTML文本转换为对象,features表示以什么引擎处理 html.parser / lxml
soup = BeautifulSoup(response.text, features='html.parser')
# 根据id属性找,找到对象中 id = auto-channel-lazyload-article 的标签
target = soup.find(id='auto-channel-lazyload-article')
# 打印输出
# print(target)
# 根据标签找 找到所有标签为li的所有标签
li_list = target.find_all('li')
# print(obj) # 循环列表
for i in li_list:
# 找到每个li标签中包含的a标签
# a = i.find('a')
# print(a)
a = i.find('a')
if a:
# print(a.attrs) # 找到a标签的所有属性
print(a.attrs.get('href')) # 找到a标签的href属性
txt = a.find('h3') # 获取a标签中的h3标签
print(txt)
# print(txt.text)

  

爬取下载汽车之家新闻列表的图片

  

 # __author : "王佳伟"
# date : 2019-01-16 import requests
from bs4 import BeautifulSoup # 1.request 模块 # 下载目标网站的HTML源码
response = requests.get(
url="https://www.autohome.com.cn/news/"
)
# 编码查看网页头
# respone.encoding='gb2312'
# 拿到文本并转换为网页自己的编码
response.encoding = response.apparent_encoding
# print(response.text) # 2.BeautifulSoup 模块 # 把HTML文本转换为对象,features表示以什么引擎处理 html.parser / lxml
soup = BeautifulSoup(response.text, features='html.parser')
# 根据id属性找,找到对象中 id = auto-channel-lazyload-article 的标签
target = soup.find(id='auto-channel-lazyload-article')
# 打印输出
# print(target)
# 根据标签找 找到所有标签为li的所有标签
li_list = target.find_all('li')
# print(obj) # 循环列表
for i in li_list:
# 找到每个li标签中包含的a标签
# a = i.find('a')
# print(a)
a = i.find('a')
if a:
# print(a.attrs) # 找到a标签的所有属性
# print(a.attrs.get('href')) # 找到a标签的href属性
txt = a.find('h3') # 获取a标签中的h3标签
# print(txt)
print(txt.text)
# 找a标签中的img标签的src属性
img_url = a.find('img').attrs.get('src')
print(img_url)
# 下载图片
img_response = requests.get(url='https:'+img_url)
# 设置文件名
import uuid
# 随机生成文件名
file_name = str(uuid.uuid4()) + '.jpg'
with open(file_name,'wb') as f:
f.write(img_response.content)

  

总结

requests 模块的使用

# 导包
import requests
# 爬取那个网站,填写URL地址
response = requests.get('URL')
# 获取对象的文本内容
response.text
# 获取图片/视频内容
response.content
# 设置编码
response.encoding
# 获取网站自己的编码类型
response.apparent_encoding
# 获取状态码
response.status_code

BeautifulSoup 模块的使用

# 导包
from bs4 import BeautifulSoup # 获取对象
soup = BeautifulSoup('<html>......</html>', features='html.paeser')
# 找到它孩子第一个符合条件的第一个div
v1 = soup.find('div')
# 找它孩子中第一个 id = d1 的标签
v1 = soup.find(id='d1')
# 找到它孩子第一个id=d1的div
v1 = soup.find('div', id='d1') # 用法同find,找所有,返回值为列表
v2 = soup.find_all('div')
v2 = soup.find_all(id='d1')
v2 = soup.find_all('div', id='d1') obj = v1
obj = v2[0] # 获取值
obj.text
# 获取属性
obj.attrs
# 获取属性值
obj.attrs.get('属性')

  

完成!

爬虫的基本操作 requests / BeautifulSoup 的使用的更多相关文章

  1. Python爬虫学习三------requests+BeautifulSoup爬取简单网页

    第一次第一次用MarkDown来写博客,先试试效果吧! 昨天2018俄罗斯世界杯拉开了大幕,作为一个伪球迷,当然也得为世界杯做出一点贡献啦. 于是今天就编写了一个爬虫程序将腾讯新闻下世界杯专题的相关新 ...

  2. 一个超实用的python爬虫功能使用 requests BeautifulSoup

    一个简单的数据爬取的示例 import os,re import requests import random import time from bs4 import BeautifulSoup us ...

  3. 【Python】在Pycharm中安装爬虫库requests , BeautifulSoup , lxml 的解决方法

    BeautifulSoup在学习Python过程中可能需要用到一些爬虫库 例如:requests BeautifulSoup和lxml库 前面的两个库,用Pychram都可以通过 File--> ...

  4. python 爬虫(一) requests+BeautifulSoup 爬取简单网页代码示例

    以前搞偷偷摸摸的事,不对,是搞爬虫都是用urllib,不过真的是很麻烦,下面就使用requests + BeautifulSoup 爬爬简单的网页. 详细介绍都在代码中注释了,大家可以参阅. # -* ...

  5. Python爬虫入门——使用requests爬取python岗位招聘数据

    爬虫目的 使用requests库和BeautifulSoup4库来爬取拉勾网Python相关岗位数据 爬虫工具 使用Requests库发送http请求,然后用BeautifulSoup库解析HTML文 ...

  6. 从0开始学爬虫8使用requests/pymysql和beautifulsoup4爬取维基百科词条链接并存入数据库

    从0开始学爬虫8使用requests和beautifulsoup4爬取维基百科词条链接并存入数据库 Python使用requests和beautifulsoup4爬取维基百科词条链接并存入数据库 参考 ...

  7. 利用requests, beautifulsoup包爬取股票信息网站

    这是第一次用requests, beautifulsoup实现爬虫,此次爬取的是一个股票信息网站:http://www.gupiaozhishi.net.cn. 实现非常简单,只是为了demo使用的数 ...

  8. 【python网络爬虫】之requests相关模块

    python网络爬虫的学习第一步 [python网络爬虫]之0 爬虫与反扒 [python网络爬虫]之一 简单介绍 [python网络爬虫]之二 python uillib库 [python网络爬虫] ...

  9. 猫眼电影爬取(二):requests+beautifulsoup,并将数据存储到mysql数据库

    上一篇通过requests+正则爬取了猫眼电影榜单,这次通过requests+beautifulsoup再爬取一次(其实这个网站更适合使用beautifulsoup库爬取) 1.先分析网页源码 可以看 ...

随机推荐

  1. MVC4 原版样式

  2. 查看Andorid应用是32位还是64位

    adb shell cat /proc/进程pid/maps 查看linker位数即可

  3. cocos2d-x 暂停/恢复 与场景相关(SceneGraph类型)的监听器

    开发过程中,我们经常会遇到这样的情况:想要让一个Layer中所有的Node对象的事件都停止响应. 在响应用户事件后,又要恢复该Layer的所有事件响应. 如: 用户想要显示一个模式对话框,显示对话框后 ...

  4. 笔记 : 将本地项目上传到GitHub

    一.准备工作 1. 注册github账号https://github.com, 安装git工具 https://git-for-windows.github.io/ 2. 创建SSH KEY(由于本地 ...

  5. executing in nfs will not generate core dump file

    最近遇到了一个奇怪的问题. linux系统的pc搭建nfs server,开发板作为nfs client,开发板中全程root权限操作,执行的程序放到 nfs server 中 exports 出的目 ...

  6. javascript(二):数据类型&数值

    第一部分:数据类型 javascript数据类型通常来说是6种(ES6新增第七种Symbol类型) number:数值 string:字符串 boolean:布尔类型,true或false undef ...

  7. Vue系列之 => 结合ajax完成列表增删查

    <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8&quo ...

  8. 如何用新安装的jdk替换掉Linux系统默认jdk

    版主写的非常棒: http://blog.csdn.net/u011364306/article/details/48375653

  9. numpy高级索引

    布尔值索引 name_arr = np.array(["bob","joe","will","bob","jo ...

  10. subwoofer

    外文名:subwoofer 中文名:重低音音箱 俗    称:低音炮 归    类:音乐器材别    称:重低音音箱 低音炮是大家的一个俗称或者简称,严格讲应该是:重低音音箱.重低音其实是电子音乐里, ...