一。使用json

  正常的,如果需要将response结果序列化,需要将结果json.loads

  1. res1=json.loads(response.text)

  但是这样会很麻烦,request提供了json方法:

  1. res2=response.json() #直接获取json数据

  

二。SSL认证

  ssl就是http+SSL,也就是https。需要带上证书才能访问特定的网站。

  证书需要浏览器下载。

  1. #SSL
  2. # https=http+ssl
  3. import requests
  4. respone=requests.get('https://www.12306.cn',
  5. cert=('/path/server.crt',
  6. '/path/key'))
  7. print(respone.status_code)

三。使用代理

  在get请求中proxies关键字就是存放代理网址,:(西刺)

  通过META.get('REMOVE_ADDR')

  1. import reques1ts
  2. proxies={
  3. 'http':'http://egon:123@localhost:9743',#带用户名密码的代理,@符号前是用户名与密码
  4. 'http':'http://localhost:9743',
  5. 'https':'https://localhost:9743',
  6. 'http':'http://124.205.155.148:9090'
  7. }
  8. respone=requests.get('https://www.12306.cn',
  9. proxies=proxies)
  10.  
  11. print(respone.status_code)

四。超时设置

  

  1. import requests
  2. respone=requests.get('https://www.baidu.com',
  3. timeout=0.0001)

五。 上传文件。

  1. import requests
  2. files={'file':open('a.jpg','rb')}
  3. respone=requests.post('http://httpbin.org/post',files=files)
  4. print(respone.status_code)

  另外有检测服务器压力的工具

  jmter 压力测试工具

六。使用bs4

  使用插件bs4,可以快速匹配页面中的元素。

  首先需要下载bs4和lxml

  1. pip install lxml
  2.  
  3. pip install html5lib
  4.  
  5. pip install beautifulsoup

  使用时首先需要将数据爬取,并生成Beautiful对象

  1. import requests
  2. from bs4 import BeautifulSoup
  3. url='https://www.autohome.com.cn/news/1/#liststart'
  4. res=requests.get(url)
  5. soup=BeautifulSoup(res.text,'lxml')

  再者使用基本用法find,获取一个对象,其中的筛选条件是系与id,name等例子:

  1. div=soup.find(id='auto-channel-lazyload-article')
  2. ul=div.find(name='ul')
  3. li_list=ul.find_all(name='li')
  4. # print(len(li_list))
  5. for li in li_list:
  6. h3=li.find(name='h3')
  7. if h3:
  8. title=h3.text #把h3标签的text取出来
  9. print(title)
  10. a=li.find(name='a')
  11. if a:
  12. article_url=a.get('href') #取出a标签的href属性
  13. print(article_url)
  14.  
  15. img=li.find(name='img')
  16. if img:
  17. img_url=img.get('src')
  18. print(img_url)
  19. p=li.find(name='p')
  20. if p:
  21. content=p.text
  22. print(content)

  findall则是将所有元素都找到。

  总结:

  find:

  -name="标签名" 标签

  -id,class_,="" 把这个标签拿出来

  -标签.text 取标签的内容

  -标签.get(属性名) 取标签属性的内容

  find_all

其他用法:

  1. from bs4 import BeautifulSoup
  2. html_doc = """
  3. <html><head><title>The Dormouse's story</title></head>
  4. <body>
  5.  
  6. <p class="title" id="bbaa"><b name="xx" age="18">The Dormouse's story</b><b>xxxx</b></p>
  7. <p class="xxx" a="xxx">asdfasdf</p>
  8.  
  9. <p class="story">Once upon a time there were three little sisters; and their names were
  10. <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>
  11. <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
  12. <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
  13. and they lived at the bottom of a well.</p>
  14.  
  15. <p class="story">...</p>
  16. """
  1. soup=BeautifulSoup(html_doc,'lxml')
    ress=soup.prettify() #美化一下
    soup=BeautifulSoup(ress,'lxml')

  通过该对象点标签可以直接对其进行操作:

  1. #遍历文档树
  2. # print(soup.p.name) # 获取该对象中的标签名字
  3. # print(soup.p.attrs) # 获取该对象中的属性集合
  4. # print(soup.p.string) # 获取标签中的字
  5. # print(list(soup.p.strings)) # 迭代器
  6. # print(soup.p.text) # 所有
  7. # print(soup.p.b)
  8. # print(soup.body.p.text) # 只识别文本呢
  9. # print(soup.body.p.contents) #生成期中的所有元素
  10. # print(list(soup.body.p.children)) # 迭代器生成期中的所有元素
  11. # print(list(soup.body.p.descendants)) # 迭代器输出所有孩子
  12. # print(soup.body.p.parent) # 输出p的父标签所有的元素
  13. # print(list(soup.body.p.parents)) # 取出所以有父节点
  14. # print(len(list(soup.body.p.parents)))
  15. # print(soup.body.p.previous_sibling) # 他的上一个兄弟
  16. # print(soup.body.p.previous_sibling)
  17. # print(soup.find(class_="xxx").previous_sibling)
  18. # print(soup.p.next_sibling) # 下一个兄弟
  19. # print(soup.a.previous_sibling)
  20. # print(type(soup.p))

  查找文档法:

  一共有五种过滤器:字符串,正则,布尔,方法,列表

  1.通过字符串过滤:

  1. # print(soup.find_all(name='b'))

  2.通过正则过滤

  1. # print(soup.find_all(name=re.compile('^b')))
  2. # print(soup.find_all(id=re.compile('^b')))

  3.通过列表与布尔值:

  1. # print(soup.find_all(name=['a','b']))
  2. # print(soup.find_all(name=True))

  4.通过方法:

  1. # def has_class_but_no_id(tag):
  2. # return tag.has_attr('class') and not tag.has_attr('id')
  3. # print(soup.find_all(name=has_class_but_no_id))

  css选择器法:

  1. # print(soup.select(".title"))
  2. # print(soup.select("#bbaa"))
    # print(soup.select('#bbaa b')[0].attrs.get('name'))
  1.  

  其他用法:

  1. #recursive=False 只找同一层
  2. #limit 找到第几个之后停止

七。通过测试软件自动点网站。

  1.安装selenium模块:

  1. pip install selenium

  2.安装插件到项目文件夹下或者puthon下的scripts中,需要核对版本信息。:
http://npm.taobao.org/mirrors/chromedriver/78.0.3904.105/

  使用:

  1. from selenium import webdriver
  2. bro=webdriver.Chrome()
  3. bro.get('https://www.baidu.com')
  4. time.sleep(3)
  5. bro.close()

  无窗口操作:

  1. from selenium import webdriver
  2. from selenium.webdriver.common.keys import Keys #键盘按键操作
  3. import time
  4.  
  5. from selenium.webdriver.chrome.options import Options
  6. chrome_options = Options()
  7. chrome_options.add_argument('window-size=1920x3000') #指定浏览器分辨率
  8. chrome_options.add_argument('--disable-gpu') #谷歌文档提到需要加上这个属性来规避bug
  9. chrome_options.add_argument('--hide-scrollbars') #隐藏滚动条, 应对一些特殊页面
  10. chrome_options.add_argument('blink-settings=imagesEnabled=false') #不加载图片, 提升速度
  11. chrome_options.add_argument('--headless') #浏览器不提供可视化页面. linux下如果系统不支持可视化不加这条会启动失败
  12. chrome_options.binary_location = r"C:\Program Files (x86)\Google\Chrome\Application\chrome.exe" #手动指定使
  13. bro=webdriver.PhantomJS()
  14.  
  15. bro=webdriver.Chrome(chrome_options=chrome_options)
  16. bro=webdriver.Chrome()
  17. bro.get('https://www.baidu.com')

  chrome支持无窗口操作。

  自动化控制窗口:

  1. bro=webdriver.Chrome()
  2. bro.get('https://www.baidu.com')
  3.  
  4. # print(bro.page_source)
  5. # time.sleep(3)
  6. time.sleep(1)
  7. #取到输入框
  8. inp=bro.find_element_by_id('kw')
  9. #往框里写字
  10. inp.send_keys("美女")
  11. inp.send_keys(Keys.ENTER) #输入回车
  12. #另一种方式,取出按钮,点击su
  13. time.sleep(3)
  14. bro.close()

day94_11_26爬虫find与findall的更多相关文章

  1. Python爬虫教程-19-数据提取-正则表达式(re)

    本篇主页内容:match的基本使用,search的基本使用,findall,finditer的基本使用,匹配中文,贪婪与非贪婪模式 Python爬虫教程-19-数据提取-正则表达式(re) 正则表达式 ...

  2. python爬虫--数据解析

    数据解析 什么是数据解析及作用 概念:就是将一组数据中的局部数据进行提取 作用:来实现聚焦爬虫 数据解析的通用原理 标签定位 取文本或者属性 正则解析 正则回顾 单字符: . : 除换行以外所有字符 ...

  3. python爬虫笔记之re.match匹配,与search、findall区别

    为什么re.match匹配不到?re.match匹配规则怎样?(捕一下seo) re.match(pattern, string[, flags]) pattern为匹配规则,即输入正则表达式. st ...

  4. 爬虫常用正则、re.findall 使用

    爬虫常用正则 爬虫经常用到的一些正则,这可以帮助我们更好地处理字符. 正则符 单字符 . : 除换行以外所有字符 [] :[aoe] [a-w] 匹配集合中任意一个字符 \d :数字 [0-9] \D ...

  5. 网络爬虫re模块的findall()函数

    findall()函数匹配所有符合规律的内容,并以列表的形式返回结果. a = '"<div>指数' \ '</div>"' word = re.finda ...

  6. python爬虫笔记之re.compile.findall()

    re.compile.findall原理是理解了,但输出不大理解(主要是加了正则表达式的括号分组) 一开始不懂括号的分组及捕捉,看了网上这个例子(如下),然而好像还是说不清楚这个括号的规律(还是说我没 ...

  7. python获取ip代理列表爬虫

    最近练习写爬虫,本来爬几张mm图做测试,可是爬到几十张的时候就会返回403错误,这是被网站服务器发现了,把我给屏蔽了. 因此需要使用代理IP.为了方便以后使用,我打算先写一个自动爬取ip代理的爬虫,正 ...

  8. 学习日记-从爬虫到接口到APP

    最近都在复习J2E,多学习一些东西肯定是好的,而且现在移动开发工作都不好找了,有工作就推荐一下小弟呗,广州佛山地区,谢谢了. 这篇博客要做的效果很简单,就是把我博客的第一页每个条目显示在APP上,条目 ...

  9. Python初学者之网络爬虫(二)

    声明:本文内容和涉及到的代码仅限于个人学习,任何人不得作为商业用途.转载请附上此文章地址 本篇文章Python初学者之网络爬虫的继续,最新代码已提交到https://github.com/octans ...

随机推荐

  1. 学习 C#,从 Hello world 开始吧

    目录 Hello world 创建.编辑.编译和运行 C# 源代码 使用 .NET Core 命令行接口 (CLI) 工具 使用 Visual Studio 创建项目 编译和执行 总结 C#(读作 & ...

  2. C# 使用 csc.exe 实现命令行生成

    概述 CSC是什么呢?CSC就是 C-Sharp Compiler (中文就是C#编译器),作用是把我们的 cs 源文件变异成dll 或者是exe ,    一般安装完VS 后,就会有这个文件: 这里 ...

  3. Hibernate 框架 -HQL 语法

    HQL ( Hibernate Query Language ) 查询语言是面向对象的查询语言,也是在 Hibernate 中最常见的.其语法和 SQL 语法有一些相似,功能十分强大,几乎支持除特殊 ...

  4. Linux创建Jenkins启动脚本以及开机启动服务

    1.jenkins.sh #!/bin/bash ###主要目的用于开机启动服务,不然 启动jenkins.war包没有java -jar的权限 JAVA_HOME=/usr/lib/jdk1.8.0 ...

  5. icon图标深入指南

    图标是网络上常用的元素. 它们是通用的,可以立即识别,可以非常吸引人,引起注意,并且(如果使用正确)可以提供出色的用户体验. 在网络上实现图标时,我们有很多选择: Icon Spritesheet – ...

  6. 3、netty第二个例子,使用netty建立客户端,与服务端通讯

    第一个例子中,建立了http的服务器端,可以直接使用curl命令,或者浏览器直接访问. 在第二个例子中,建立一个netty的客户端来主动发送请求,模拟浏览器发送请求. 这里先启动服务端,再启动客户端, ...

  7. AWS云EC2(RHEL7)添加网络接口与路由调整

    AWS云EC2(RHEL7)添加网络接口与路由调整 Amazon Linux(类似RHEL6,Centos6) 以及 RHEL7 修改MAC地址的说明 RHEL7 Centos7 添加路由 解决RHE ...

  8. unittest---unittest跳过用例

    我们在做自动化测试的时候,可能会遇到一些用例中间不用回归,想要进行跳过.直接注释的话,代码量修改过大,显然这个方法不妥,哪还有什么方法?unittest这个自动化框架可以帮助我们完成这个操作 自动跳过 ...

  9. 七、3Dslicer的坐标系

    一.参考博客 https://blog.csdn.net/Huadong_eddy/article/details/84988166

  10. idea 出现Can't load AMD 64-bit .dll on a IA 32-bit platform错误

    这个错误是在说无法在IA 32位平台上加载AMD 64位.dll,解决方法如下 下载安装64位的jdk(方法和安装32位的一致,可百度查阅相关资料) 按如下步骤配置