使用selenium进行自动化的时候,如csdn登录时可能会遇到检测反爬,从而需要验证

      1. 反爬
  有时候,我们利用 Selenium 自动化爬取某些网站时,极有可能会遭遇反爬。
  实际上,我们使用默认的方式初始化 WebDriver 打开一个网站,下面这段 JS 代码永远为 true,而手动打开目标网站的话,则为:undefined。
      # 通过这段 JS 脚本区分是爬虫还是人工操作
  window.navigator.webdriver
     

稍微有一点反爬经验的工程师利用上面的差别,很容易判断访问对象是否为一个爬虫,然后对其做反爬处理,返回一堆脏数据或各种验证码。

       如果要实现后面的自动化操作,首先要解决的就是这个反爬的问题。
  常见的反反爬方案包含:设置参数?excludeSwitches、mitmproxy 拦截过滤、cdp 命令,下面分别来说说。
  
      2.设置参数 excludeSwitches
  Chrome79 之前可以通过配置 ChromeOptions 驱动参数,来达到反反爬的目的。
  只需要将参数打开,设置 excludeSwitches 值为 enable-automation 即可。

   from selenium.webdriver import Chrome
  from selenium.webdriver import ChromeOptions
  option = ChromeOptions()
  # 打开参数
  option.add_experimental_option('excludeSwitches',?['enable-automation'])
  driver = Chrome(options=option)
  driver.implicitly_wait(10)
  driver.get("http://www.google.com")
       这个参数是实验性参数,所以右上角会提示:请停用开发者模式运行的扩展程序,不能点击停用。
  这样,设置这个参数后:
  window.navigator.webdriver 的值就变成 undefined 了。
  
      3. mitproxy 拦截
  众所周知,mitproxy 可以拦截到网络请求,做其他处理,这里只需要进行 JS 代码注入即可。
 # 待执行的 JS 代码,修改 window.navigator.webdriver 的值
 js_exec = 'Object.defineProperties(navigator,{webdriver:{get:() => false}});'
 # 重写 response,截获网络请求,js注入
def response(slef,flow: mitmproxy.http.HTTPFlow):
   if 'google' in flow.request.url:
   flow.response.text = js_exec + flow.response.text
  然后启动 mitmdump:
# 启动mitmproxy
  mitmdump -p 8888 -s 111.py
  最后,配置 ChromeOptions 指向 mitmdump代码即可。
  # 配置ChromeOptions
  option.add_argument("--proxy-server=http://127.0.0.1:8888")
  4. cdp 命令(经验证可以)
  cdp 全称是:Chrome Devtools-Protocol
  通过 addScriptToEvaluateOnNewDocument()?方法可以在页面还未加载之前,运行一段脚本。
  如此,我们只需要提前设置:
  window.navigator.webdriver?的值为 undefined 即可。
  

   from selenium.webdriver import Chrome
  from selenium.webdriver import ChromeOptions
  option = ChromeOptions()
  # 打开参数
  # option.add_argument("--proxy-server=http://127.0.0.1:8888")
  # driver = Chrome(options=option)
  driver = Chrome()
  driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {
   "source": """
   Object.defineProperty(navigator, 'webdriver', {
   get: () => undefined
   })
   """
  })
  driver.implicitly_wait(10)
  driver.get("http://www.google.com")
  5. 其他
  通过上面的 3 种方法可以很好的解决 Selenium 自动化被反爬的问题。
      不过,一般自动化测试不会遇到反爬问题。

使用selemium被反爬解决方法的更多相关文章

  1. python反爬虫解决方法——模拟浏览器上网

    之前第一次练习爬虫的时候看网上的代码有些会设置headers,然后后面的东西我又看不懂,今天终于知道了原来这东西是用来模拟浏览器上网用的,因为有些网站会设置反爬虫机制,所以如果要获取内容的话,需要使用 ...

  2. Python | 常见的反爬及解决方法,值得收藏

    我们都知道Python用来爬数据,为了不让自家的数据被别人随意的爬走,你知道怎么反爬吗?今天播妞带着大家一起见识见识常见的反爬技术. 很多人学习python,不知道从何学起.很多人学习python,掌 ...

  3. Python3爬取起猫眼电影实时票房信息,解决文字反爬~~~附源代码

    上文解决了起点中文网部分数字反爬的信息,详细链接https://www.cnblogs.com/aby321/p/10214123.html 本文研究另一种文字反爬的机制——猫眼电影实时票房反爬 虽然 ...

  4. k 近邻算法解决字体反爬手段|效果非常好

    字体反爬,是一种利用 CSS 特性和浏览器渲染规则实现的反爬虫手段.其高明之处在于,就算借助(Selenium 套件.Puppeteer 和 Splash)等渲染工具也无法拿到真实的文字内容. 这种反 ...

  5. python干货:5种反扒机制的解决方法

    前言 反爬虫是网站为了维护自己的核心安全而采取的抑制爬虫的手段,反爬虫的手段有很多种,一般情况下除了百度等网站,反扒机制会常常更新以外.为了保持网站运行的高效,网站采取的反扒机制并不是太多,今天分享几 ...

  6. sharepoint2013用场管理员进行文档库的爬网提示"没有权限,拒绝"的解决方法

    爬网提示被拒绝,场管理员明明可以打开那个站点的,我初步怀疑是:环回请求(LoopbackRequest)导致的 解决方法就是修改环回问题.修改注册表 具体操作方法: http://www.c-shar ...

  7. java爬虫爬取的html内容中空格( )变为问号“?”的解决方法

    用java编写的爬虫,使用xpath爬取内容后,发现网页源码中的 全部显示为?(问号),但是使用字符串的replace("?", ""),并不能替换,网上找了一 ...

  8. Python爬虫实战——反爬机制的解决策略【阿里】

    这一次呢,让我们来试一下"CSDN热门文章的抓取". 话不多说,让我们直接进入CSND官网. (其实是因为我被阿里的反爬磨到没脾气,不想说话--) 一.URL分析 输入" ...

  9. Python3爬取起点中文网阅读量信息,解决文字反爬~~~附源代码

    起点中文网,在“数字”上设置了文字反爬,使用了自定义的文字文件ttf通过浏览器的“检查”显示的是“□”,但是可以在网页源代码中找到映射后的数字正则爬的是网页源代码,xpath是默认utf-8解析网页数 ...

  10. Scrapy———反爬蟲的一些基本應對方法

    1. IP地址驗證 背景:有些網站會使用IP地址驗證進行反爬蟲處理,檢查客戶端的IP地址,若同一個IP地址頻繁訪問,則會判斷該客戶端是爬蟲程序. 解決方案: 1. 讓Scrapy不斷隨機更換代理服務器 ...

随机推荐

  1. maridb数据库表及字段增删改

    mariadb数据类型 mariadb数据类型分为数字.日期.时间以及字符串值. 适用类型原则:够用就行,尽量使用范围小的,而不用大的 常用数据类型: 1.整数 int,bit   #例如 年纪 适用 ...

  2. ES6新增运算符 ?? || &&

    运算符(?? || &&) && 与运算符 &&左边表达式为真时执行右边表达式 let a = true let b = 0 a && ...

  3. varchar(1)占用几个字节

    在version4之前,MySQL中varchar长度是按字节:而version5之后,按字符.如varchar(6),在version4,表示占用6个字节,而在version5中,表示占用6个字符. ...

  4. host头攻击

    一.问题源起 HTTP1.1规范中在增加了HOST头信息,用于存储服务端与客户端的路由信息. 例如: Request的Header里就有一个标名请求,它是用来记录服务端网站域名的. 如果前端或者后台正 ...

  5. Redis设计实现-学习笔记

    最近在准备面试,问到redis相关知识,只能说个皮毛,说的既不深入也不全面,所以抓紧突击一下,先学<redis设计与实现>. 选择看书的原因是: 书中全面深入,且能出书一定十分用心: 搜博 ...

  6. Oracle数据库简单常用语句

    简单常用语句: 登录超级用户 sqlplus / as sysdba; 登录普通用户 connect username/password; 显示当前用户名 show user; 查询所有用户名 sel ...

  7. 【RTOS】《基于嵌入式实时操作系统的程序设计技术》——任务的划分与封装

    任务的划分与封装 关键任务的划分处理 对于某些对于系统的正常运作至关重要,少执行一次会对系统产生较大影响的功能,我们倾向于将它从原有任务中剥离出来,称为关键任务,用一个独立任务或者ISR(如外部中断) ...

  8. 一个分布式websocket的实现

    前情提要 之前我的项目里有一个合作编辑的功能,多个客户端的用户可以合作写一篇文章的不同部分,而且合作的任意作者互相还可以进行文字通讯.这种需求肯定是首选websocket了,因为服务器需要主动给客户端 ...

  9. bzoj 4176

    题意:求$\sum_{i=1}^{n}\sum_{j=1}^{n}d(ij)$ 首先推一发式子: $\sum_{i=1}^{n}\sum_{j=1}^{n}d(ij)$ 有一个结论:$d(nm)=\s ...

  10. 基于 Docker 安装 Nginx 搭建静态服务器

    最近一直在准备家里的服务器部署一个自己用的网站玩玩,一来是用来学习部署的基础知识,二来,后面有空学点前端,可以部署到自己网站玩玩. 参考链接:https://juejin.cn/post/705740 ...