1. 常见的反爬手段和解决思路
  2. 1)明确反反爬的主要思路
  3.   反反爬的主要思路就是尽可能的去模拟浏览器,浏览器在如何操作,代码中就如何去实现;浏览器先请求了地址url1,保留了cookie在本地,之后请求地址url2,
         带上了之前的cookie,代码中也可以这样去实现。很多时候,爬虫中携带的headers字段,cookie字段,url参数,post的参数很多,不清楚哪些有用,哪些没用的情况下,
         只能够去尝试,因为每个网站都是不相同的;当然在盲目尝试之前,可以参考别人的思路,我们自己也应该有一套尝试的流程。
  4.  
  5. 2)通过headers字段来反爬
  6. 1.通过headers中的User-Agent字段来反爬
  1. import random
  2.  
  3. def get_ua():
  4. first_num = random.randint(55, 62)
  5. third_num = random.randint(0, 3200)
  6. fourth_num = random.randint(0, 140)
  7. os_type = [
  8. '(Windows NT 6.1; WOW64)', '(Windows NT 10.0; WOW64)', '(X11; Linux x86_64)',
  9. '(Macintosh; Intel Mac OS X 10_12_6)'
  10. ]
  11.  
  12. chrome_version = 'Chrome/{}.0.{}.{}'.format(first_num, third_num, fourth_num)
  13. ua = ' '.join(['Mozilla/5.0', random.choice(os_type), 'AppleWebKit/537.36',
  14. '(KHTML, like Gecko)', chrome_version, 'Safari/537.36']
  15. )
  16. return ua
  1.  
  1.      2.通过referer字段或者是其他字段来反爬
  2.  
  3.      3.通过cookie来反爬
  4. 如果目标网站不需要登录,每次请求带上前一次返回的cookie,比如requests模块的session,
  5. 如果目标网站需要登录要准备多个账号,通过一个程序获取账号对应的cookie,组成cookie池,
  6. 其他程序使用这些cookie
  7.  
  8. 3)通过js来反爬
  9. 1.通过js实现跳转来反爬
  10. 在请求目标网站的时候,我们看到的似乎就请求了一个网站,然而实际上在成功请求目标网站之前,
  11. 中间可能有通过js实现的跳转,我们肉眼不可见,这个时候可以通过点击perserve
  12. log按钮实现观察页面跳转情况,在这些请求中,如果请求数量很多,一般来讲,
  13. 只有那些response中带cookie字段的请求是有用的,意味着通过这个请求,对方服务器有设置cookie到本地
  14.  
  15. 2.通过js生成了请求参数
  16. 对应的需要分析js,观察加密的实现过程
  17.  
  18. 4)通过验证码来反爬
  19. 通过打码平台或者是机器学习的方法识别验证码,其中打码平台廉价易用,更值得推荐,
  20. 常见的有云打码(数字和汉字)和极验科技(滑动和12306的那种)
  21.  
  22. 5)通过ip地址来反爬
  23. 同一个ip大量请求了对方服务器,有更大的可能性会被识别为爬虫,对应的通过购买高质量的ip的方式
  24. 能够结局问题
  25.  
  26. 6)其他的反爬方式
  27. 1.爬去猫眼电影电脑版
  28. 解决思路:切换到手机版
  29. 2.通过css来反爬
  30. 解决思路:计算css的偏移
  31.  
  32. selenium的使用
  33. 什么是selenium
  34. Selenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,Selenium
  35. 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS这些无界面的浏览器),可以接收指令,
  36. 让浏览器自动加载页面,获取需要的数据,甚至页面截屏
  37. Chromedriver的使用
  38. Chromedriver 也是一个能够被selenium驱动的浏览器,有无界面和有界面之分
           下载地址:https://npm.taobao.org/mirrors/chromedriver
  39. driver的安装
           注意事项:
            最简单的安装方式是:解压后把bin目录下的可执行文件移动到环境变量下, 比如/usr/bin 或者是/usr/local/bin下面
  40.  
  41.         注意:Chromedriver和电脑上的chrome版本有对应关系,建议使用最新的Chromedriver版本并且更新chrome浏览器到最新版
  1. selenium的入门使用
  2.  
  3. # 查看请求信息
  4. driver.page_source
  5. driver.get_cookies()
  6. driver.current_url
  7.  
  8. 基本案列使用
  1. from selenium import webdriver
  2. import time
  3.  
  4. # 选用Chrome浏览器,因为装驱动了
  5. driver = webdriver.Chrome()
  6. # 窗口最大化
  7. # driver.maximize_window()
  8. # 自己设置窗口的大小
  9.  
  10. # 获取百度界面
  11. driver.get("http://www.baidu.com")
  12.  
  13. # 在input标签中输入要搜索的内容
  14. # driver.find_element_by_id("kw").send_keys("百度贴吧")
  15. driver.find_element_by_name("wd").send_keys("传智播客")
  16. # 点击元素
  17. driver.find_element_by_id("su").click()
  18. # driver.find_element("su").click()
  19.  
  20. # 获取当前网页的源码
  21. # print(driver.page_source)
  22. # 获取当前的url
  23. print(driver.current_url)
  24. #获取cookie
  25. print(driver.get_cookies())
  26. cookies = driver.get_cookies()
  27. print({i["name"]:i["value"] for i in cookies})
  28.  
  29. time.sleep(4)
  30. # 对请求的网页进行截屏
  31. driver.save_screenshot("./baidu.png")
  32.  
  33. # 关闭浏览器
  34.  
  35. # 退出浏览器
  36. # driver.close()
  37. driver.quit()
  1.  
  1. import json
  2.  
  3. import time
  4. from selenium import webdriver
  5. from selenium.webdriver.chrome.options import Options
  6.  
  7. chrome_options = Options()
  8. chrome_options.add_argument('--headless')
  9. chrome_options.add_argument('--disable-gpu')
  10.  
  11. class Douyu(object):
  12. def __init__(self):
  13. self.start_url = "https://www.douyu.com/directory/all"
  14. # 有界面的显示
  15. # self.driver = webdriver.Chrome()
  16. # 无界面的显示
  17. self.driver = webdriver.Chrome(chrome_options=chrome_options) # 实例化dirver
  18. self.max_page = 3
  19.  
  20. def get_content_list(self):
  21. li_list = self.driver.find_elements_by_xpath('.//ul[@class="layout-Cover-list"]/li')
  22. content_list = []
  23. for li in li_list:
  24. items = {}
  25.  
  26. items["title"] = li.find_elements_by_xpath('.//h3[@class="DyListCover-intro"]')[0].get_attribute("title")
  27. # 人气
  28. items["Popularity"] = li.find_elements_by_xpath('.//span[@class="DyListCover-hot"]')[0].text
  29. items["anchor"] = li.find_elements_by_xpath('.//h2[@class="DyListCover-user"]')[0].text
  30. content_list.append(items)
  31. print(items)
  32.  
  33. # 点击下一页
  34. click_next_page = self.driver.find_elements_by_xpath('.//*[@id="listAll"]/section[2]/div[2]/div/ul/li[9]/span')[0] if len(self.driver.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/div/ul/li[9]/span')) > 0 else None
  35. # click_next_page = self.driver.find_elements_by_xpath('.//li[@class="dy-Pagination-next"]/span')[0] if len(self.driver.find_elements_by_xpath('//li[@class="dy-Pagination-next"]/span')) > 0 else None
  36. return content_list,click_next_page
  37.  
  38. def save_content(self,content_list):
  39. with open("html/斗鱼版.csv","a",encoding="utf-8") as file:
  40. file.write(json.dumps(content_list,ensure_ascii=False,indent=4))
  41. file.write("\n")
  42.  
  43. def run(self):
  44. # 构造url
  45. # 发起请求,获取响应(用selenium发起请求)
  46. self.driver.get(self.start_url)
  47. time.sleep(5)
  48. # 提取数据
  49. content_list,click_next_page = self.get_content_list()
  50. # 保存数据
  51. # print(click_next_page.text)
  52. self.save_content(content_list)
  53. page = 0
  54. while click_next_page is not None:
  55. click_next_page.click()
  56. print(click_next_page.text)
  57. time.sleep(5)
  58.  
  59. content_list, click_next_page = self.get_content_list()
  60. # 保存数据
  61. self.save_content(content_list)
  62.  
  63. page += 1
  64. if page >= self.max_page:
  65. break
  66.  
  67. self.driver.quit()
  68.  
  69. if __name__ == '__main__':
  70.  
  71. d = Douyu()
  72. d.run()
  1.  
  1. selenium的定位操作
  2. 知识点:
  3. 掌握定位元素的方法
  4. 掌握获取元素中数据的方法
  5.  
  6. 定位元素语法:
  7. find_element_by_id (返回一个元素)
  8. find_elements_by_xpath (返回一个包含元素的列表)
  9. find_elements_by_link_text (根据连接文本获取元素列表)
  10. find_elements_by_partial_link_text (根据连接包含的文本获取元素列表)
  11. find_elements_by_tag_name (根据标签名获取元素列表)
  12. find_elements_by_class_name (根据类名获取元素列表)
  13.  
  14. 获取数据语法
  15. find_element仅仅能够获取元素,不能顾直接获取其中的数据,find_element_by_xapth也是这样
  16. 获取文本: element.text
  17. 获取属性值: element.get_attribute("href")
  18.  
  19. selenium处理cookie
  20. get_cookies = """
  21. _uab_collina=155324237696950140608396; sid=seo_aladingb; JSESSIONID=""; __g=seo_aladingb; Hm_lvt_194df3105ad7148dcf2b98a91b5e727a=1553242378; Hm_lpvt_194df3105ad7148dcf2b98a91b5e727a=1553242409; __c=1553242409; __l=r=https%3A%2F%2Fwww.zhipin.com%2Fjob_detail%2Fd4b73faff32071dc1nB72di1ElM~.html%3Fsid%3Dseo_aladingb&l=%2Fwww.zhipin.com%2Fjob_detail%2F37fa8c6951ab28b41HJz3dy9FVM~.html%3Fka%3Djob_sug_7&g=%2Fwww.zhipin.com%2Fjob_detail%2Fd4b73faff32071dc1nB72di1ElM~.html%3Fsid%3Dseo_aladi; __a=69913048.1553242301.1553242301.1553242409.2.2.1.2
  22.  
  23. """
  24. # 把cookie转化为字典,使用字典推导式
  25. {cookie["name"]: cookie["value"] for cookie in driver.get_cookies()}
  26. # 删除一条cookie
  27. driver.delete_cookie("CookieName")
  28. # 删除所有的cookie
  29. driver.delete_all_cookies()
  30.  
  31. 一般需要页面等待
  32. 为什么需要等待
  33. 如果网站采用了动态html技术,那么页面上的部分元素出现时间便不能确定,这个时候
  34. 就可以设置一个等待时间,强制要求在时间内出现,否则报错页面等待的方法,time.sleep(10)
  35.  
  36. 使用selenium切换frame
  37. framehtml中常用的一种技术,即一个页面中嵌套了另一个网页,
  38. selenium默认是访问不了frame中的内容的,对应的解决思路是 driver.switch_to.frame()
  39.  
  40. 动手:模拟登陆qq邮箱
  41. 在使用selenium登录qq邮箱的过程中,我们会发现,无法在邮箱的登录input标签中输入内容,
  42. 通过观察源码可以发现,form表单在一个frame中,所以需要切换到frame
  43.  
  44. selenium的优缺点
  45. selenium能够执行页面上的js,对于js渲染的数据和模拟登陆处理起来非常容易
  46. selenium由于在获取页面的过程中会发送很多请求,所以效率非常低,所以在很多时候需要酌情使用
  47.  
  48. 打码平台的使用
  49. 常见的打码平台
  50. 云打码:http://www.yundama.com/
  51. 能够解决通用的验证码识别
  52. 极验验证码智能识别辅助:http://jiyandoc.c2567.com/
  53. 能够解决复杂验证码的识别
  54.  
  55. 常见的验证码的种类
  56. 1)url地址不变,验证码不变
  57. 这是验证码里面非常简单的一种类型,对应的只需要获取验证码的地址,然后请求,通过打码平台识别即可
  58. 2)url地址不变,验证码变化
  59. 这种验证码的类型是更加常见的一种类型,对于这种验证码,
  60. 码和最后提交的验证码是同一个验证码,那这个手段是什么手段呢?
  61. 很明显,就是通过cookie来实现的,所以对应的,在请求页面,请求验证码,提交验证码的到时候
  62. 需要保证cookie的一致性,对此可以使用requests.session来解决

Python爬虫代码正在处理中

Python爬虫二的更多相关文章

  1. Python 爬虫二 requests模块

    requests模块 Requests模块 get方法请求 整体演示一下: import requests response = requests.get("https://www.baid ...

  2. Python爬虫(二十一)_Selenium与PhantomJS

    本章将介绍使用Selenium和PhantomJS两种工具用来加载动态数据,更多内容请参考:Python学习指南 Selenium Selenium是一个Web的自动化测试工具,最初是为网站自动化测试 ...

  3. python爬虫(二)--了解deque

    队列-deque 有了上面一节的基础.当然你须要全然掌握上一节的全部方法,由于上一节的方法.在以下的教程中 会重复的用到. 假设你没有记住,请你返回上一节. http://blog.csdn.net/ ...

  4. python爬虫(二)_HTTP的请求和响应

    HTTP和HTTPS HTTP(HyperText Transfer Protocol,超文本传输协议):是一种发布和接收HTML页面的方法 HTTPS(HyperText Transfer Prot ...

  5. Python爬虫(二十四)_selenium案例:执行javascript脚本

    本章叫介绍如何使用selenium在浏览器中使用js脚本,更多内容请参考:Python学习指南 隐藏百度图片 #-*- coding:utf-8 -*- #本篇将模拟执行javascript语句 fr ...

  6. Python爬虫(二十三)_selenium案例:动态模拟页面点击

    本篇主要介绍使用selenium模拟点击下一页,更多内容请参考:Python学习指南 #-*- coding:utf-8 -*- import unittest from selenium impor ...

  7. Python爬虫(二十二)_selenium案例:模拟登陆豆瓣

    本篇博客主要用于介绍如何使用selenium+phantomJS模拟登陆豆瓣,没有考虑验证码的问题,更多内容,请参考:Python学习指南 #-*- coding:utf-8 -*- from sel ...

  8. Python爬虫(二十)_动态爬取影评信息

    本案例介绍从JavaScript中采集加载的数据.更多内容请参考:Python学习指南 #-*- coding:utf-8 -*- import requests import re import t ...

  9. Python 爬虫(二十五) Cookie的处理--cookielib库的使用

    Python中cookielib库(python3中为http.cookiejar)为存储和管理cookie提供客户端支持. 该模块主要功能是提供可存储cookie的对象.使用此模块捕获cookie并 ...

随机推荐

  1. 博弈论 && 题目

    终于我也开始学博弈了,说了几个月,现在才学.学多点套路,不深学.(~~) 参考刘汝佳蓝书p132 nim游戏: 假设是两维的取石子游戏,每次可以在任意一堆拿任意数量个(至少一根,因为这样游戏的状态集有 ...

  2. SSRS-lookupSet-DataSet-分组查询

    SSRS-lookupSet-DataSet-分组查询 来源:http://www.cnblogs.com/biwork/p/3621885.html 目录:http://www.cnblogs.co ...

  3. CentOS 6.2安装配置LAMP服务器(Apache+PHP5+MySQL)

    准备篇:   1.配置防火墙,开启80端口.3306端口    vi /etc/sysconfig/iptables    -A INPUT -m state --state NEW -m tcp - ...

  4. IOC的使用

    1.概要: 在spring中,都是使用反射机制创建对象,将创建对象的权利交给spring容器,就是控制反转(ioc) 对象创建方式 有参构造 无参构造 工厂模式(静态,非静态) 2.创建IDEA控制台 ...

  5. 多线程----Thread类,Runnable接口,线程池,Callable接口,线程安全

    1概念 1.1进程 进程指正在运行的程序.确切的来说,当一个程序进入内存运行,即变成一个进程,进程是处于运行过程中的程序,并且具有一定独立功能. 任务管理器中: 1.2线程 线程是进程中的一个执行单元 ...

  6. 关于vue-resource 转变成axios的过程

    在做东钿贷后系统的时候,我选择了vue-resource这个插件作为与服务器沟通工具,但是听说前端同行说vuejs2.0已经不在维护vue-resource了,vuejs2.0 已经使用了axios了 ...

  7. vim的命令

    下面是从一个博客里摘抄出来的, 供自己学习使用.   在命令状态下对当前行用== (连按=两次), 或对多行用n==(n是自然数)表示自动缩进从当前行起的下面n行.你可以试试把代码缩进任意打乱再用n= ...

  8. SpringMVC+Thymeleaf 简单使用

    一.简介 1.Thymeleaf 在有网络和无网络的环境下皆可运行,而且完全不需启动WEB应用,即它可以让美工在浏览器查看页面的静态效果,也可以让程序员在服务器查看带数据的动态页面效果.浏览器解释 h ...

  9. 微信成为HTML5技术流行的最大推手

    很多热点的事件都是厚积薄发,HTML5就是如此.此前iOS和Android系统已经放弃了Flash,这让HTML5有了一个天然的成长基础.而现在手机硬件的提升和HTML5本身的完善,使得基于HTML5 ...

  10. Python+selenium之截图图片并保存截取的图片

    本文转载:http://blog.csdn.net/u011541946/article/details/70141488 http://www.cnblogs.com/timsheng/archiv ...