一、介绍

  1. selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题
  2.  
  3. selenium本质是通过驱动浏览器,完全模拟浏览器的操作,比如跳转、输入、点击、下拉等,来拿到网页渲染之后的结果,可支持多种浏览器
  4.  
  5. from selenium import webdriver
  6. browser=webdriver.Chrome() #谷歌浏览器
  7. browser=webdriver.Firefox() #火狐浏览器
  8. browser=webdriver.PhantomJS()
  9. browser=webdriver.Safari()
  10. browser=webdriver.Edge()

二、安装

1.有界面浏览器

  1. #安装selenium+chromedriver
  2. 1.pip install selenium
  3. 2.一定要记得下载chromdriver.exe放到python安装路径scripts目录中,或者放在项目的根目录下,下载的时候注意和浏览器对应的版本

2.无界面浏览器

原来是用PhantomJS,现在使用谷歌浏览器headless模式

 三、基本使用

  1. from selenium import webdriver
  2. from selenium.webdriver import ActionChains
  3. from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
  4. from selenium.webdriver.common.keys import Keys #键盘按键操作
  5. from selenium.webdriver.support import expected_conditions as EC
  6. from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素
  7.  
  8. browser=webdriver.Chrome() #初始化
  9. try:
  10. browser.get('https://www.baidu.com') #访问网址
  11. input_tag=browser.find_element_by_id('kw') #根据id查找
  12. input_tag.send_keys('美女') #python2中输入中文错误,字符串前加个u
  13. input_tag.send_keys(Keys.ENTER) #输入回车
  14.  
  15. wait=WebDriverWait(browser,10) #显示等待,等待某个元素被加载
  16. wait.until(EC.presence_of_element_located((By.ID,'content_left'))) #等到id为content_left的元素加载完毕,最多等10秒
  17. print(browser.page_source)
  18. print(browser.current_url)
  19. print(browser.get_cookies()) #获取cookies
  20.  
  21. finally:
  22. browser.close()

 四、选择器使用

 一 基本用法

  1. from selenium import webdriver
  2. from selenium.webdriver import ActionChains
  3. from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
  4. from selenium.webdriver.common.keys import Keys #键盘按键操作
  5. from selenium.webdriver.support import expected_conditions as EC
  6. from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素
  7. import time
  8.  
  9. bro=webdriver.Chrome() #初始化
  10. bro.get('http://www.baidu.com')
  11. wait=WebDriverWait(bro,10) #隐示等待
  12. # 1、find_element_by_id 根据id找
  13. # 2、find_element_by_link_text 根据链接名字找到控件(a标签的文字)
  14. # 3、find_element_by_partial_link_text 根据链接名字找到控件(a标签的文字)模糊查询
  15. # 4、find_element_by_tag_name 根据标签名
  16. # 5、find_element_by_class_name 根据类名
  17. # 6、find_element_by_name 根据属性名
  18. # 7、find_element_by_css_selector 根据css选择器
  19. # 8、find_element_by_xpath 根据xpath选择

  20. #模拟登录百度
  21. dl_button=bro.find_element_by_link_text("登录") #定位到登录按钮
  22. dl_button.click()
  23. user_login=bro.find_element_by_id('TANGRAM__PSP_10__footerULoginBtn') #点击用户名登录
  24. user_login.click()
  25. time.sleep(1)
  26. input_name=bro.find_element_by_name('userName') #定位到用户名输入框,输入用户名
  27. input_name.send_keys("30323545@qq.com")
  28. input_password=bro.find_element_by_id("TANGRAM__PSP_10__password") #输入密码
  29. input_password.send_keys("xxxxxx")
  30. submit_button=bro.find_element_by_id('TANGRAM__PSP_10__submit') #点击登录
  31. submit_button.click()
  32.  
  33. time.sleep(100)
  34.  
  35. print(bro.get_cookies()) #获取cookies方法 get_cookies()
  36. bro.close() #最后记得关闭

注意:上诉都可以改成find_elements_by_xxx的形式,查到的是多个元素,结果为列表

 二、xpath

 1.在selenium中使用xpath

  1. driver.find_element_by_xpath('//body/a') #开头的//代表从整篇文档中寻找,body之后的/代表body的儿子中找a标签,这一行找不到就会报错
  2. driver.find_element_by_xpath('//body//a') #开头的//代表从整篇文档中寻找,body之后的//代表body的子子孙孙中找a标签,这一行找不到就会报错
  3. driver.find_element_by_xpath('//a[5]') #找第五个a标签
  4. driver.find_element_by_xpath('//a[img/@src="data:image1"]') #找a标签下子标签img的src属性为image1

2.在lxml中使用xpath

  1. doc='''
  2. <html>
  3. <head>
  4. <base href='http://example.com/' />
  5. <title>Example website</title>
  6. </head>
  7. <body>
  8. <div id='images'>
  9. <a href='image1.html' a="xxx">Name: My image 1 <br /><img src='image1_thumb.jpg' /></a>
  10. <a href='image2.html'>Name: My image 2 <br /><img src='image2_thumb.jpg' /></a>
  11. <a href='image3.html'>Name: My image 3 <br /><img src='image3_thumb.jpg' /></a>
  12. <a href='image4.html' class='li'>Name: My image 4 <br /><img src='image4_thumb.jpg' /></a>
  13. <a href='image5.html' class='li li-item' name='items'>Name: My image 5 <br /><img src='image5_thumb.jpg' /></a>
  14. <a href='image6.html' name='items'><span><h5>test</h5></span>Name: My image 6 <br /><img src='image6_thumb.jpg' /></a>
  15. </div>
  16. </body>
  17. </html>
  18. '''
  19. from lxml import etree
  20.  
  21. html=etree.HTML(doc)
  22. # html=etree.parse('search.html',etree.HTMLParser())
  23. # 1 所有节点
  24. a=html.xpath('//*') #匹配所有标签
  25. # 2 指定节点(结果为列表)
  26. # a=html.xpath('//head')
  27. # 3 子节点,子孙节点
  28. a=html.xpath('//div/a')
  29. a=html.xpath('//body/a') #无数据
  30. a=html.xpath('//body//a')
  31. # 4 父节点
  32. # a=html.xpath('//body//a[@href="image1.html"]/..')
  33. a=html.xpath('//body//a[1]/..') #从1开始
  34. # 也可以这样
  35. a=html.xpath('//body//a[1]/parent::*')
  36. # 5 属性匹配
  37. a=html.xpath('//body//a[@href="image1.html"]')
  38.  
  39. # 6 文本获取
  40. a=html.xpath('//body//a[@href="image1.html"]/text()')
  41. a=html.xpath('//body//a/text()')
  42.  
  43. # 7 属性获取
  44. # a=html.xpath('//body//a/@href')
  45. # # 注意从1 开始取(不是从0)
  46. a=html.xpath('//body//a[2]/@href')
  47. # 8 属性多值匹配
  48. # a 标签有多个class类,直接匹配就不可以了,需要用contains
  49. # a=html.xpath('//body//a[@class="li"]')
  50. a=html.xpath('//body//a[contains(@class,"li")]/text()')
  51. # a=html.xpath('//body//a[contains(@class,"li")]/text()')
  52. # 9 多属性匹配
  53. a=html.xpath('//body//a[contains(@class,"li") or @name="items"]')
  54. a=html.xpath('//body//a[contains(@class,"li") and @name="items"]/text()')
  55. a=html.xpath('//body//a[contains(@class,"li")]/text()')
  56. # 10 按序选择
  57. a=html.xpath('//a[2]/text()')
  58. a=html.xpath('//a[2]/@href')
  59. # 取最后一个
  60. a=html.xpath('//a[last()]/@href')
  61. # 位置小于3的
  62. a=html.xpath('//a[position()<3]/@href')
  63. # 倒数第二个
  64. a=html.xpath('//a[last()-2]/@href')
  65. # 11 节点轴选择
  66. # ancestor:祖先节点
  67. # 使用了* 获取所有祖先节点
  68. a=html.xpath('//a/ancestor::*')
  69. # # 获取祖先节点中的div
  70. a=html.xpath('//a/ancestor::div')
  71. # attribute:属性值
  72. a=html.xpath('//a[1]/attribute::*')
  73. # child:直接子节点
  74. a=html.xpath('//a[1]/child::*')
  75. # descendant:所有子孙节点
  76. a=html.xpath('//a[6]/descendant::*')
  77. # following:当前节点之后所有节点
  78. a=html.xpath('//a[1]/following::*')
  79. a=html.xpath('//a[1]/following::*[1]/@href')
  80. # following-sibling:当前节点之后同级节点
  81. a=html.xpath('//a[1]/following-sibling::*')
  82. a=html.xpath('//a[1]/following-sibling::a')
  83. a=html.xpath('//a[1]/following-sibling::*[2]/text()')
  84. a=html.xpath('//a[1]/following-sibling::*[2]/@href')
  85.  
  86. print(a)

三、获取标签属性

  1. #获取标签属性值
  2. tag.get_attribute('src') #获取属性src的值
  3.  
  4. #获取标签ID,位置,名称,大小
  5. tag.id
  6. tag.location
  7. tag.tag_name
  8. tag.size

五、等待元素被加载

  1. #1、selenium只是模拟浏览器的行为,而浏览器解析页面是需要时间的(执行css,js),一些元素可能需要过一段时间才能加载出来,为了保证能查找到元素,必须等待
  2.  
  3. #2、等待的方式分两种:
  4. 隐式等待:在browser.get'xxx')前就设置,针对所有元素有效,写一个就行
    browser.implicitly_wait(10) #在查找所有元素时,如果尚未被加载,则等10秒,如果没有10秒也会直接通过
  5. 显式等待:在browser.get'xxx')之后设置,只针对某个元素有效,在每一个需要使用的标签都要写

六、元素交互操作

  1. 点击、清空
  2. click()
  3. clear()

七、其他

获取cookies

browser.get_cookies()

设置cookies

browser.add_cookie({'k1':'aaa','k2':'yyy'})

删除cookies

browser.delete_all_cookies()

 注意:可以用selenium模拟登录获取到cookie,然后使用requests带上cookies参数请求网页获取数据(selenium结合requests使用)

爬虫请求库之selenium的更多相关文章

  1. 爬虫 - 请求库之selenium

    介绍 官方文档 selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题 selenium本质是通过驱动浏览器,完全模拟浏览器的 ...

  2. python爬虫请求库之selenium模块

    一 介绍     selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题 selenium本质是通过驱动浏览器,完全模拟浏览器 ...

  3. 爬虫——请求库之selenium模块

      阅读目录 一 介绍 二 安装 三 基本使用 四 选择器 五 等待元素被加载 六 元素交互操作 七 其他 八 项目练习 一 介绍 selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解 ...

  4. 爬虫请求库之selenium模块

    一 安装 #安装:selenium+chromedriver pip3 install selenium 下载chromdriver.exe放到python安装路径的scripts目录中即可,注意最新 ...

  5. 爬虫请求库——requests

    请求库,即可以模仿浏览器对网站发起请求的模块(库). requests模块 使用requests可以模拟浏览器的请求,requests模块的本质是封装了urllib3模块的功能,比起之前用到的urll ...

  6. 爬虫----爬虫请求库selenium

    一 介绍 selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题 selenium本质是通过驱动浏览器,完全模拟浏览器的操作, ...

  7. 爬虫请求库——selenium

    selenium模块 selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题.selenium的缺点是效率会变得很慢. sel ...

  8. 爬虫请求库 requests

    requests模块   阅读目录 一 介绍 二 基于GET请求 三 基于POST请求 四 响应Response 五 高级用法 一 介绍 #介绍:使用requests可以模拟浏览器的请求,比起之前用到 ...

  9. 爬虫基础库之Selenium

    1.简介 selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题 selenium本质是通过驱动浏览器,完全模拟浏览器的操作, ...

随机推荐

  1. let

    let a=2+2 #+ - * / % ** 都支持 支持类C的计算方式 let i++ let i-- let i+=10 let i-=10 let i*=10 let i/=10 let i% ...

  2. 函数(定义、参数、return、变量、作用域、预解析)

    一.函数定义 1.方式一       function 函数名(参数){  函数体  }——————函数声明的方法 function fn(a){ console.log(a); }: 2.方式二  ...

  3. [RN] React Native 常见基本问题归纳总结

    [RN] React Native  常见基本问题归纳总结 本问题总结涉及到版本为: "react": "16.8.3","react-native& ...

  4. Theano入门笔记2:scan函数等

    1.Theano中的scan函数 目前先弱弱的认为:相当于symbolic的for循环吧,或者说计算图上的for循环,也可以用来替代repeat-until. 与scan相比,scan_checkpo ...

  5. CSS3 之loading动画实现思路

    效果大致如下: 主要实现方式: 该效果主要用到animation-timing-function中的steps()函数,该函数主要用于分步隐藏不同模块. 实现思路: 第一步动画: 第二步动画: 第三步 ...

  6. jmeter5实现mysql数据库值提取--单sql提取

    字段背景: 在进行接口测试或者压力测试过程中下文的请求需要用到上文请求的值,除了通过正则表达式的方式外,为了更准确的获得数据库值,我们可以直接从数据库提取 一.如何实现数据库的连接.此处不再赘述 点击 ...

  7. mysql 为啥用b+ 树

    原因就是为了减少磁盘io次数,因为b+树所有最终的子节点都能在叶子节点里找见, 所以非叶子节点只需要存`索引范围和指向下一级索引(或者叶子节点)的地址` 就行了, 不需要存整行的数据,所以占用空间非常 ...

  8. [Beta]第八次 Scrum Meeting

    [Beta]第八次 Scrum Meeting 写在前面 会议时间 会议时长 会议地点 2019/5/18 22:00 10min 大运村公寓6F寝室 附Github仓库:WEDO 例会照片 工作情况 ...

  9. 性能测试分析过程(三)linux下查看最消耗CPU/内存的进程

    linux下查看最消耗CPU  内存的进程 1.CPU占用最多的前10个进程:  ps auxw|head -1;ps auxw|sort -rn -k3|head -10  2.内存消耗最多的前10 ...

  10. Eclipse创建Maven父子项目

    Eclipse创建Maven父子项目 - 木头若愚 - CSDN博客https://blog.csdn.net/jay_1989/article/details/53906995 创建maven项目是 ...