[Python爬虫] Selenium自己主动訪问Firefox和Chrome并实现搜索截图
前两篇文章介绍了安装。此篇文章算是一个简单的进阶应用吧。它是在Windows下通过Selenium+Python实现自己主动訪问Firefox和Chrome并实现搜索截图的功能。
[Python爬虫] 在Windows下安装PhantomJS和CasperJS及入门介绍(上)
[Python爬虫] 在Windows下安装PIP+Phantomjs+Selenium
自己主动訪问Firefox
能够參照前文安装Selenium环境,眼下Selenium这个用于Web应用程序測试的工具支持的浏览器包含IE、Mozilla Firefox、Mozilla
Suite、Chrome等。
可是因为Firefox是默认安装路径,webdriver能够正常訪问它,而Chrome和IE须要设置driver路径。
- from selenium import webdriver
- from selenium.webdriver.common.keys import Keys
- import sys
- reload(sys)
- sys.setdefaultencoding('gb18030')
- driver = webdriver.Firefox()
- driver.get("http://www.baidu.com")
- assert "百度" in driver.title
- elem = driver.find_element_by_name("wd")
- elem.send_keys("Eastmount")
- elem.send_keys(Keys.RETURN)
- assert "谷歌" in driver.title
- driver.save_screenshot('baidu.png')
- driver.close()
- driver.quit()
执行效果例如以下图所看到的,自己主动调用Firefox浏览器搜索,同一时候输出断言错误:
assert "谷歌" in driver.title AssertionError
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
import sys
reload(sys)
sys.setdefaultencoding('gb18030')
因为汉语中可能会遇到错误:
UnicodeDecodeError: 'ascii' codec can't decode byte 0xc4 in position 33
UnicodeDecodeError: 'utf8' codec can't decode byte 0xb0 in position 35
所以此处转换成gb编码,该篇不重点介绍了。
driver = webdriver.Firefox()
driver.get("http://www.baidu.com")
创建Firefoxwebdriver实例。当中Firefox最简单,其它Chrome还须要driver和配置路径。接下来通过driver.get()打开百度URL网页,webdriver会等待网页元素载入完毕之后才把控制权交回脚本。可是,假设要打开了页面在载入的过程中包括了非常多AJAX,webdriver可能无法准确推断页面何时载入完毕。
assert "百度" in driver.title
assert "谷歌" in driver.title
接下来使用断言推断文章的标题Title是否包括“百度”和“谷歌”。相应的标题是“百度一下,你就知道”,所以当中“百度”包括,而“谷歌”会出现断言报错。
同一时候提交页面并获得返回结果,为了推断结果是否成功返回也能够使用断言。
elem = driver.find_element_by_name("wd")
webdriver提供了非常多如find_element_by_*的方法来匹配要查找的元素。如利用name属性查找方法find_element_by_name来定位输入框。审查元素name=wd。
元素定位方法能够參考官网:Locating
Elements
elem.send_keys("Eastmount")
elem.send_keys(Keys.RETURN)
driver.save_screenshot('baidu.png')
driver.close()
driver.quit()
最后是调用save_screenshot进行截图。可是图片是过程中的。如何获取最后载入的图片呢?同一时候。操作完毕并关闭浏览器。当然。也能够调用quit()方法。两者的差别在于:quit()方法会退出浏览器,而close()方法仅仅是关闭页面,但假设仅仅有一个页面被打开,close()方法相同会退出浏览器。
自己主动訪问Chrome
首先下载chromedriver并置于Chrome安装文件夹。可能会遇到错误:
WebDriverException: Message: 'chromedriver' executable needs to be in PATH.參考官网解决方法:How to use chromedriver。我採用的是设置driver环境。
代码例如以下:
- import os
- from selenium import webdriver
- from selenium.webdriver.common.keys import Keys
- chromedriver = "C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe"
- os.environ["webdriver.chrome.driver"] = chromedriver
- driver = webdriver.Chrome(chromedriver)
- driver.get("http://www.python.org")
- assert "Python" in driver.title
- elem = driver.find_element_by_name("q")
- elem.send_keys("selenium")
- elem.send_keys(Keys.RETURN)
- assert "Google" in driver.title
- driver.close()
- driver.quit()
须要放置chromedriver例如以下路径,同一时候能够通过代码设置。
可是因为我的Chrome可能Bug一直未修复。总是打开错误。
driver = webdriver.Chrome(executable_path="G:\chromedriver.exe")
參考资料:
构建Python+Selenium2自己主动化測试环境<二>:IE、Chrome和Firefox执行
用selenium实现某微博搜索数据的抓取
RobotFramework+seleniumlibrary Web自己主动化測试 (三)
最后希望该篇基础性文章对你有所帮助吧!假设有不足之处。还请海涵~
(By:Eastmount 2015-8-20 下午4点 http://blog.csdn.net/eastmount/)
[Python爬虫] Selenium自己主动訪问Firefox和Chrome并实现搜索截图的更多相关文章
- [Python爬虫] Selenium自动访问Firefox和Chrome并实现搜索截图
前两篇文章介绍了安装,此篇文章算是一个简单的进阶应用吧!它是在Windows下通过Selenium+Python实现自动访问Firefox和Chrome并实现搜索截图的功能. [Pyth ...
- [Python爬虫] Selenium实现自动登录163邮箱和Locating Elements介绍
前三篇文章介绍了安装过程和通过Selenium实现访问Firefox浏览器并自动搜索"Eastmount"关键字及截图的功能.而这篇文章主要简单介绍如何实现自动登录163邮箱,同时 ...
- [Python爬虫] Selenium+Phantomjs动态获取CSDN下载资源信息和评论
前面几篇文章介绍了Selenium.PhantomJS的基础知识及安装过程,这篇文章是一篇应用.通过Selenium调用Phantomjs获取CSDN下载资源的信息,最重要的是动态获取资源的评论,它是 ...
- [python爬虫] Selenium常见元素定位方法和操作的学习介绍
这篇文章主要Selenium+Python自动测试或爬虫中的常见定位方法.鼠标操作.键盘操作介绍,希望该篇基础性文章对你有所帮助,如果有错误或不足之处,请海涵~同时CSDN总是屏蔽这篇文章,再加上最近 ...
- [Python爬虫] Selenium获取百度百科旅游景点的InfoBox消息盒
前面我讲述过如何通过BeautifulSoup获取维基百科的消息盒,同样可以通过Spider获取网站内容,最近学习了Selenium+Phantomjs后,准备利用它们获取百度百科的旅游景点消息盒(I ...
- [Python爬虫] Selenium爬取新浪微博客户端用户信息、热点话题及评论 (上)
转载自:http://blog.csdn.net/eastmount/article/details/51231852 一. 文章介绍 源码下载地址:http://download.csdn.net/ ...
- python爬虫---selenium库的用法
python爬虫---selenium库的用法 selenium是一个自动化测试工具,支持Firefox,Chrome等众多浏览器 在爬虫中的应用主要是用来解决JS渲染的问题. 1.使用前需要安装这个 ...
- [python爬虫] Selenium常见元素定位方法和操作的学习介绍(转载)
转载地址:[python爬虫] Selenium常见元素定位方法和操作的学习介绍 一. 定位元素方法 官网地址:http://selenium-python.readthedocs.org/locat ...
- Python爬虫-selenium的使用(2)
使用selenium打开chrome浏览器百度进行搜索 12345678910111213141516171819202122232425 from selenium import webdriver ...
随机推荐
- es6总结(四)--对象
- hdu 5976 Detachment 脑洞题 猜结论
题目链接 题意 将\(x\)拆成\(a_1+a_2+...+\)的形式,且\(a_1\lt a_2\lt...\),使得\(a_1*a_2*...\)取到最大值 思路 大胆猜结论. 首先拆分的形式中肯 ...
- 转 Python爬虫入门七之正则表达式
静觅 » Python爬虫入门七之正则表达式 1.了解正则表达式 正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符.及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串 ...
- netsh配置Windows防火墙(advfirewall)
有人可能会说,Windows防火墙有非常友好的用户界面,为什么要使用命令行界面来配置一个Windows防火墙?有 个人认为有一下原因(撇开有的人喜欢命令行不喜欢界面的 , o(∩_∩)o 哈哈) Fi ...
- 标准C程序设计七---120
Linux应用 编程深入 语言编程 标准C程序设计七---经典C11程序设计 以下内容为阅读: <标准C程序设计>(第7版) 作者 ...
- mysql into outfile 导出
<sql> into outfile 'xxx.txt' FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n'; <sql> 表示 ...
- LeetCode OJ--Add Two Numbers
http://oj.leetcode.com/problems/add-two-numbers/ 将用链表表示的两个数相加,(2 -> 4 -> 3) + (5 -> 6 -> ...
- JSONP简单示例
<!DOCTYPE html> <html xmlns="http://www.w3.org/1999/xhtml"><head> < ...
- Java爬虫系列三:使用Jsoup解析HTML
在上一篇随笔<Java爬虫系列二:使用HttpClient抓取页面HTML>中介绍了怎么使用HttpClient进行爬虫的第一步--抓取页面html,今天接着来看下爬虫的第二步--解析抓取 ...
- 洛谷—— P1375 小猫
https://www.luogu.org/problemnew/show/1375 题目描述 有2n只小猫站成一圈,主人小明想把它们两两之间用绳子绑住尾巴连在一起.同时小明是个完美主义者,不容许看到 ...