一个PHP的抓取方案
在 2011年07月04日 那天写的 已经有 10270 次阅读了
服务器君一共花费了14.288 ms进行了2次数据库查询,努力地为您提供了这个页面。
snoopy是一个php类,用来模仿web浏览器的功能,它能完成获取网页内容和发送表单的任务。官方网站 http://snoopy.sourceforge.net/
Snoopy的一些功能特点:
- 抓取网页的内容 fetch()
- 抓取网页的文本内容 (去除HTML标签) fetchtext()
- 抓取网页的链接,表单 fetchlinks() fetchform()
- 支持代理主机
- 支持基本的用户名/密码验证
- 支持设置 user_agent, referer(来路), cookies 和 header content(头文件)
- 支持浏览器重定向,并能控制重定向深度
- 能把网页中的链接扩展成高质量的url(默认)
- 提交数据并且获取返回值
- 支持跟踪HTML框架
- 支持重定向的时候传递cookies
要求php4以上就可以。由于本身是php一个类,无需扩支持,服务器不支持curl时候的最好选择。
类方法
1. fetch($uri)
这是为了抓取网页的内容而使用的方法。$URI参数是被抓取网页的URL地址。抓取的结果被存储在 $this->results 中。
如果你正在抓取的是一个框架,Snoopy将会将每个框架追踪后存入数组中,然后存入 $this->results。
3 |
include ( "./Snoopy.class.php" ); |
6 |
$snoopy ->fetch( $url ); //获取所有内容 |
7 |
echo $snoopy ->results; //显示结果 |
2. fetchtext($URI)
本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中的文字内容。
3 |
include ( "./Snoopy.class.php" ); |
6 |
$snoopy ->fetchtext( $url ); //获取文本内容 |
7 |
echo $snoopy ->results; //显示结果 |
3. fetchform($URI)
本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中表单内容(form)。
4. fetchlinks($URI)
本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中链接(link)。默认情况下,相对链接将自动补全,转换成完整的URL。
5. submit($URI,$formvars)
本方法向$URL指定的链接地址发送确认表单。$formvars是一个存储表单参数的数组。
6. submittext($URI,$formvars)
本方法类似于submit(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回登陆后网页中的文字内容。
7. submitlinks($URI)
本方法类似于submit(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中链接(link)。默认情况下,相对链接将自动补全,转换成完整的URL。
类属性 (缺省值在括号里)
- $host 连接的主机
- $port 连接的端口
- $proxy_host 使用的代理主机,如果有的话
- $proxy_port 使用的代理主机端口,如果有的话
- $agent 用户代理伪装 (Snoopy v0.1)
- $referer 来路信息,如果有的话
- $cookies cookies, 如果有的话
- $rawheaders 其他的头信息, 如果有的话
- $maxredirs 最大重定向次数, 0=不允许 (5)
- $offsiteok whether or not to allow redirects off-site. (true)
- $expandlinks 是否将链接都补全为完整地址 (true)
- $user 认证用户名, 如果有的话
- $pass 认证用户名, 如果有的话
- $accept http 接受类型 (image/gif, image/x-xbitmap, image/jpeg, image/pjpeg, */*)
- $error 哪里报错, 如果有的话
- $response_code 从服务器返回的响应代码
- $headers 从服务器返回的头信息
- $maxlength 最长返回数据长度
- $read_timeout 读取操作超时 (requires PHP 4 Beta 4+),设置为0为没有超时
- $timed_out 如果一次读取操作超时了,本属性返回 true (requires PHP 4 Beta 4+)
- $maxframes 允许追踪的框架最大数量
- $status 抓取的http的状态
- $temp_dir 网页服务器能够写入的临时文件目录 (/tmp)
- $curl_path cURL binary 的目录, 如果没有cURL binary就设置为 false
Demo
01 |
include "Snoopy.class.php" ; |
05 |
$snoopy ->proxy_port = "80" ; |
07 |
$snoopy ->agent = "(compatible; MSIE 4.01; MSN 2.5; AOL 4.0; Windows 98)" ; |
10 |
$snoopy ->cookies[ "SessionID" ] = 238472834723489l; |
11 |
$snoopy ->cookies[ "favoriteColor" ] = "RED" ; |
13 |
$snoopy ->rawheaders[ "Pragma" ] = "no-cache" ; |
15 |
$snoopy ->maxredirs = 2; |
16 |
$snoopy ->offsiteok = false; |
17 |
$snoopy ->expandlinks = false; |
19 |
$snoopy ->user = "joe" ; |
20 |
$snoopy ->pass = "bloe" ; |
24 |
echo "<PRE>" .htmlspecialchars( $snoopy ->results). "</PRE>n" ; |
27 |
echo "error fetching document: " . $snoopy ->error. "n" ; |
获取指定url内容:
03 |
include ( "snoopy.php" ); |
05 |
$snoopy ->fetch( $url ); //获取所有内容 |
06 |
echo $snoopy ->results; //显示结果 |
08 |
//$snoopy->fetchtext //获取文本内容(去掉html代码) |
09 |
//$snoopy->fetchlinks //获取链接 |
10 |
//$snoopy->fetchform //获取表单 |
表单提交:
02 |
$formvars [ "username" ] = "admin" ; |
03 |
$formvars [ "pwd" ] = "admin" ; |
05 |
$snoopy ->submit( $action , $formvars ); //$formvars为提交的数组 |
06 |
echo $snoopy ->results; //获取表单提交后的 返回的结果 |
08 |
$snoopy ->submittext; //提交后只返回 去除html的 文本 |
09 |
$snoopy ->submitlinks; //提交后只返回 链接 |
既然已经提交的表单,那就可以做很多事情。接下来我们来伪装ip,伪装浏览器:
02 |
$formvars [ "username" ] = "admin" ; |
03 |
$formvars [ "pwd" ] = "admin" ; |
07 |
$snoopy ->cookies[ "PHPSESSID" ] = 'fc106b1918bd522cc863f36890e6fff7' ; //伪装sessionid |
08 |
$snoopy ->agent = "(compatible; MSIE 4.01; MSN 2.5; AOL 4.0; Windows 98)" ; //伪装浏览器 |
09 |
$snoopy ->referer = http: //www.4wei.cn; //伪装来源页地址 http_referer |
10 |
$snoopy ->rawheaders[ "Pragma" ] = "no-cache" ; //cache 的http头信息 |
11 |
$snoopy ->rawheaders[ "X_FORWARDED_FOR" ] = "127.0.0.101" ; //伪装ip |
12 |
$snoopy ->submit( $action , $formvars ); |
13 |
echo $snoopy ->results; |
原来我们可以伪装session 伪装浏览器 ,伪装ip, haha 可以做很多事情了。例如 带验证码,验证ip 投票, 可以不停的投。
ps:这里伪装ip ,其实是伪装http头,所以一般的通过 REMOTE_ADDR 获取的ip是伪装不了,反而那些通过http头来获取ip的(可以防止代理的那种) 就可以自己来制造ip。
关于如何验证码 ,简单说下:首先用普通的浏览器, 查看页面 , 找到验证码所对应的sessionid,同时记下sessionid和验证码值,接下来就用snoopy去伪造 。
原理:由于是同一个sessionid 所以取得的验证码和第一次输入的是一样的。
有时我们可能需要伪造更多的东西,snoopy完全为我们想到了:
03 |
$snoopy ->proxy_port = "8080" ; //使用代理 |
04 |
$snoopy ->maxredirs = 2; //重定向次数 |
05 |
$snoopy ->expandlinks = true; //是否补全链接 在采集的时候经常用到 |
07 |
$snoopy ->maxframes = 5 //允许的最大框架数 |
08 |
//注意抓取框架的时候 $snoopy->results 返回的是一个数组 |
09 |
$snoopy ->error //返回报错信息 |
比较完整的示例:
02 |
* You need the snoopy.class.php from |
05 |
include ( "snoopy.class.php" ); |
09 |
//$snoopy->proxy_host = "my.proxy.host"; |
10 |
//$snoopy->proxy_port = "8080"; |
12 |
// set browser and referer: |
13 |
$snoopy ->agent = "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)" ; |
17 |
$snoopy ->cookies[ "SessionID" ] = '238472834723489' ; |
18 |
$snoopy ->cookies[ "favoriteColor" ] = "blue" ; |
21 |
$snoopy ->rawheaders[ "Pragma" ] = "no-cache" ; |
23 |
// set some internal variables: |
24 |
$snoopy ->maxredirs = 2; |
25 |
$snoopy ->offsiteok = false; |
26 |
$snoopy ->expandlinks = false; |
28 |
// set username and password (optional) |
29 |
//$snoopy->user = "joe"; |
30 |
//$snoopy->pass = "bloe"; |
32 |
// fetch the text of the website www.google.com: |
34 |
// other methods: fetch, fetchform, fetchlinks, submittext and submitlinks |
37 |
print "response code: " . $snoopy ->response_code. "<br/>n" ; |
41 |
print "<b>Headers:</b><br/>" ; |
42 |
while (list( $key , $val ) = each( $snoopy ->headers)){ |
43 |
print $key . ": " . $val . "<br/>n" ; |
48 |
// print the texts of the website: |
49 |
print htmlspecialchars( $snoopy ->results). "n" ; |
52 |
print "Snoopy: error while fetching document: " . $snoopy ->error. "n" ; |
用Snoopy类完成一个简单的图片采集:
- HttpClient抓取网页内容简单介绍
版本HttpClient3.1 1.GET方式 第一步.创建一个客户端,类似于你用浏览器打开一个网页 HttpClient httpClient = new HttpClient(); 第二步.创建一 ...
- IDM下载器:站点抓取相关设置介绍
Internet Download Manager(简称IDM)是一款十分好用资源下载器,它的站点抓取功能不仅可以下载被过滤器指定所需文件,例如一个站点的所有图片,或者一个站点的所有音频,也可以下载站 ...
- Python开发爬虫之动态网页抓取篇:爬取博客评论数据——通过Selenium模拟浏览器抓取
区别于上篇动态网页抓取,这里介绍另一种方法,即使用浏览器渲染引擎.直接用浏览器在显示网页时解析 HTML.应用 CSS 样式并执行 JavaScript 的语句. 这个方法在爬虫过程中会打开一个浏览器 ...
- Charles抓取微信小程序数据 以及 其它应用网站数据
为了抓取小程序数据所以使用Charles来抓取,下面介绍下使用方法(mac环境下使用).使用Charles可以非常方便的抓取Http/Https请求.官方dmg下载地址:点击此处下载 Charles抓 ...
- 转 PHP的CURL方法curl_setopt()函数案例介绍(抓取网页,POST数据)
PHP的CURL方法curl_setopt()函数案例介绍(抓取网页,POST数据) 通过curl_setopt()函数可以方便快捷的抓取网页(采集很方便),curl_setopt 是php的一个 ...
- 转:介绍一个好用的抓取dump的工具-ProcDump
介绍一个好用的抓取dump的工具-ProcDump Procdump是一个轻量级的Sysinternal团队开发的命令行工具, 它的主要目的是监控应用程序的CPU异常动向, 并在此异常时生成crash ...
- 抓取Dump文件的方法和工具介绍
一.Windows系统的任务管理器里抓dump 启动任务管理器,选中某个进程,右键,弹出菜单"创建转储文件" 注意事项: 当你在64位Windows系统上抓32位进程的dmup文件 ...
- UiPath屏幕抓取Screen Scraping的介绍和使用
一.屏幕抓取(Screen Scraping)的介绍 屏幕抓取使您能够在特定的UI元素或文档(如.PDF文档)中提取数据 二.屏幕抓取(Screen Scraping)在UiPath中的使用 [if ...
- UiPath数据抓取Data Scraping的介绍和使用
一.数据抓取(Data Scraping)的介绍 使用截据抓取使您可以将浏览器,应用程序或文档中的结构化数据提取到数据库,.csv文件甚至Excel电子表格中. 二.Data Scraping在UiP ...
随机推荐
- 【转】一个不错的eclipse反编译插件
[转]一个不错的eclipse反编译插件 在CSDN论坛上看到的一个不错的eclipse反编译插件,感觉看起来不错的样子,因而记下,原网址是:http://topic.csdn.net/u/20121 ...
- php jquery ajax
.php文件如下<?php header('Content-Type:text/html;charset=utf-8'); ?> <script type="text ...
- Android ViewHolder的作用与用法
就是一个持有者的类,他里面一般没有方法,只有属性,作用就是一个临时的储存器,把你getView方法中每次返回的View存起来,可以下次再用.这样做的好处就是不必每次都到布局文件中去拿到你的View,提 ...
- 电赛菜鸟营培训(三)——STM32F103CB之串口通信
一.串口通信概念 1.缩写 USART:Universal Synchronous/Asynchronous Receiver/Transmitter 通用同步/异步接收和发送器 2.用处 (1)同步 ...
- SQL Server 2005 中实现通用的异步触发器架构
在SQL Server 2005中,通过新增的Service Broker可以实现异步触发器的处理功能.本文提供一种使用Service Broker实现的通用异步触发器方法. 在本方法中,通过Serv ...
- jdbc、事务(Transaction)、批处理 回顾
论文写的头疼,回顾一下jdbc,换换脑子 传统的写法: 1.加载驱动类 class.forname("jdbc类的包结构"); 2.获得连接 Connection conn=Dri ...
- 【HTML5】Server-Sent服务器发送事件
Server-Sent 事件 - 单向消息传递 Server-Sent 事件指的是网页自动获取来自服务器的更新. 以前也可能做到这一点,前提是网页不得不询问是否有可用的更新.通过服务器发送事件,更新能 ...
- Android 利用Gson生成或解析json
目前手机端和服务端数据交流格式一般是json,而谷歌提供了Gson来解析json.下载Gson:https://code.google.com/p/google-gson/ 下载的放在lib并导入,若 ...
- lua ipairs
tbl = {"alpha", "beta", ["one"] = "uno", ["two"] = ...
- BZOJ3790 : 神奇项链
Manacher求出所有极长回文子串后,得到一堆线段,转化成线段覆盖问题 预处理出g[i]表示左端点不超过i的右端点的最大值 贪心地线段覆盖即可 时间复杂度$O(n)$ #include<cst ...