早听说用python做网络爬虫非常方便,正好这几天单位也有这样的需求,需要登陆XX网站下载部分文档,于是自己亲身试验了一番,效果还不错。

 
本例所登录的某网站需要提供用户名,密码和验证码,在此使用了python的urllib2直接登录网站并处理网站的Cookie。
 

Cookie的工作原理:

Cookie由服务端生成,然后发送给浏览器,浏览器会将Cookie保存在某个目录下的文本文件中。在下次请求同一网站时,会发送该Cookie给服务器,这样服务器就知道该用户是否合法以及是否需要重新登录。
 

Python提供了基本的cookielib库,在首次访问某页面时,cookie便会自动保存下来,之后访问其它页面便都会带有正常登录的Cookie了。

 
原理:
(1)激活cookie功能
(2)反“反盗链”,伪装成浏览器访问
(3)访问验证码链接,并将验证码图片下载到本地
(4)验证码的识别方案网上较多,python也有图像处理库,此例调用了火车头采集器的OCR识别接口。
(5)表单的处理,可用fiddler等抓包工具获取需要提交的参数
(6)生成需要提交的数据,生成http请求并发送
(7)根据返回的js页面判断是否登陆成功
(8)登陆成功后下载其它页面
 

此例中使用多个账号轮询登陆,每个账号下载指定数目页面。

 

以下是部分代码:

#!usr/bin/env python
 
#-*- coding: utf-8 -*-
 
import os
import urllib2
import urllib
import cookielib
import xml.etree.ElementTree as ET
 
#-----------------------------------------------------------------------------
# Login in www.***.com.cn
def ChinaBiddingLogin(url, username, password):
     
  # Enable cookie support for urllib2
     
  cookiejar=cookielib.CookieJar()
     
 
urlopener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookiejar))
     
  urllib2.install_opener(urlopener)
     
  
     
  urlopener.addheaders.append(('Referer',
'http://www.chinabidding.com.cn/zbw/login/login.jsp'))
     
  urlopener.addheaders.append(('Accept-Language',
'zh-CN'))
     
  urlopener.addheaders.append(('Host',
'www.chinabidding.com.cn'))
     
  urlopener.addheaders.append(('User-Agent',
'Mozilla/5.0 (compatible; MISE 9.0; Windows NT 6.1);
Trident/5.0'))
     
  urlopener.addheaders.append(('Connection',
'Keep-Alive'))
 
     
  print 'XXX Login......'
 
     
 
imgurl=r'http://www.*****.com.cn/zbw/login/image.jsp'
     
  DownloadFile(imgurl, urlopener)
     
  authcode=raw_input('Please enter the
authcode:')
     
 
#authcode=VerifyingCodeRecognization(r"http://192.168.0.106/images/code.jpg")
 
     
  # Send login/password to the site and get the
session cookie
     
  values={'login_id':username, 'opl':'op_login',
'login_passwd':password, 'login_check':authcode}
     
  urlcontent=urlopener.open(urllib2.Request(url,
urllib.urlencode(values)))
     
  page=urlcontent.read(500000)
 
     
  # Make sure we are logged in, check the returned
page content
     
  if page.find('login.jsp')!=-1:
     
     
    print 'Login failed with
username=%s, password=%s and authcode=%s' \
     
     
     
     
     
  % (username, password, authcode)
     
     
    return False
     
  else:
     
     
    print 'Login
succeeded!'
     
     
    return True
 
#-----------------------------------------------------------------------------
# Download from fileUrl then save to fileToSave
# Note: the fileUrl must be a valid file
def DownloadFile(fileUrl, urlopener):
     
  isDownOk=False
 
     
  try:
     
     
    if fileUrl:
     
     
     
     
outfile=open(r'/var/www/images/code.jpg', 'w')
     
     
     
     
outfile.write(urlopener.open(urllib2.Request(fileUrl)).read())
     
     
     
     
outfile.close()
 
     
     
     
     
isDownOK=True
     
     
    else:
     
     
     
      print
'ERROR: fileUrl is NULL!'
     
  except:
     
     
    isDownOK=False
 
     
  return isDownOK
 
#------------------------------------------------------------------------------
# Verifying code recoginization
def VerifyingCodeRecognization(imgurl):
     
  url=r'http://192.168.0.119:800/api?'
     
  user='admin'
     
  pwd='admin'
     
  model='ocr'
     
  ocrfile='cbi'
 
     
  values={'user':user, 'pwd':pwd, 'model':model,
'ocrfile':ocrfile, 'imgurl':imgurl}
     
  data=urllib.urlencode(values)
 
     
  try:
     
     
    url+=data
     
     
   
urlcontent=urllib2.urlopen(url)
     
  except IOError:
     
     
    print '***ERROR: invalid URL
(%s)' % url
 
     
  page=urlcontent.read(500000)
 
     
  # Parse the xml data and get the verifying
code
     
  root=ET.fromstring(page)
     
  node_find=root.find('AddField')
     
  authcode=node_find.attrib['data']
 
     
  return authcode
 
#------------------------------------------------------------------------------
# Read users from configure file
def ReadUsersFromFile(filename):
     
  users={}
     
  for eachLine in open(filename, 'r'):
     
     
    info=[w for w in
eachLine.strip().split()]
     
     
    if len(info)==2:
     
     
     
     
users[info[0]]=info[1]
 
     
  return users
 
#------------------------------------------------------------------------------
def main():
     
 
login_page=r'http://www.***.com.cnlogin/login.jsp'
     
 
download_page=r'http://www.***.com.cn***/***?record_id='
 
     
  start_id=8593330
     
  end_id=8595000
 
     
  now_id=start_id
     
  Users=ReadUsersFromFile('users.conf')
     
  while True:
     
     
    for key in Users:
     
     
     
      if
ChinaBiddingLogin(login_page, key, Users[key]):
     
     
     
     
     
  for i in range(3):
     
     
     
     
     
     
    pageUrl=download_page+'%d' %
now_id
     
     
     
     
     
     
   
urlcontent=urllib2.urlopen(pageUrl)
 
     
     
     
     
     
     
    filepath='./download/%s.html'
% now_id
     
     
     
     
     
     
    f=open(filepath, 'w')
     
     
     
     
     
     
   
f.write(urlcontent.read(500000))
     
     
     
     
     
     
    f.close()
 
     
     
     
     
     
     
    now_id+=1
     
     
     
     
else:
     
     
     
     
     
  continue
#------------------------------------------------------------------------------
 
if __name__=='__main__':
     
  main()

[转载]python实现带验证码网站的自动登陆的更多相关文章

  1. Python爬虫模拟登录带验证码网站

    问题分析: 1.爬取网站时经常会遇到需要登录的问题,这是就需要用到模拟登录的相关方法.python提供了强大的url库,想做到这个并不难.这里以登录学校教务系统为例,做一个简单的例子. 2.首先得明白 ...

  2. python 简单图像识别--验证码

    python  简单图像识别--验证码 记录下,准备工作安装过程很是麻烦. 首先库:pytesseract,image,tesseract,PIL windows安装PIL,直接exe进行安装更方便( ...

  3. php使用curl模拟登录带验证码的网站[开发篇]

    需求是这样的,需要登录带验证码的网站,获取数据,但是不可能人为一直去记录数据,想通过自动采集的方式进行,如下是试验出来的结果代码!有需要的可以参考下! <?php namespace Home\ ...

  4. php使用curl模拟登录带验证码的网站

    需求是这样的,需要登录带验证码的网站,获取数据,但是不可能人为一直去记录数据,想通过自动采集的方式进行,如下是试验出来的结果代码!有需要的可以参考下! <?php namespace Home\ ...

  5. python+splinter实现12306网站刷票并自动购票流程

    python+splinter实现12306网站刷票并自动购票流程 通过python+splinter,实现在12306网站刷票并自动购票流程(无法自动识别验证码). 此类程序只是提高了12306网站 ...

  6. Python验证码6位自动生成器

    Python验证码6位自动生成器

  7. 用HttpWebRequest提交带验证码的网站

    using System; using System.Drawing; using System.IO; using System.Net; using System.Text; using Syst ...

  8. 利用htmlunit登陆带验证码图片的网站

    http://htsoft.org/html/y2011/822_using-htmlunit-landing-site-with-captcha-image.html 利用htmlunit登陆带验证 ...

  9. 使用C#登录带验证码的网站

    我在上一篇文章中已经讲解了一般网站的登录原来和C#的登录实现,很多人问到对于使用了验证码的网站该怎么办,这里我就讲讲验证码的原理和对应的登录方法.验证码的由来几年前,大部分网站.论坛之类的是没有验证码 ...

随机推荐

  1. SQL Server无法连接到数据库

    连接数据库的时候出现如下错误: 我解决的使用方法: 第一步:关闭上面的错误,取消连接数据库. 第二步:开始->程序->Microsoft SQL Server 2008 R2->配置 ...

  2. 自己搭建php服务器(可接受表单提交,并返回页面)

    0.概述 本demo实现以下功能: ①在html页面输入姓名和邮箱,点击提交(这里为get) ②服务器通过解析表单内容,返回对“姓名”和“邮箱”的一个欢迎页面 1.软件准备 ①xampp 作用:提供a ...

  3. C++文件操作(转)

    C++文件操作(转) 第一个:简单,容易理解,常用:http://www.cnblogs.com/uniqueliu/archive/2011/08/03/2126545.html 第二个:详细的,如 ...

  4. CentOS搭建pptpd服务笔记

    pptpd.rpm 包下载.http://poptop.sourceforge.net/yum/stable/packages/ 参考资料:http://www.oschina.net/questio ...

  5. postman与charles的结合使用

    1.准备charles环境 Charles端口一般配置的为8888,不知道怎么配置详见charles文档 打开charles,发现访问浏览器任意页面都是失败. 在浏览器的高级设置中设置代理服务器,以火 ...

  6. Python学习5,三级菜单实例

    _author_ = "Happyboy" data = { '北京':{ "昌平":{ "沙河":["Happyboy" ...

  7. Mac 电脑鼠标和触摸板滚动方向不一致的问题【已解决】

    当我们使用鼠标连接到 MacBook 时,会发现无论怎么设置,鼠标和触摸板的滚动方向都是相反的,导致不能同时使用鼠标和触摸板 解决方法: 我安装了下面的程序,它只允许您反转鼠标的滚动行为: Scrol ...

  8. [类和对象]3 C++面向对象模型初探

    ? C++编译器如何完成面向对象理论到计算机程序的转化? [C++编译器是如何管理类.对象.类和对象之间的关系] 通过下面的代码,我们可以的得出:C++类对象中的成员变量和成员函数是分开存储的 成员变 ...

  9. HDU 4758 Walk Through Squares( AC自动机 + 状态压缩DP )

    题意:给你两个串A,B, 问一个串长为M+N且包含A和B且恰好包含M个R的字符串有多少种组合方式,所有字符串中均只含有字符L和R. dp[i][j][k][S]表示串长为i,有j个R,在自动机中的状态 ...

  10. Struts2+DAO层实现实例03——添加监听器跟踪用户行为

    实例说明 根据上两次的成品进行二次加工. 加入Listener,监听用户的登陆注销情况. 所用知识说明 采用SessionBindingListener对Session进行监听. 同时,Action中 ...