分享一个爬取HUST(哈理工)学生成绩的Python程序(OCR自动识别验证码)
Python版本:3.5.2
日期:2018/1/21
__Author__ = "Lance#"
# -*- coding = utf-8 -*-
from urllib import request
from urllib import parse
from http import cookiejar
from aip.ocr import AipOcr
import re
class Hust(object):
def __init__(self, stu_id, passwd):
#登录地址,验证码地址,成绩查询地址
self.__url_check = "http://jwzx.hrbust.edu.cn/academic/getCaptcha.do"
self.__url_login = "http://jwzx.hrbust.edu.cn/academic/j_acegi_security_check"
self.__url_score = "http://jwzx.hrbust.edu.cn/academic/manager/score/studentOwnScore.do"
#信息头,模拟浏览器
self.__headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:57.0) Gecko/20100101 Firefox/57.0"
}
self.__captcha = ''
#这里是自已在AI中申请到的ID和KEY
self.__APP_ID = 'xxxxxx'
self.__API_KEY = 'xxxxxx'
self.__SECRET_KEY = 'xxxxxx'
#参数信息,在浏览器中可以捕获
self.__post_data = {
"groupId": "",
"j_username": stu_id,
"j_password": passwd,
"j_captcha" : ''
}
##声明一个CookieJar对象实例
self.__cookie = cookiejar.CookieJar()
#利用HTTPCookieProcessor对象来创建cookie处理器
self.__cookieProc = request.HTTPCookieProcessor(self.__cookie)
# 通过handler来构建opener
self.__opener = request.build_opener(self.__cookieProc)
#安装使用这个opener
request.install_opener(self.__opener)
def ocr_captcha(self):
'''ocr识别验证码'''
Req = request.Request(self.__url_check, headers=self.__headers)
captcha = request.urlopen(Req).read()
#AI的接口函数
client = AipOcr(self.__APP_ID, self.__API_KEY, self.__SECRET_KEY)
res = client.basicGeneral(captcha)
self.__captcha = res['words_result'][0]['words']
def get_captcha(self):
'''得到验证码'''
return self.__captcha
def set_postdata(self):
'''设置要发送的参数,就是修改验证码'''
self.__post_data["j_captcha"] = self.__captcha
def login(self):
'''模拟登录'''
#urlencode的作用:将字符串以URL编码,用于编码处理
data = parse.urlencode(self.__post_data).encode()
Req = request.Request(self.__url_login, headers=self.__headers)
html = request.urlopen(Req, data=data)
#登录页采用的是GBK编码,这个需要注意
return html.read().decode("GBK")
def get_score(self):
'''获取到成绩信息,并用正则分解'''
Req = request.Request(self.__url_score, headers=self.__headers)
res = request.urlopen(Req).read().decode()
#解析HTML采用的正则表达式
pat = re.compile('<td>(.*?)</td>', re.S)
list = re.findall(pat, res)
#对采集到的数据进行整理
for i, con in enumerate(list):
list[i] = con.replace("\n ", "")
return list
def display(self, list):
'''显示成绩信息'''
cnt = len(list)
new_list = []
cnt -= 3
y = int(cnt / 13)
for m in range(y):
new_list.insert(m, [list[j] for j in range(3 + m * 13, 16 + m * 13)])
print("学年 学期 及格标志 分数 学分 课程名")
for item in new_list:
print("{} {} {:>5s} {:5s} {:^5s} {:^20s}".format(
item[0], item[1], item[12], item[6].replace('<span style=" color:#FF0000">', "").replace("</span>", ""),
item[7], item[3]))
if __name__ == '__main__':
cnt = 1
err_str = "输入的验证码不正确!"
#此处是自己的学号和密码
stu = Hust("xxxxxx", "xxxxxx")
while True:
stu.ocr_captcha()
print("识别到的验证码为: %s ------ " % stu.get_captcha(), end="")
stu.set_postdata()
html = stu.login()
if err_str not in html:
print("验证码正确")
break
cnt += 1
print("验证码错误,启动第%d次识别" % cnt)
print()
print("Score Info".center(70, "-"))
list = stu.get_score()
stu.display(list)
print("End".center(70, "-"))
完成效果图:

请自动忽略这个人挂科的消息,0.0
分享一个爬取HUST(哈理工)学生成绩的Python程序(OCR自动识别验证码)的更多相关文章
- [W3bsafe]分享一个爬SQL注入漏洞的工具
分享一个爬SQL注入的工具 本文转自:i春秋社区由团队核心成员若间开发把工具放到E盘的一个文件夹 他会自动生成一个文本文件 Result.txt 最大页数 自己想弄填多少就填多少关键词 注入点关键词 ...
- php中CURL技术模拟登陆抓取数据实战,抓取某校教务处学生成绩。
这两天有基友要php中curl抓取教务处成绩的源码,用于微信公众平台的开发.下面笔者只好忍痛割爱了.php中CURL技术模拟登陆抓取数据实战,抓取沈阳工学院教务处学生成绩. 首先,教务处登录需要验证码 ...
- 用Python爬虫爬取广州大学教务系统的成绩(内网访问)
用Python爬虫爬取广州大学教务系统的成绩(内网访问) 在进行爬取前,首先要了解: 1.什么是CSS选择器? 每一条css样式定义由两部分组成,形式如下: [code] 选择器{样式} [/code ...
- 用Python实现一个爬取XX大学电费通知的小脚本
内容简要 1分析网站 2简单爬取 3进阶自定义爬取 4保存进数据库 学校基础设施太差,宿舍电量过低提醒虽然贴在楼下,但是作为低头一族,经常忘记看提醒导致宿舍酣战时突然黑屏,为了避免这种尴尬的场景以及强 ...
- 用WebCollector制作一个爬取《知乎》并进行问题精准抽取的爬虫(JAVA)
简单介绍: WebCollector是一个无须配置.便于二次开发的JAVA爬虫框架(内核),它提供精简的的API.仅仅需少量代码就可以实现一个功能强大的爬虫. 怎样将WebCollector导入项目请 ...
- 一个爬取Bing每日壁纸的python脚本
1. 背景 Bing搜索每天的背景图片有些比较适合做桌面,但是有的提供下载有的不提供下载.每天去点击下载又不太方便,所以第一次学习了一下python爬虫怎么写,写的很简单. 2. 相关技术 2.1 P ...
- 开源一个爬取redmine数据的测试报告系统
背景 软件测试的最后有一道比较繁琐的工作,就是编写测试报告.手写测试报告在数据统计和分析上面要耗费比较大的事件和精力.之前工作室使用mantis管理bug缺陷.公司有内部有个系统,可以直接从manti ...
- 一个爬取https和http通用的工具类(JDK自带的URL的用法)
今天在java爬取天猫的时候因为ssl报错,所以从网上找了一个可以爬取https和http通用的工具类.但是有的时候此工具类爬到的数据不全,此处不得不说python爬虫很厉害. package cn. ...
- 一个爬取lativ诚衣网站上模特穿搭图片的爬虫
show the code: [peter@localhost savvy]$ vi lativ.py # -*- coding:utf-8 -*- import requests,lxml,os f ...
随机推荐
- The META for Mobile terminal
近来想写一些好玩的手机网页,在这里整理了一下在手机端的meta标签,以免下次忘记,再去网上搜. meta指元素可提供有关页面的元信息(meta-information),比如针对搜索引擎和更新频度的描 ...
- war包远程部署访问不到问题解决过程总结
项目完成后,先在本地ide测,用ide集成的tomcat,顺理发布,访问,然后放本地tomcat的webapp文件夹,顺理启动,访问,再放远程阿里云的tomcat的webapp文件夹,重启tomcat ...
- Visual Studio Code and local web server
It is the start of a New Year and you have decided to try Visual Studio Code, good resolution! One o ...
- ios之好用的Reachability
#import <Foundation/Foundation.h> @interface NetWorkTool : NSObject + (instancetype)shareInsta ...
- C#-Database-连接
using System.Data; using System.Data.SqlClient; //先打开两个类库文件 SqlConnection con = new SqlConnection(); ...
- #254 Find the Longest Word in a String
找出最长单词 在句子中找出最长的单词,并返回它的长度. 函数的返回值应该是一个数字. 当你完成不了挑战的时候,记得开大招'Read-Search-Ask'. 这是一些对你有帮助的资源: String. ...
- SQL Server 自动循环归档分区数据脚本
标签:SQL SERVER/MSSQL SERVER/数据库/DBA/表分区 概述 在很多业务场景下我们需要对一些记录量比较大的表进行分区,同时为了保证性能需要将一些旧的数据进行归档.在分区表很多的情 ...
- 我所理解的HTTP协议
前言 对于HTTP协议,想必大家都不陌生,在工作中经常用到,特别是针对移动端和前端开发人员来说,要获取服务端数据,基本走的网络请求都是基于HTTP协议,特别是RESTFUL + JSON 这种搭配特别 ...
- Hadoop 倒排索引
倒排索引是文档检索系统中最常用的数据结构,被广泛地应用于全文搜索引擎.它主要是用来存储某个单词(或词组)在一个文档或一组文档中存储位置的映射,即提供了一种根据内容来查找文档的方式.由于不是根据文档来确 ...
- Ajax原理与封装详解
Ajax大家每天都在用,jquery库对Ajax的封装也很完善.很好用,下面我们看一下他的内部原理,并手动封装一个自己的Ajax库. 更多有关ajax封装及数据处理,请参看上海尚学堂<Ajax中 ...