Python 简单网页爬虫学习
#coding=utf-8 # 参考文章:
# 1. python实现简单爬虫功能
# http://www.cnblogs.com/fnng/p/3576154.html
# 2. Python 2.7 时间和日期模块常用的例子
# http://www.linuxidc.com/Linux/2015-06/118458.htm
# 3. Python open读写文件实现脚本
# http://www.jb51.net/article/15709.htm
# 4. python re 模块 findall 函数用法简述
# http://blog.csdn.net/cashey1991/article/details/8875213
# 5. [Python]编码声明:是coding:utf-8还是coding=urf-8呢
# http://www.xuebuyuan.com/975181.html # urllib模块提供的上层接口,使我们可以像读取本地文件一样读取www和ftp上的数据。
import urllib
import re
import datetime,time # 定义了一个getHtml()函数
def getHtml( url ):
# urllib.urlopen()方法用于打开一个URL地址。
page = urllib.urlopen( url )
# read()方法用于读取URL上的数据
html = page.read() # 返回整个网页数据
return html # 创建getImg()函数
def getImg( html ):
# ()表示所要提取的字符串,即: 图片名.jpg
reg = r'src="(.+?\.jpg)" pic_ext'
# 可以把正则表达式编译成一个正则表达式对象.
imgre = re.compile( reg )
# 读取html 中包含 imgre(正则表达式)的数据。
# 当给出的正则表达式中带有一个括号时,列表的元素为字符串,
# 此字符串的内容与括号中的正则表达式相对应(不是整个正则表达式的匹配内容)。
imglist = re.findall( imgre, html ) print "Start downloading the first five pictures" # 通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,
# 对其进行重命名,命名规则通过x变量加1。保存的位置默认为程序的存放目录。
x = 0
for imgurl in imglist:
# 用到了urllib.urlretrieve()方法,直接将远程数据下载到本地
urllib.urlretrieve( imgurl, '%s.jpg' % x )
# python不支持类似 x++ 或 x-- 这样的前置/后置自增/自减运算符,因此只能用 += 或 -= 这种。
x += 1 # 这里面的图片可能比较多,我们测试前五张就差不多了
if x == 5 :
break print "the first five pictures download completed." return imglist # 向getHtml()函数传递一个网址,并把整个页面下载下来,保存在html变量中
html = getHtml( "http://www.zengjf.org" ) # 合成要保存的文件名,由年月日、时分秒组成,以只写方式打开文件
saveFile = open( time.strftime( "%Y%m%d%H%M%S" ) + ".html", 'w' )
saveFile.write( html ) # 将html中的内容写入文件
saveFile.close( ) # 关闭文件 html = getHtml( "http://tieba.baidu.com/p/2460150866" )
print getImg( html )
Python 简单网页爬虫学习的更多相关文章
- Python简单网页爬虫——极客学院视频自动下载
http://blog.csdn.net/supercooly/article/details/51003921
- (一)python 简单网页爬虫
1.基于window环境,使用的工具是 Anaconda 下载地址 https://www.anaconda.com/download/ 2.所使用的包 BeautifulSoup,用来解析html代 ...
- Python编写网页爬虫爬取oj上的代码信息
OJ升级,代码可能会丢失. 所以要事先备份. 一開始傻傻的复制粘贴, 后来实在不能忍, 得益于大潇的启示和聪神的原始代码, 网页爬虫走起! 已经有段时间没看Python, 这次网页爬虫的原始代码是 p ...
- Python简单网络爬虫实战—下载论文名称,作者信息(下)
在Python简单网络爬虫实战—下载论文名称,作者信息(上)中,学会了get到网页内容以及在谷歌浏览器找到了需要提取的内容的数据结构,接下来记录我是如何找到所有author和title的 1.从sou ...
- Selenium + PhantomJS + python 简单实现爬虫的功能
Selenium 一.简介 selenium是一个用于Web应用自动化程序测试的工具,测试直接运行在浏览器中,就像真正的用户在操作一样 selenium2支持通过驱动真实浏览器(FirfoxDrive ...
- Python动态网页爬虫-----动态网页真实地址破解原理
参考链接:Python动态网页爬虫-----动态网页真实地址破解原理
- 亲身试用python简单小爬虫
前几天基友分享了一个贴吧网页,有很多漂亮的图片,想到前段时间学习的python简单爬虫,刚好可以实践一下. 以下是网上很容易搜到的一种方法: #coding=utf-8 import urllib i ...
- nodeJS实现简单网页爬虫功能
前面的话 本文将使用nodeJS实现一个简单的网页爬虫功能 网页源码 使用http.get()方法获取网页源码,以hao123网站的头条页面为例 http://tuijian.hao123.com/h ...
- python简单页面爬虫入门 BeautifulSoup实现
本文可快速搭建爬虫环境,并实现简单页面解析 1.安装 python 下载地址:https://www.python.org/downloads/ 选择对应版本,常用版本有2.7.3.4 安装后,将安装 ...
随机推荐
- R语言基本语法
R语言基本语法 基本数据类型 数据类型 向量 vector 矩阵 matrix 数组 array 数据框 data frame 因子 factor 列表 list 向量 单个数值(标量)没有单独的数据 ...
- eclipse引入httpServlet源码
eclipse引入httpServlet源码 展开Apache Tomcat v7.0[Apache Tomcat v7.0] -> servlet-api.jar 找到 -> http ...
- jQuery获取属性
jQuery在获取jQuery对象的属性时,出现attr()获取不到的情况,此时,请使用prop()获取 如下为经常用到的: var oHtml=$(this).prop("outerHTM ...
- 工具推荐. 在线unix, 在线python/perl脚本测试环境
在线python, perl, javascript, Lisp, Ruby等 http://melpon.org/wandbox/ 正则表达式在线测试工具 http://tools.jb51.ne ...
- Flask 使用富文本输入框
模板 <script src="{{ url_for('static', filename='ckeditor/ckeditor.js') }}"></scrip ...
- Linux命令: grep命令
基本用法 ...
- 20145204Android开发基础
实验四 20145204Android开发基础 实验名称 Android开发基础 实验内容 基于Android Studio开发简单的Android应用并部署测试; 了解Android组件.布局管理器 ...
- 如何线程安全的使用HashMap
本文转自:http://www.importnew.com/21396.html 面试时被问到HashMap是否是线程安全的,如何在线程安全的前提下使用HashMap,其实也就是HashMap,Has ...
- http://www.artrobot.com/北京钢铁侠
http://www.artrobot.com/ 钢铁侠ROS智能机器人 钢铁侠ROS智能机器人 型号 ARTrobot-ROS 产品图片: 产品概述: ARTrobot-ROS全开放机器人套件服 ...
- 原生DOM操作vs框架虚拟DOM比较
1. 原生 DOM 操作 vs. 通过框架封装操作. 这是一个性能 vs. 可维护性的取舍.框架的意义在于为你掩盖底层的 DOM 操作,让你用更声明式的方式来描述你的目的,从而让你的代码更容易维护.没 ...