1. #coding:utf-8
  2. #author:Blood_Zero
  3.  
  4. '''
  5. 1、获取网页信息
  6. 2、解决编码问题,通过charset库(默认不安装这个库文件)
  7. '''
  8. import urllib
  9. import urllib2
  10.  
  11. url = "http://192.168.1.135/myself/"
  12. html = urllib.urlopen(url)
  13. content = html.read()
  14. print content
  15. #如果网页中存在其他编码,就会出现乱码
  16. #print content.decode('gbk').encode('utf-8')
  17.  
  18. '''
  19. 简易获取网页信息
  20. '''
  21. #获取当前url
  22. print "当前URL:"+str(html.geturl())
  23.  
  24. #网页状态码
  25. print "当前状态码:"+str(html.code)
  26. #print "当前状态码:"+str(html.getcode())
  27.  
  28. #网站头信息
  29. print "当前头信息:\n"+str(html.headers)
  30. #print "当前头信息:\n"+str(html.info())
  31.  
  32. #获取网站编码
  33. print "当前网站使用编码:"+str(html.info().getparam("charset"))
  34.  
  35. #下载网页源码
  36. urllib.urlretrieve(url,"E:\\Python_Code\\pyTools\\url.txt")
  37.  
  38. '''
  39. 模拟浏览器访问网址
  40. '''
  41. #方法一
  42. req=urllib2.Request(url)
  43. # 添加头信息
  44. req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.2; WOW64; rv:39.0) Gecko/20100101 Firefox/39.0")
  45. req.add_header("Get",url)
  46. req.add_header("Host","192.168.1.135")
  47.  
  48. new_html = urllib2.urlopen(req)
  49. print new_html.read()
  50. print req.headers.items()
  51.  
  52. #方法二
  53. myheader={
  54. "User-Agent":"Mozilla/5.0 (Windows NT 6.2; WOW64; rv:39.0) Gecko/20100101 Firefox/39.0",
  55. "Host":"192.168.1.135",
  56. "Get":url
  57. }
  58. req1 = urllib2.Request(url,headers=myheader)
  59. new_html_1 = urllib2.urlopen(req1)
  60. print new_html_1.read()
  61. print req1.headers.items()
  62.  
  63. '''
  64. 在网页中查询指定文件
  65. '''
  66. def get_content(url):
  67. html = urllib.urlopen(url)
  68. content = html.read()
  69. html.close()
  70. return content
  71.  
  72. def get_file(self):
  73. #匹配php文件
  74. regex = r'a href=(.+?\.php)'
  75. pat=re.compile(regex)
  76.  
  77. file_code = re.findall(pat,self)
  78. print str(file_code)+"\n"
  79.  
  80. info = get_content("http://192.168.1.135/myself/SQL_Injection/")
  81. get_file(info)

Python 爬虫学习的更多相关文章

  1. python 爬虫学习<将某一页的所有图片下载下来>

    在我们日常上网浏览网页的时候,经常会看到一些好看的图片,我们就希望把这些图片保存下载,或者用户用来做桌面壁纸,或者用来做设计的素材. 我们最常规的做法就是通过鼠标右键,选择另存为.但有些图片鼠标右键的 ...

  2. python爬虫学习(1) —— 从urllib说起

    0. 前言 如果你从来没有接触过爬虫,刚开始的时候可能会有些许吃力 因为我不会从头到尾把所有知识点都说一遍,很多文章主要是记录我自己写的一些爬虫 所以建议先学习一下cuiqingcai大神的 Pyth ...

  3. python爬虫学习 —— 总目录

    开篇 作为一个C党,接触python之后学习了爬虫. 和AC算法题的快感类似,从网络上爬取各种数据也很有意思. 准备写一系列文章,整理一下学习历程,也给后来者提供一点便利. 我是目录 听说你叫爬虫 - ...

  4. Python爬虫学习:三、爬虫的基本操作流程

    本文是博主原创随笔,转载时请注明出处Maple2cat|Python爬虫学习:三.爬虫的基本操作与流程 一般我们使用Python爬虫都是希望实现一套完整的功能,如下: 1.爬虫目标数据.信息: 2.将 ...

  5. Python爬虫学习:四、headers和data的获取

    之前在学习爬虫时,偶尔会遇到一些问题是有些网站需要登录后才能爬取内容,有的网站会识别是否是由浏览器发出的请求. 一.headers的获取 就以博客园的首页为例:http://www.cnblogs.c ...

  6. Python爬虫学习:二、爬虫的初步尝试

    我使用的编辑器是IDLE,版本为Python2.7.11,Windows平台. 本文是博主原创随笔,转载时请注明出处Maple2cat|Python爬虫学习:二.爬虫的初步尝试 1.尝试抓取指定网页 ...

  7. 《Python爬虫学习系列教程》学习笔记

    http://cuiqingcai.com/1052.html 大家好哈,我呢最近在学习Python爬虫,感觉非常有意思,真的让生活可以方便很多.学习过程中我把一些学习的笔记总结下来,还记录了一些自己 ...

  8. python爬虫学习视频资料免费送,用起来非常666

    当我们浏览网页的时候,经常会看到像下面这些好看的图片,你是否想把这些图片保存下载下来. 我们最常规的做法就是通过鼠标右键,选择另存为.但有些图片点击鼠标右键的时候并没有另存为选项,或者你可以通过截图工 ...

  9. python爬虫学习笔记(一)——环境配置(windows系统)

    在进行python爬虫学习前,需要进行如下准备工作: python3+pip官方配置 1.Anaconda(推荐,包括python和相关库)   [推荐地址:清华镜像] https://mirrors ...

  10. [转]《Python爬虫学习系列教程》

    <Python爬虫学习系列教程>学习笔记 http://cuiqingcai.com/1052.html 大家好哈,我呢最近在学习Python爬虫,感觉非常有意思,真的让生活可以方便很多. ...

随机推荐

  1. Luogu4782 【模板】2-SAT 问题(2-SAT)

    模板.注意若x=y不一定是废话,x=0或x=0表示x必须为0.以及数组开2n. #include<iostream> #include<cstdio> #include< ...

  2. 【Linux】Centos配置ssh无密码登录

    [测试环境] 刚好重新做mgr就搞下吧,主要论文好长~想多做几遍再看~ master1 192.168.13.111 master2 192.168.13.112  master3  192.168. ...

  3. Twitter数据挖掘:如何使用Python分析大数据

    我们可以创建变量来存放待拉取的微博数量(即count),以及待拉取的用户(即name).然后用这两个参数调用user_timeline()函数.下面是更新后的代码(注意,在代码的顶部应该保持认证和AP ...

  4. 16 利用Zabbix完成windows监控

    点击返回:自学Zabbix之路 16 利用Zabbix完成windows监控 1.安装zabbix_agentd 1.1.下载zabbix_agentd监控客户端软件安装包(windows操作系统客户 ...

  5. LoadRunner回放乱码

    乱码的原因和服务器字符集编码相关,默认LR是gbk解码,如果服务器是utf8,那么需要改为utf8解码,这样中文就显示正常了. 通过查看源码,可以知道服务器的编码方式:<meta charset ...

  6. Git Pull Github and Gitee or Gitlab

    GitHub实战系列汇总:http://www.cnblogs.com/dunitian/p/5038719.html 缩略Code:https://www.cnblogs.com/dotnetcra ...

  7. HDU 1024 Max Sum Plus Plus (动态规划)

    HDU 1024 Max Sum Plus Plus (动态规划) Description Now I think you have got an AC in Ignatius.L's "M ...

  8. Linux网络协议栈(一)——Socket入门(1)

    转自: http://www.cnblogs.com/hustcat/archive/2009/09/17/1568738.html 1.TCP/IP参考模型为了实现各种网络的互连,国际标准化组织(I ...

  9. 20190311 Windows安装ZooKeeper

    1. 说明 记录过程中踩过的坑 1.1. 环境 本机环境:Win10 ZooKeeper版本:3.4.6 2. 安装 2.1. 下载 官网下载网址 2.2. 修改配置文件 复制conf目录下的zoo_ ...

  10. JDBC中的那些设计模式

    一.单例模式获取数据库连接 1.关于单例模式的定义 保证一个类仅有一个实例,并提供访问它的全局访问点.Java里面实现的单例是一个虚拟机的范围.因为装载类的功能时虚拟机,所以一个虚拟机在听过自己的Cl ...