1. #coding: utf-8
  2. #title..href...
  3. str0='blabla<a title="《论电影的七个元素》——关于我对电影的一些看法以及《后会无期》的一些消息" target="_blank" href="http://blog.sina.com.cn/s/blog_4701280b0102eo83.html">《论电影的七个元素》——关于我对电…</a>'
  4. import urllib.request
  5. import time
  6. url=['']*350
  7. page=1
  8. link=1
  9. while page<=7:
  10. con=urllib.request.urlopen('http://blog.sina.com.cn/s/articlelist_1191258123_0_'+str(page)+'.html').read().decode('utf-8')
  11. #print('con',con)
  12. title=con.find(r'<a title=')
  13. href=con.find(r'href=',title)
  14. html=con.find(r'.html',href)
  15. i=0
  16. while i<=50 and title!=-1 and href!=-1 and html!=-1: #没找到时返回-1
  17. url[page*50-50+i]=con[href+6:html+5]
  18. #print('con',con)
  19. title=con.find(r'<a title=',html)
  20. href=con.find(r'href=',title)
  21. html=con.find(r'.html',href)
  22. print(link,'.',url[page*50-50+i])
  23. i=i+1
  24. link=link+1
  25. else:
  26. print('one page find end!')
  27. page=page+1
  28. else:
  29. print('all pages find end')
  30.  
  31. j=0
  32. while j<350:
  33. content=urllib.request.urlopen(url[j]).read().decode('utf-8')
  34. open(r'hanhan/'+url[j][-26:],'w+').write(content)
  35. print('donwloading ',j,' page:',url[j])
  36. j=j+1
  37. time.sleep(0.1)
  38. else:
  39. print('download article finished')
  40.  
  41. #r 以只读方式打开文件,该文件必须存在。
  42. #r+ 以可读写方式打开文件,该文件必须存在。
  43. #rb+ 读写打开一个二进制文件,允许读写数据,文件必须存在。
  44. #w 打开只写文件,若文件存在则文件长度清为0,即该文件内容会消失。若文件不存在则建立该文件。
  45. #w+ 打开可读写文件,若文件存在则文件长度清为零,即该文件内容会消失。若文件不存在则建立该文件。
  46. #a 以附加的方式打开只写文件。若文件不存在,则会建立该文件,如果文件存在,写入的数据会被加到文件尾,即文件原先的内容会被保留。(EOF符保留)
  47. #a+ 以附加方式打开可读写的文件。若文件不存在,则会建立该文件,如果文件存在,写入的数据会被加到文件尾后,即文件原先的内容会被保留。 (原来的EOF符不保留)
  48. #wb 只写打开或新建一个二进制文件;只允许写数据。
  49. #wb+ 读写打开或建立一个二进制文件,允许读和写。
  50. #ab+ 读写打开一个二进制文件,允许读或在文件末追加数据。
  51. #at+ 打开一个叫string的文件,a表示append,就是说写入处理的时候是接着原来文件已有内容写入,不是从头写入覆盖掉,t表示打开文件的类型是文本文件,+号表示对文件既可以读也可以写。
  52.  
  53. #二进制和文本模式的区别
  54. #1.在windows系统中,文本模式下,文件以"\r\n"代表换行。若以文本模式打开文件,并用fputs等函数写入换行符"\n"时,函数会自动在"\n"前面加上"\r"。即实际写入文件的是"\r\n" 。
  55. #2.在类Unix/Linux系统中文本模式下,文件以"\n"代表换行。所以Linux系统中在文本模式和二进制模式下并无区别。
  56.  
  57. #打开方式总结:各种打开方式主要有三个方面的区别:
  58. ##①打开是否为二进制文件,用“b”标识。
  59. #②读写的方式,有以下几种:只读、只写、读写、追加只写、追加读写这几种方式。
  60. #③对文件是否必须存在、以及存在时是清空还是追加会有不同的响应。具体判断如下图。
  61.  
  62. #print('---------------------test---------------------')
  63. #title=str0.find(r'<a title')
  64. #print(title)
  65. #href=str0.find(r'href')
  66. #print(href)
  67. #html=str0.find(r'.html')
  68. #print(html)
  69. #url=str0[href+6:html+5]
  70. #print(url)
  71. #content=urllib.request.urlopen(url).read()
  72. #print(content)
  73. #filename=url[-26:] #URL最后字符串作为文件名
  74. #print(filename)
  75. #open(filename,'wb').write(content)#把读到的内容写入到本地文件中
  1. 今天来讲如何利用Python爬虫下载文章,拿韩寒的博客为例来一步一步进行详细探讨。。。
  2.  
  3. 韩寒的博客地址是:http://blog.sina.com.cn/s/articlelist_1191258123_0_1.html
  4.  
  5. 可以看出左边是文章列表,而且不止一页,我们先从最简单的开始,先对一篇文章进行下载,再研究对一页所有的文
  6. 章进行下载,最后再研究对所有的文章下载。
  7.  
  8. 第一步:对一篇文章下载
  9.  
  10. 我们打开韩寒的博客,然后查看源码,可以看出每一篇文章的列表源码为:
  11. <span class="atc_title"><a title="东望洋" target="_blank"
  12. href="http://blog.sina.com.cn/s/blog_4701280b0102eck1.html">东望洋</a></span>
  13.  
  14. 我们主要是想提取出中间绿色部分的URL,然后找到这篇文章的正文进行分析,然后提取进行下载。首先,假
  15. 设已经得到这个字符串,然后研究如何提取这个URL,观察发现,对于所有的这类字符串,都有一个共同点,那
  16. 就是都含有子串'<a title=''href=''.html',那么我们可以用最笨的方式---查找子串进行定界。
  17.  
  18. Python中有一个方法叫做find(),是用来查找子串的,返回子串出现的位置,那么,可以用如下代码来提
  19. URL,并读取文件和下载文件。
  20.  
  21. [python] view plaincopyCODE上查看代码片派生到我的代码片
  22. #encoding:utf-8
  23. import urllib2
  24.  
  25. def getURL(str):
  26. start = str.find(r'href=')
  27. start += 6
  28. end = str.find(r'.html')
  29. end += 5
  30. url = str[start : end]
  31. return url
  32.  
  33. def getContext(url):
  34. text =urllib2.urlopen(url).read()
  35. return text
  36.  
  37. def StoreContext(url):
  38. content = getContext(url)
  39. filename = url[-20:]
  40. open(filename, 'w').write(content)
  41.  
  42. if __name__ == '__main__':
  43. str = '<span class="atc_title"><a title="东望洋" target="_blank" href="http://blog.sina.com.cn/s/blog_4701280b0102eck1.html">东望洋</a></span>'
  44. url = getURL(str)
  45. StoreContext(url)
  46.  
  47. 第二,三步:下载所有的文章
  48.  
  49. 在这一步中,我们要提取第一页所有的文章的URL和标题,不再采用上面第一步的find()函数,毕竟这个函数
  50. 缺乏灵活性,那么采用正则表达式最好。
  51.  
  52. 首先采集数据,观察发现,所有文章的URL都符合
  53.  
  54. <a title="..." target="_blank" href="http://blog.sina.com.cn....html">
  55.  
  56. 这一规则,所以我们可以设置正则表达式
  57.  
  58. r'<a title=".+" target="_blank" href="(http://blog.sina\.com\.cn.+\.html)">'
  59.  
  60. 这样就容易了,下面是爬取韩寒所有文章,并在本地保存为.html文件。
  61.  
  62. 代码:
  63. [python] view plaincopyCODE上查看代码片派生到我的代码片
  64. #coding:utf-8
  65. import re
  66. import urllib2
  67.  
  68. def getPageURLs(url):
  69. text = urllib2.urlopen(url).read()
  70. pattern = r'<a title=".+" target="_blank" href="(http://blog.sina\.com\.cn.+\.html)">'
  71. regex = re.compile(pattern)
  72. urlList = re.findall(regex,text)
  73. return urlList
  74.  
  75. def getStore(cnt,url):
  76. text = urllib2.urlopen(url)
  77. context = text.read();
  78. text.close()
  79. filename = 'HanhanArticle/'+str(cnt) + '.html'
  80. f = open(filename,'w')
  81. f.write(context)
  82. f.close()
  83.  
  84. def getAllURLs():
  85. urls = []
  86. cnt = 0
  87. for i in xrange(1,8):
  88. urls.append('http://blog.sina.com.cn/s/articlelist_1191258123_0_'+str(i)+'.html')
  89. for url in urls:
  90. tmp = getPageURLs(url)
  91. for i in tmp:
  92. cnt += 1
  93. getStore(cnt,i)
  94.  
  95. if __name__ == '__main__':
  96. getAllURLs()
  97.  
  98. 由于我把文章的标题用一个数字来命名,似乎不是很完美,还有两个问题没有解决,怎么提取文章的标题?,这是涉
  99. 及到中文提取,怎么把文章的内容提取出来保存为txt格式的文件?
  100.  
  101. 如果能解决上面的两个问题,那么才算是真正地用网络爬虫技术实现了对韩寒博客的下载。
  102.  
  103. 1)提取文章的标题
  104.  
  105. 为了方便操作,我们用BeautifulSoup来分析网页,对html文本我们提取title之间的内容为
  106.  
  107. <title>东望洋_韩寒_新浪博客</title>
  108.  
  109. 对这个强制转化为字符串,然后进行切片操作,大致取string[7 : -28],得到了文章的标题。
  110. [python] view plaincopyCODE上查看代码片派生到我的代码片
  111. from bs4 import BeautifulSoup
  112. import re
  113.  
  114. for i in xrange(1,317):
  115. filename = 'HanhanArticle/' + str(i) + '.html'
  116. html = open(filename,'r')
  117. soup = BeautifulSoup(html)
  118. html.close()
  119. title = soup.find('title')
  120. string = str(title)
  121. article = string[7 : -28].decode('utf-8')
  122. if article[0] != '.':
  123. print article
  124.  
  125. 但是有些标题直接的内容还需要处理,比如&lt;&lt;ONE IS ALL&gt;&gt;,本来应该解释为《ONE IS ALL
  126. 还有比如中央电视台很*很**,这里的**在文件中不能作为名称字符。
  127. [python] view plaincopyCODE上查看代码片派生到我的代码片
  128. #coding:utf-8
  129. import re
  130. import urllib2
  131. from bs4 import BeautifulSoup
  132.  
  133. def getPageURLs(url):
  134. text = urllib2.urlopen(url).read()
  135. pattern = r'<a title=".+" target="_blank" href="(http://blog.sina\.com\.cn.+\.html)">'
  136. regex = re.compile(pattern)
  137. urlList = re.findall(regex,text)
  138. return urlList
  139.  
  140. def getStore(title,url):
  141. text = urllib2.urlopen(url)
  142. context = text.read();
  143. text.close()
  144. filename = 'HanhanArticle/'+ title + '.html'
  145. f = open(filename,'w')
  146. f.write(context)
  147. f.close()
  148.  
  149. def getTitle(url):
  150. html = urllib2.urlopen(url).read()
  151. soup = BeautifulSoup(html)
  152. title = soup.find('title')
  153. string = str(title)
  154. return string[7 : -28]
  155.  
  156. def Judge(title):
  157. lens = len(title)
  158. for i in xrange(0,lens):
  159. if title[i] == '*':
  160. return False
  161. return True
  162.  
  163. def getAllURLs():
  164. urls = []
  165. for i in xrange(1,8):
  166. urls.append('http://blog.sina.com.cn/s/articlelist_1191258123_0_'+str(i)+'.html')
  167. for url in urls:
  168. tmp = getPageURLs(url)
  169. for i in tmp:
  170. title = getTitle(i).decode('utf-8')
  171. print title
  172. if title[0] != '.' and Judge(title):
  173. getStore(title,i)
  174.  
  175. if __name__ == '__main__':
  176. getAllURLs()
  177.  
  178. 提取正文部分后续再处理。。。

利用Python编写网络爬虫下载文章的更多相关文章

  1. python实现网络爬虫下载天涯论坛帖子

    最近发现天涯论坛是一个挺有意思的网站,有各种乱七八糟的帖子足以填补无聊时候的空虚感,但是相当不爽的一件事就是天涯的分页模式下想连贯的把楼主的内容看完实在是太心酸了,一个999页的帖子,百分之九十都是无 ...

  2. 用 Python 编写网络爬虫 笔记

    Chapter I 简介 为什么要写爬虫? 每个网站都应该提供 API,然而这是不可能的 即使提供了 API,往往也会限速,不如自己找接口 注意已知条件(robots.txt 和 sitemap.xm ...

  3. 读书笔记汇总 --- 用Python写网络爬虫

    本系列记录并分享:学习利用Python写网络爬虫的过程. 书目信息 Link 书名: 用Python写网络爬虫 作者: [澳]理查德 劳森(Richard Lawson) 原版名称: web scra ...

  4. Python 利用Python编写简单网络爬虫实例3

    利用Python编写简单网络爬虫实例3 by:授客 QQ:1033553122 实验环境 python版本:3.3.5(2.7下报错 实验目的 获取目标网站“http://bbs.51testing. ...

  5. Python 利用Python编写简单网络爬虫实例2

    利用Python编写简单网络爬虫实例2 by:授客 QQ:1033553122 实验环境 python版本:3.3.5(2.7下报错 实验目的 获取目标网站“http://www.51testing. ...

  6. Python简单网络爬虫实战—下载论文名称,作者信息(下)

    在Python简单网络爬虫实战—下载论文名称,作者信息(上)中,学会了get到网页内容以及在谷歌浏览器找到了需要提取的内容的数据结构,接下来记录我是如何找到所有author和title的 1.从sou ...

  7. Python学习网络爬虫--转

    原文地址:https://github.com/lining0806/PythonSpiderNotes Python学习网络爬虫主要分3个大的版块:抓取,分析,存储 另外,比较常用的爬虫框架Scra ...

  8. (数据科学学习手札80)用Python编写小工具下载OSM路网数据

    本文对应脚本已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 我们平时在数据可视化或空间数据分析的过程中经常会 ...

  9. Python即时网络爬虫项目: 内容提取器的定义(Python2.7版本)

    1. 项目背景 在Python即时网络爬虫项目启动说明中我们讨论一个数字:程序员浪费在调测内容提取规则上的时间太多了(见上图),从而我们发起了这个项目,把程序员从繁琐的调测规则中解放出来,投入到更高端 ...

随机推荐

  1. CF914F Substrings in a String

    Description 给你一个字符串ss,共有qq次操作,每个都是下面两种形式的一种. 11 ii cc 这个操作表示将字符串ss的第ii项变为字符cc 22 ll rr yy 这个操作表示输出字符 ...

  2. HDU-2389

    Rain on your Parade Time Limit: 6000/3000 MS (Java/Others)    Memory Limit: 655350/165535 K (Java/Ot ...

  3. z-index失效的情况

    1.父标签 position属性为relative: 2.问题标签无position属性(不包括static): 3.问题标签含有浮动(float)属性. 4.问题标签的祖先标签的z-index值比较 ...

  4. Flask 通过扩展来实现登录验证

    1. flask扩展 说明: flask的扩展类似于python中的装饰器,和Django中的process_request的方法也类似 测试代码 from flask import Flask,se ...

  5. IEDA自动清除无用的import

    Before After Step     快捷键展示格式化对话框:ctrl + shift + alt + l   格式化快捷键:ctrl + alt + l <wiz_tmp_tag id= ...

  6. Developer Express控件gridcontrol中gridView的某一个单元格是否可以自由输入

    场景:在Developer Express控件gridcontrol中的gridView中,当医生开的临时医嘱的医嘱类型为"中草药","计价总量"单元格不可以自 ...

  7. LCA上的RMQ模板算法

    How far away ? Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Others)To ...

  8. shell读取nginx配置文件中nginx的端口

    #!/bin/shport=`nl /usr/local/openresty/nginx/conf/nginx.conf | sed -n '/listen/p' | awk 'NR==1{print ...

  9. 按书上的例子,写了个长的go代码

    用于实现快速排序和冒泡排序的东东. 包括了蛮多东西的实现,输入输出,字符串处理等.... bubblesort.go package bubblesort func BubbleSort(values ...

  10. webpy 调试

    服务器在运行过程中,没办法获得变量的值,就难以发现问题出在什么地方而进行调试