Python爬虫——用BeautifulSoup、python-docx爬取廖雪峰大大的教程为word文档
版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com
廖雪峰大大贡献的教程写的不错,写了个爬虫把教程保存为word文件,供大家方便下载学习:http://pan.baidu.com/s/1o7InnQE
运行环境:python 2.7、beautifulsoup4、python-docx 0.8.6,Python爬虫源代码如下:
# -*- coding:utf-8 -*-
__author__ = 'zhengbiqing 460356155@qq.com'
from bs4 import BeautifulSoup
from urllib import urlopen,urlretrieve
import re
from collections import OrderedDict
from docx import Document
from docx.shared import Inches
import docx
import os
import time
import sys
from PIL import Image baseUrl = 'http://www.liaoxuefeng.com'
#python
#firstPageUrl = '/wiki/001374738125095c955c1e6d8bb493182103fac9270762a000'
#git
#firstPageUrl = '/wiki/0013739516305929606dd18361248578c67b8067c8c017b000'
#javascript
firstPageUrl = '/wiki/001434446689867b27157e896e74d51a89c25cc8b43bdb3000' INDENT = 8
TMP_IMG_NAME = 'tmpimg.jpg'
A4_WIDTH = 590
A4_WIDTH_INCH = 6
PAGE_OPEN_DELAY = 1 #保存目录信息的有序字典
content = OrderedDict() def writePage( url, indentNum, doc ):
'''
保存一个html页面
:param url: 页面地址
:param indentNum: 目录项缩进量,形成层次性的目录结构
:param doc: 指向保存到的word文件
:return:
'''
bsObj = BeautifulSoup( urlopen( url ), 'lxml' )
#找到章节标题,并保存
title = bsObj.find( 'div', class_="x-content" ).find( 'h4' )
doc.add_heading( title.get_text(), int(indentNum) )
#找到文章内容主体,得到每一个p标签,遍历每个p标签
pageContent = bsObj.find( 'div', class_="x-wiki-content" )
pages = pageContent.findAll( 'p' ) for page in pages:
#对img标签,得到图片并保存到word文件
imgs = page.findAll( 'img' )
for img in imgs:
imgUrl = baseUrl + img['src'] if img['src'].startswith( '/') else img['src']
urlretrieve( imgUrl, TMP_IMG_NAME )
pic = Image.open( TMP_IMG_NAME )
if (pic.size)[0] > A4_WIDTH:
doc.add_picture( TMP_IMG_NAME, width = Inches(A4_WIDTH_INCH) )
else:
doc.add_picture( TMP_IMG_NAME )
#保存文字
doc.add_paragraph( page.get_text() )
#添加分页
doc.add_page_break() def writeContent( url, doc ):
'''
得到目录信息,并保存为word文件目录,但未实现链接跳转功能,python-docx的该功能在开发中
:param url: 目录信息业html页面地址
:param doc: 指向保存到的word文件
:return:
'''
html = urlopen( url )
bsObj = BeautifulSoup( html, 'lxml' )
#找到符合一定特征的目录项
contentList = bsObj.findAll( 'li', { 'style': re.compile( '^margin-left.*' ), 'id': not None } ) for contentItem in contentList:
contentLink = contentItem.find( 'a' )
#得到目录项的缩进数,表征了目录项的层次
indent = re.findall( '\d+', contentItem['style'] )
contentStr = ' '* INDENT * int( indent[0] ) + contentLink.string
#避免重复的目录项
if contentStr not in content:
#目录信息,包括标题、链接、缩进
content[contentStr] = [contentLink['href'], indent[0]] doc.add_heading( u'目录', 0 )
for item,value in content.items():
#print item, value
#保存目录到word文档
doc.add_paragraph( item ) doc.add_page_break() def fileName( url ):
'''
从html中得到word文件名
'''
html = urlopen( url )
bsObj = BeautifulSoup( html, 'lxml' )
return bsObj.title.string fileName = fileName( baseUrl + firstPageUrl ) + '.doc'
document = docx.Document( fileName ) if os.path.exists( fileName ) else docx.Document() writeContent( baseUrl + firstPageUrl, document )
writePage( baseUrl + firstPageUrl, '', document ) for page in content.values():
#调试信息
print baseUrl + page[0]
writePage( baseUrl + page[0], page[1], document )
time.sleep( PAGE_OPEN_DELAY ) #调试时采用,只读几个页面
'''
for i in range( 1 ):
#调试信息
print baseUrl + content.values()[i][0]
writePage( baseUrl + content.values()[i][0], content.values()[i][1], document )
time.sleep( PAGE_OPEN_DELAY )
''' document.save( fileName ) #删除图片临时文件
try:
os.remove( TMP_IMG_NAME )
except:
print 'remove file fail'
Python爬虫——用BeautifulSoup、python-docx爬取廖雪峰大大的教程为word文档的更多相关文章
- 爬取廖雪峰的python3教程
从廖雪峰老师的python教程入门的,最近在看python爬虫,入手了一下 代码比较low,没有用到多线程和ip代理池 然后呢,由于robots.txt的限定,构建了一些user-agent,并放慢的 ...
- python爬虫实践(二)——爬取张艺谋导演的电影《影》的豆瓣影评并进行简单分析
学了爬虫之后,都只是爬取一些简单的小页面,觉得没意思,所以我现在准备爬取一下豆瓣上张艺谋导演的“影”的短评,存入数据库,并进行简单的分析和数据可视化,因为用到的只是比较多,所以写一篇博客当做笔记. 第 ...
- Python爬虫初探 - selenium+beautifulsoup4+chromedriver爬取需要登录的网页信息
目标 之前的自动答复机器人需要从一个内部网页上获取的消息用于回复一些问题,但是没有对应的查询api,于是想到了用脚本模拟浏览器访问网站爬取内容返回给用户.详细介绍了第一次探索python爬虫的坑. 准 ...
- 【python爬虫】一个简单的爬取百家号文章的小爬虫
需求 用"老龄智能"在百度百家号中搜索文章,爬取文章内容和相关信息. 观察网页 红色框框的地方可以选择资讯来源,我这里选择的是百家号,因为百家号聚合了来自多个平台的新闻报道.首先看 ...
- Python爬虫开源项目代码,爬取微信、淘宝、豆瓣、知乎、新浪微博、QQ、去哪网等 代码整理
作者:SFLYQ 今天为大家整理了32个Python爬虫项目.整理的原因是,爬虫入门简单快速,也非常适合新入门的小伙伴培养信心.所有链接指向GitHub,祝大家玩的愉快 1.WechatSogou [ ...
- Python爬虫——使用 lxml 解析器爬取汽车之家二手车信息
本次爬虫的目标是汽车之家的二手车销售信息,范围是全国,不过很可惜,汽车之家只显示100页信息,每页48条,也就是说最多只能够爬取4800条信息. 由于这次爬虫的主要目的是使用lxml解析器,所以在信息 ...
- python 爬虫proxy,BeautifulSoup+requests+mysql 爬取样例
实现思路: 由于反扒机制,所以需要做代理切换,去爬取,内容通过BeautifulSoup去解析,最后入mysql库 1.在西刺免费代理网获取代理ip,并自我检测是否可用 2.根据获取的可用代理ip去发 ...
- 23个Python爬虫开源项目代码:爬取微信、淘宝、豆瓣、知乎、微博等
来源:全球人工智能 作者:SFLYQ 今天为大家整理了23个Python爬虫项目.整理的原因是,爬虫入门简单快速,也非常适合新入门的小伙伴培养信心.所有链接指向GitHub,祝大家玩的愉快 1.Wec ...
- python爬虫入门新手向实战 - 爬取猫眼电影Top100排行榜
本次主要爬取Top100电影榜单的电影名.主演和上映时间, 同时保存为excel表个形式, 其他相似榜单也都可以依葫芦画瓢 首先打开要爬取的网址https://maoyan.com/board/4, ...
随机推荐
- gcc5.4报错对‘std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> >::~basic_string()’未定义的引用
我在编译ligra是遇到了这个问题,网上搜了一遍,发现是了原因https://gcc.gnu.org/onlinedocs/libstdc%2B%2B/manual/using_dual_abi.ht ...
- Linux 小知识翻译 - 「邮件服务器」
这次聊聊「邮件服务器」. 邮件服务器上通常会运行2个服务端软件,「SMTP服务器」和「POP服务器或者IMAP服务器」. 这2个东西,也许使用邮件客户端的人立马就明白了.因为设置邮件客户端的时候,需要 ...
- java操作elasticsearch实现查询删除和查询所有
后期博客本人都只给出代码,具体的说明在代码中也有注释. 1.查询删除 //查询删除:将查询到的数据进行删除 @Test public void test8() throws UnknownHostEx ...
- 安利一波:Adobe 2019全家桶 破解版
之前发过一篇Photoshop破解的文章,今天把笔记本换了个系统,发现之前那个amtlib.dll替换破解的方式不适用于最新版的Adobe 2019 CC系列了,刚好看到群里有大佬分享了一个全家桶,给 ...
- MVC四大筛选器—ExceptionFilter
该筛选器是在系统出现异常时触发,可以对抛出的异常进行处理.所有的ExceptionFilter筛选器都是实现自IExceptionFilter接口 public interface IExceptio ...
- hover效果的几种方式
1.改变透明度 #share_wrap a{display: inline-block;width: 48px;height: 44px;background: url(/images/finance ...
- VS code常用的几个插件
VScode是一个我最近才开始用的编辑器,在此列几个自己在用的插件,以备换机时的需要. auto close tagbeautify css/sass/scss/lessone dark themes ...
- docker学习笔记(三)-通过network理解docker,在同一网桥里搭建docker容器
创建test1 test2 两个network namespace 两个network namespace没有被启动 启动了但是有没有与network关联 创建两个veth,用于关联两个network ...
- 从 0 → 1,学习Linux该这么开始!
首先我们还是来普及以下概念,讲点虚的.现在是图形系统的天下,windows我们用了20多年.成功归功与它图形界面,你会点鼠标吗你会敲键盘吗?所以你会上网会聊天会玩游戏了.那么,0基础接触的Linux, ...
- 7.01-beautiful_soup2
# pip install beautifulsoup4 from bs4 import BeautifulSoup html_doc = """ <html> ...