用Python编写博客导出工具
CC 许可,转载请注明出处
 

写在前面的话

我在 github 上用 octopress 搭建了个人博客,octopress 使用Markdown语法编写博文。之前我在CSDN博客上也写过不少的技术博文,都说自己的孩子再丑也是个宝,所以就起了把CSDN博客里面的文章导出到个人博客上的念头。刚开始想找个工具把CSDN博客导出为xml或文本,然后再把xml或文本转换为Markdown博文。可惜搜了一下现有博客导出工具,大部分要收费才能将全部博文导出为xml格式,所以就只好发明轮子了:写个工具将全部博文导出为Markdown博文(也是txt格式的)。

我将详细介绍这个工具的编写过程,希望没有学习过编程的人也能够学会一些简单的Python语法来修改这个脚本工具,以满足他们将其他类型的博客导出为文本格式。这也是我第一次学习和使用Python,所以相信我,你一定也可以将自己的博客导出为想要的文本格式。

本文源代码在这里:ExportCSDNBlog.py

考虑到大部分非程序员使用Windows系统,下面将介绍在Windows下如何编写这个工具。

下载工具

在 Windows 下安装Python开发环境(Linux/Mac下用pip安装相应包即可,程序员自己解决咯):

Python 2.7.3
请安装这个版本,更高版本的Python与一些库不兼容。
下载页面
下载完毕双击可执行文件进行安装,默认安装在C:\Python2.7。

six
下载页面 下载完毕,解压到Python安装目录下,如C:\Python2.7\six-1.8.0目录下。

BeautifulSoup 4.3.2
下载页面, 下载完毕,解压到Python安装目录下,如C:\Python2.7\BeautifulSoup目录下。

html5lib
下载页面 下载完毕,解压到Python安装目录下,如C:\Python2.7\html5lib-0.999目录下。

安装工具

Windows下启动命令行,依次进入如下目录,执行setup.py install进行安装:

C:\Python2.7\six-1.8.0>setup.py install
C:\Python2.7\html5lib-0.999>setup.py install
C:\Python2.7\BeautifulSoup>setup.py install

参考文档

Python 2.X文档
BeautifulSoup文档
正则表达式文档
正则表达式在线测试

用到的Python语法

这个工具只用到了一些基本的Python语法,如果你没有Python基础,稍微了解一下如下博文是很有好处的。

编写博客导出工具

分析

首先来分析这样一个工具的需求:

导出所有CSDN博客文章为Markdown文本。

这个总需求其实可以分两步来做:

* 获得CSDN博客文章
* 将文章转换为Markdown文本

针对第一步:如何获取博客文章呢?

打开任何一个CSDN博客,我们都可以看到下方的页面导航显示“XXX条数据 共XXX页 1 2 3 … 尾页”,我们从这个地方入手考虑。每个页面上都会显示属于该页的文章标题及文章链接,如果我们依次访问这些页面链接,就能从每个页面链接中找出属于该页面的文章标题及文章链接。这样所有的文章标题以及文章链接就都获取到了,有了这些文章链接,我们就能获取对应文章的html内容,然后通过解析这些html页面来生成相应Markdown文本了。

实现

从上面的分析可以看出,首先我们需要根据首页获取所有的页面链接,然后遍历每一个页面链接来获取文章链接。

  • 获取页面链接的代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
   def getPageUrlList(url):
# 获取所有的页面的 url
request = urllib2.Request(url, None, header)
response = urllib2.urlopen(request)
data = response.read() #print data
soup = BeautifulSoup(data) lastArticleHref = None
pageListDocs = soup.find_all(id="papelist")
for pageList in pageListDocs:
hrefDocs = pageList.find_all("a")
if len(hrefDocs) > 0:
lastArticleHrefDoc = hrefDocs[len(hrefDocs) - 1]
lastArticleHref = lastArticleHrefDoc["href"].encode('UTF-8') if lastArticleHref == None:
return [] #print " > last page href:" + lastArticleHref
lastPageIndex = lastArticleHref.rfind("/")
lastPageNum = int(lastArticleHref[lastPageIndex+1:])
urlInfo = "http://blog.csdn.net" + lastArticleHref[0:lastPageIndex] pageUrlList = []
for x in xrange(1, lastPageNum + 1):
pageUrl = urlInfo + "/" + str(x)
pageUrlList.append(pageUrl)
log(" > page " + str(x) + ": " + pageUrl) log("total pages: " + str(len(pageUrlList)) + "\n")
return pageUrlList

参数 url = “http://blog.csdn.net/” + username,即你首页的网址。通过urllib2库打开这个url发起一个web请求,从response中获取返回的html页面内容保存到data中。你可以被注释的 print data 来查看到底返回了什么内容。

有了html页面内容,接下来就用BeautifulSoup来解析它。BeautifulSoup极大地减少了我们的工作量。我会详细在这里介绍它的使用,后面再次出现类似的解析就会从略了。soup.find_all(id=“papelist”) 将会查找html页面中所有id=“papelist”的tag,然后返回包含这些tag的list。对应 CSDN 博文页面来说,只有一处地方:

1
2
3
4
5
6
7
8
9
10
11
<div id="papelist" class="pagelist">
<span> 236条数据 共12页</span>
<strong>1</strong>
<a href="/kesalin/article/list/2">2</a>
<a href="/kesalin/article/list/3">3</a>
<a href="/kesalin/article/list/4">4</a>
<a href="/kesalin/article/list/5">5</a>
<a href="/kesalin/article/list/6">...</a>
<a href="/kesalin/article/list/2">下一页</a>
<a href="/kesalin/article/list/12">尾页</a>
</div>

好,我们获得了papelist 的tag对象,通过这个tag对象我们能够找出尾页tag a对象,从这个tag a解析出对应的href属性,获得尾页的编号12,然后自己拼出所有page页面的访问url来,并保存在pageUrlList中返回。page页面的访问url形式示例如下:

> page 1: http://blog.csdn.net/kesalin/article/list/1
  • 根据page来获取文章链接的代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
   def getArticleList(url):
# 获取所有的文章的 url/title
pageUrlList = getPageUrlList(url) articleListDocs = [] strPage = " > parsing page {0}"
pageNum = 0
global gRetryCount
for pageUrl in pageUrlList:
retryCount = 0
pageNum = pageNum + 1
pageNumStr = strPage.format(pageNum)
print pageNumStr while retryCount <= gRetryCount:
try:
retryCount = retryCount + 1
time.sleep(1.0) #访问太快会不响应
request = urllib2.Request(pageUrl, None, header)
response = urllib2.urlopen(request)
data = response.read().decode('UTF-8') #print data
soup = BeautifulSoup(data) topArticleDocs = soup.find_all(id="article_toplist")
articleDocs = soup.find_all(id="article_list")
articleListDocs = articleListDocs + topArticleDocs + articleDocs
break
except Exception, e:
print "getArticleList exception:%s, url:%s, retry count:%d" % (e, pageUrl, retryCount)
pass artices = []
topTile = "[置顶]"
for articleListDoc in articleListDocs:
linkDocs = articleListDoc.find_all("span", "link_title")
for linkDoc in linkDocs:
#print linkDoc.prettify().encode('UTF-8')
link = linkDoc.a
url = link["href"].encode('UTF-8')
title = link.get_text().encode('UTF-8')
title = title.replace(topTile, '').strip()
oneHref = "http://blog.csdn.net" + url
#log(" > title:" + title + ", url:" + oneHref)
artices.append([oneHref, title]) log("total articles: " + str(len(artices)) + "\n")
return artices

从第一步获得所有的page链接保存在pageUrlList中,接下来就根据这些page 页面来获取对应page的article链接和标题。关键代码是下面这三行:

topArticleDocs = soup.find_all(id="article_toplist")
articleDocs = soup.find_all(id="article_list")
articleListDocs = articleListDocs + topArticleDocs + articleDocs

从page的html内容中查找置顶的文章(article_toplist)以及普通的文章(article_list)的tag对象,然后将这些tag保存到articleListDocs中。

article_toplist示例:(article_list的格式是类似的)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
<div id="article_toplist" class="list">
<div class="list_item article_item">
<div class="article_title">
<span class="ico ico_type_Original"></span>
<h1>
<span class="link_title">
<a href="/kesalin/article/details/10474007">
<font color="red">[置顶]</font>
招聘:有兴趣做一个与Android对等的操作系统么?
</a>
</span>
</h1>
</div>
... ...
</div>
... ...
</div>

然后遍历所有的保存到articleListDocs里的tag对象,从中解析出link_title的span tag对象保存到linkDocs中;然后从中解析出链接的url和标题,这里去掉了置顶文章标题中的“置顶”两字;最后将url和标题保存到artices列表中返回。artices列表中的每一项内容示例:

title:招聘:有兴趣做一个与Android对等的操作系统么?
url:http://blog.csdn.net/kesalin/article/details/10474007

  • 根据文章链接获取文章html内容并解析转换为Markdown文本
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
   def download(url, output):
# 下载文章,并保存为 markdown 格式
log(" >> download: " + url) data = None
title = ""
categories = ""
content = ""
postDate = datetime.datetime.now() global gRetryCount
count = 0
while True:
if count >= gRetryCount:
break
count = count + 1
try:
time.sleep(2.0) #访问太快会不响应
request = urllib2.Request(url, None, header)
response = urllib2.urlopen(request)
data = response.read().decode('UTF-8')
break
except Exception,e:
exstr = traceback.format_exc()
log(" >> failed to download " + url + ", retry: " + str(count) + ", error:" + exstr)
pass if data == None:
log(" >> failed to download " + url)
return #print data
soup = BeautifulSoup(data) topTile = "[置顶]"
titleDocs = soup.find_all("div", "article_title")
for titleDoc in titleDocs:
titleStr = titleDoc.a.get_text().encode('UTF-8')
title = titleStr.replace(topTile, '').strip()
#log(" >> title: " + title) manageDocs = soup.find_all("div", "article_manage")
for managerDoc in manageDocs:
categoryDoc = managerDoc.find_all("span", "link_categories")
if len(categoryDoc) > 0:
categories = categoryDoc[0].a.get_text().encode('UTF-8').strip() postDateDoc = managerDoc.find_all("span", "link_postdate")
if len(postDateDoc) > 0:
postDateStr = postDateDoc[0].string.encode('UTF-8').strip()
postDate = datetime.datetime.strptime(postDateStr, '%Y-%m-%d %H:%M') contentDocs = soup.find_all(id="article_content")
for contentDoc in contentDocs:
htmlContent = contentDoc.prettify().encode('UTF-8')
content = htmlContent2String(htmlContent) exportToMarkdown(output, postDate, categories, title, content)

同前面的分析类似,在这里通过访问具体文章页面获得html内容,从中解析出文章标题,分类,发表时间,文章内容信息。然后把这些内容传递给函数exportToMarkdown,在其中生成相应的Markdown文本文件。值得一提的是,在解析文章内容信息时,由于html文档内容有一些特殊的标签或转义符号,需要作特殊处理,这些特殊处理在函数htmlContent2String中进行。目前只导出了所有的文本内容,图片,url链接以及表格都没有处理,后续我会尽量完善这些转换。

1
2
3
4
5
6
7
8
9
10
   def htmlContent2String(contentStr):
patternImg = re.compile(r'(<img.+?src=")(.+?)(".+ />)')
patternHref = re.compile(r'(<a.+?href=")(.+?)(".+?>)(.+?)(</a>)')
patternRemoveHtml = re.compile(r'</?[^>]+>') resultContent = patternImg.sub(r'![image_mark](\2)', contentStr)
resultContent = patternHref.sub(r'[\4](\2)', resultContent)
resultContent = re.sub(patternRemoveHtml, r'', resultContent)
resultContent = decodeHtmlSpecialCharacter(resultContent)
return resultContent

目前仅仅是删除所有的html标签,并在函数decodeHtmlSpecialCharacter中转换转义字符。

  • 生成Markdown文本文件
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
   def exportToMarkdown(exportDir, postdate, categories, title, content):
titleDate = postdate.strftime('%Y-%m-%d')
contentDate = postdate.strftime('%Y-%m-%d %H:%M:%S %z')
filename = titleDate + '-' + title
filename = repalceInvalidCharInFilename(filename)
filepath = exportDir + '/' + filename + '.markdown'
log(" >> save as " + filename) newFile = open(unicode(filepath, "utf8"), 'w')
newFile.write('---' + '\n')
newFile.write('layout: post' + '\n')
newFile.write('title: \"' + title + '\"\n')
newFile.write('date: ' + contentDate + '\n')
newFile.write('comments: true' + '\n')
newFile.write('categories: [' + categories + ']' + '\n')
newFile.write('tags: [' + categories + ']' + '\n')
newFile.write('description: \"' + title + '\"\n')
newFile.write('keywords: ' + categories + '\n')
newFile.write('---' + '\n\n')
newFile.write(content)
newFile.write('\n')
newFile.close()

生成Markdown文本文件就很简单了,在这里我需要生成github page用的Markdown博文形式,所以内容如此,你可以根据你的需要修改为其他形式的文本内容。

用Python编写博客导出工具的更多相关文章

  1. 博客导出工具(C++实现,支持sina,csdn,自定义列表)

    操作系统:windowAll 编程工具:visual studio 2013 编程语言:VC++ 最近博文更新的较频繁,为了防止账号异常引起csdn博文丢失,所以花了点时间做了个小工具来导出博文,用做 ...

  2. CSDN博客导出工具 Mac By Swift

    写这篇文章的主要目的是了解Swift语言本身,如何以及Objc和第三方交互框架 必须先用CSDN帐户登录.您可以导出所有的博客文章,加入YAML当首标信息,包括对应标签和分类在头制品信息,和底座式(原 ...

  3. BlogPublishTool - 博客发布工具

    BlogPublishTool - 博客发布工具 这是一个发布博客的工具.本博客使用本工具发布. 本工具源码已上传至github:https://github.com/ChildishChange/B ...

  4. 多平台博客发布工具OpenWrite的使用

    1 介绍 OpenWrite官网 OpenWrite是一款便捷的多平台博客发布工具,可以在OpenWrite编写markdown文档,然后发布到其他博客平台,目前已经支持CSDN.SegmentFau ...

  5. 原创翻译-值得关注的10个python语言博客

    原文链接 原文链接的网页感觉网络不是很好,不容易上.我在这里就给大家做个翻译吧. 大家好,还记得我当时学习python的时候,我一直努力地寻找关于python的博客,但我发现它们的数量很少.这也是我建 ...

  6. 值得关注的10个python语言博客(转)

    大家好,还记得我当时学习python的时候,我一直努力地寻找关于python的博客,但我发现它们的数量很少.这也是我建立这个博客的原因,向大家分享我自己学到的新知识.今天我向大家推荐10个值得我们关注 ...

  7. python学习博客地址集合。。。

    python学习博客地址集合...   老师讲课博客目录 http://www.bootcdn.cn/bootstrap/  bootstrap cdn在线地址 http://www.cnblogs. ...

  8. 值得关注的10个python语言博客

    大家好,还记得我当时学习python的时候,我一直努力地寻找关于python的博客,但我发现它们的数量很少.这也是我建立这个博客的原因,向大家分享我自己学到的新知识.今天我向大家推荐10个值得我们关注 ...

  9. Mac端博客发布工具推荐

    引子 推荐一款好用的 Mac 端博客发布工具. 下载地址 echo 博客对接 这里以cnblog为例.接入类型为metawebblog,access point可以在cnblog的设置最下边找到,然后 ...

随机推荐

  1. s1=s1+1与s1+=1的区别

    刚看到一面试题,题目是这样的:short s1=1;s1=s1+1;有什么错?short s1=1;s1+=1;有什么错? 初看之下就是s1=s1+1和s1+=1的区别.在开发中我们基本上是使用后一种 ...

  2. JSON字符串解析

    有时保存在数据库的数据是一串json字符串,需要进行读取的时候就需要解析操作. 简单介绍两种: 1.net.sf.json.* 2.com.alibaba.fastjson.* 需要的包自行下载. 第 ...

  3. C语言打印最长字符串

    编程在一个已知的字符串中找最长单词,假定字符串中只含字母和空格,空格用来分隔不同单词. ]; printf("请输入字符串:"); fgets(p, , stdin); ; ; ; ...

  4. 异常处理和JDBC

    1.异常: 格式:try{ 要执行的可能出现异常的语句 } catch(Exception e){ 对异常进行处理的语句 }    finally{    一定会被处理的语句 //可以不写 } 当需要 ...

  5. iOS基础之网络请求相关

    1.AFNetwork二次封装方法一: #import <Foundation/Foundation.h> @interface BeeNetworkManager : NSObject ...

  6. webpack配置

    1.初始化webpack npm install webpack -g   (全局安装) npm init   (初始化packge.json) npm install webpack --save- ...

  7. Spring JdbcTemplate 调用存储过程

    遇到调用存储过程的业务,以前有用过,但不是用Spring的 JdbcTemplate去做的,这次是在一个已经有的SpringMVC框架的项目下写处理存储过程的. 参考网络中的方法,在实际操作中遇到两个 ...

  8. java的数据类型的转换

    一:java的数据类型转换除布尔类型boolean(不能转换)有两种:<一> 自动转换: <二> 强制转换 <一>.自动转换:就是将小的数据类型自动转换成大的数据类 ...

  9. Nessus导入Cookie进行Web应用安全扫描

    在不导入Cookie使用Nessus进行扫描的时候,扫描的结果是比较简单的,很多深层的问题无法被扫描出来. 需要我们手动导入Cookie,带着Cookie的状态扫描的结果会更详细更深入,以下是操作步骤 ...

  10. Redis小结

    一. Redis简介 Redis是一个速度非常快的高性能的key-value存储系统.redis的出现,很大程度补偿了memcached这类key/value存储的不足.Redis支持存储五种valu ...