1.安装wkhtmltopdf

Windows平台直接在 http://wkhtmltopdf.org/downloads.html 下载稳定版的 wkhtmltopdf 进行安装,安装完成之后把该程序的执行路径加入到系统环境 $PATH 变量中,否则 pdfkit 找不到 wkhtmltopdf 就出现错误 “No wkhtmltopdf executable found”

2.安装pdfkit

直接pip install pdfkit

pdfkit 是 wkhtmltopdf 的Python封装包

  1. import pdfkit
  2.  
  3. # 有下面3中途径生产pdf
  4.  
  5. pdfkit.from_url('http://google.com', 'out.pdf')
  6.  
  7. pdfkit.from_file('test.html', 'out.pdf')
  8.  
  9. pdfkit.from_string('Hello!', 'out.pdf')

3.合并pdf,使用PyPDF2

直接pip install PyPDF2

  1. from PyPDF2 import PdfFileMerger
  2. merger = PdfFileMerger()
  3. input1 = open("1.pdf", "rb")
  4. input2 = open("2.pdf", "rb")
  5. merger.append(input1)
  6. merger.append(input2)
  7. # 写入到输出pdf文档中
  8. output = open("hql_all.pdf", "wb")
  9. merger.write(output)

4.综合示例:

  1. # coding=utf-8
  2. import os
  3. import re
  4. import time
  5. import logging
  6. import pdfkit
  7. import requests
  8. from bs4 import BeautifulSoup
  9. from PyPDF2 import PdfFileMerger
  10.  
  11. html_template = """
  12. <!DOCTYPE html>
  13. <html lang="en">
  14. <head>
  15. <meta charset="UTF-8">
  16. </head>
  17. <body>
  18. {content}
  19. </body>
  20. </html>
  21.  
  22. """
  23.  
  24. def parse_url_to_html(url, name):
  25. """
  26. 解析URL,返回HTML内容
  27. :param url:解析的url
  28. :param name: 保存的html文件名
  29. :return: html
  30. """
  31. try:
  32. response = requests.get(url)
  33. soup = BeautifulSoup(response.content, 'html.parser')
  34. # 正文
  35. body = soup.find_all(class_="x-wiki-content")[0]
  36. # 标题
  37. title = soup.find('h4').get_text()
  38.  
  39. # 标题加入到正文的最前面,居中显示
  40. center_tag = soup.new_tag("center")
  41. title_tag = soup.new_tag('h1')
  42. title_tag.string = title
  43. center_tag.insert(1, title_tag)
  44. body.insert(1, center_tag)
  45. html = str(body)
  46. # body中的img标签的src相对路径的改成绝对路径
  47. pattern = "(<img .*?src=\")(.*?)(\")"
  48.  
  49. def func(m):
  50. if not m.group(3).startswith("http"):
  51. rtn = m.group(1) + "http://www.liaoxuefeng.com" + m.group(2) + m.group(3)
  52. return rtn
  53. else:
  54. return m.group(1)+m.group(2)+m.group(3)
  55. html = re.compile(pattern).sub(func, html)
  56. html = html_template.format(content=html)
  57. html = html.encode("utf-8")
  58. with open(name, 'wb') as f:
  59. f.write(html)
  60. return name
  61.  
  62. except Exception as e:
  63.  
  64. logging.error("解析错误", exc_info=True)
  65.  
  66. def get_url_list():
  67. """
  68. 获取所有URL目录列表
  69. :return:
  70. """
  71. response = requests.get("http://www.liaoxuefeng.com/wiki/0014316089557264a6b348958f449949df42a6d3a2e542c000")
  72. soup = BeautifulSoup(response.content, "html.parser")
  73. menu_tag = soup.find_all(class_="uk-nav uk-nav-side")[1]
  74. urls = []
  75. for li in menu_tag.find_all("li"):
  76. url = "http://www.liaoxuefeng.com" + li.a.get('href')
  77. urls.append(url)
  78. return urls
  79.  
  80. def save_pdf(htmls, file_name):
  81. """
  82. 把所有html文件保存到pdf文件
  83. :param htmls: html文件列表
  84. :param file_name: pdf文件名
  85. :return:
  86. """
  87. options = {
  88. 'page-size': 'Letter',
  89. 'margin-top': '0.75in',
  90. 'margin-right': '0.75in',
  91. 'margin-bottom': '0.75in',
  92. 'margin-left': '0.75in',
  93. 'encoding': "UTF-8",
  94. 'custom-header': [
  95. ('Accept-Encoding', 'gzip')
  96. ],
  97. 'cookie': [
  98. ('cookie-name1', 'cookie-value1'),
  99. ('cookie-name2', 'cookie-value2'),
  100. ],
  101. 'outline-depth': 10,
  102. }
  103. pdfkit.from_file(htmls, file_name, options=options)
  104.  
  105. def main():
  106. start = time.time()
  107. file_name = u"liaoxuefeng_Python3_tutorial"
  108. urls = get_url_list()
  109. for index, url in enumerate(urls):
  110. parse_url_to_html(url, str(index) + ".html")
  111. htmls =[]
  112. pdfs =[]
  113. for i in range(0,124):
  114. htmls.append(str(i)+'.html')
  115. pdfs.append(file_name+str(i)+'.pdf')
  116.  
  117. save_pdf(str(i)+'.html', file_name+str(i)+'.pdf')
  118.  
  119. print u"转换完成第"+str(i)+'个html'
  120.  
  121. merger = PdfFileMerger()
  122. for pdf in pdfs:
  123. merger.append(open(pdf,'rb'))
  124. print u"合并完成第"+str(i)+'个pdf'+pdf
  125.  
  126. output = open(u"廖雪峰Python_all.pdf", "wb")
  127. merger.write(output)
  128.  
  129. print u"输出PDF成功!"
  130.  
  131. for html in htmls:
  132. os.remove(html)
  133. print u"删除临时文件"+html
  134.  
  135. for pdf in pdfs:
  136. os.remove(pdf)
  137. print u"删除临时文件"+pdf
  138.  
  139. total_time = time.time() - start
  140. print(u"总共耗时:%f 秒" % total_time)
  141.  
  142. if __name__ == '__main__':
  143. main()

python转换html到pdf文件的更多相关文章

  1. 深入学习Python解析并解密PDF文件内容的方法

    前面学习了解析PDF文档,并写入文档的知识,那篇文章的名字为深入学习Python解析并读取PDF文件内容的方法. 链接如下:https://www.cnblogs.com/wj-1314/p/9429 ...

  2. 深入学习python解析并读取PDF文件内容的方法

    这篇文章主要学习了python解析并读取PDF文件内容的方法,包括对学习库的应用,python2.7和python3.6中python解析PDF文件内容库的更新,包括对pdfminer库的详细解释和应 ...

  3. 利用Python将多个PDF文件合并

    from PyPDF2 import PdfFileMerger import os files = os.listdir()#列出目录中的所有文件 merger = PdfFileMerger() ...

  4. 办公室文员必备python神器,将PDF文件表格转换成excel表格!

    [阅读全文] 第三方库说明 # PDF读取第三方库 import pdfplumber # DataFrame 数据结果处理 import pandas as pd 初始化DataFrame数据对象 ...

  5. python从TXT创建PDF文件——reportlab

    使用reportlab创建PDF文件电子书一般都是txt格式的,某些电子阅读器不能读取txt的文档,如DPT-RP1.因此本文从使用python实现txt到pdf的转换,并且支持生成目录,目录能够生成 ...

  6. 【转】Python 深入浅出 - PyPDF2 处理 PDF 文件

    实际应用中,可能会涉及处理 pdf 文件,PyPDF2 就是这样一个库,使用它可以轻松的处理 pdf 文件,它提供了读,割,合并,文件转换等多种操作. 文档地址:http://pythonhosted ...

  7. 利用python第三方库提取PDF文件的表格内容

    小爬最近接到一个棘手任务:需要提取手机话费电子发票PDF文件中的数据.接到这个任务的第一时间,小爬决定搜集各个地区各个时间段的电子发票文件,看看其中的差异点.粗略统计下来,PDF文件的表格框架是统一的 ...

  8. 【转】Python编程: 多个PDF文件合并以及网页上自动下载PDF文件

    1. 多个PDF文件合并1.1 需求描述有时候,我们下载了多个PDF文件, 但希望能把它们合并成一个PDF文件.例如:你下载的数个PDF文件资料或者电子发票,你可以使用python程序合并成一个PDF ...

  9. Python实现多个pdf文件合并

    背景 由于工作原因,经常需要将多个pdf文件合并后打印,有时候上网找免费合并工具比较麻烦(公司内网不能访问公网),于是决定搞个小工具. 具体实现 需要安装 PyPDF2 pip install PyP ...

随机推荐

  1. Scala从零開始:使用Intellij IDEA写hello world

    引言 在之前的文章中,我们介绍了怎样使用Scala IDE也就是eclipse中集成的Scala开发插件来进行Scala语言程序的开发,在使用了一段时间之后,发现eclipse对Scala的支持并非非 ...

  2. 记linux下rm误删bin文件的解决方式

    平常有个坏习惯,删文件为了快点,喜欢用rm xx*,删除一些关键词文件.今天为了删/bin下几个含有mix关键词的文件,使用命令rm mix*.手贱,mix和*之间多了个空格...灾难发生了!bin下 ...

  3. 识骨寻踪第十二季/全集Bones迅雷下载

    本季 Bones (2015)看点:<识骨寻踪>(FOX)2005年推出的罪案题材的电视连续剧.该剧部分内容改编自前刑侦检验官.现任该剧制作人凯丝·莱克斯出版的一系列侦探小说.Bones的 ...

  4. Caffe SSD AttributeError: 'module' object has no attribute 'LabelMap'

    caffe ssd 错误描述: AttributeError: 'module' object has no attribute 'LabelMap' SSD from caffe.proto imp ...

  5. 【转】Mysql行转换为列

    From : http://www.cnblogs.com/lhj588/archive/2012/06/15/2550392.html# 今晚需要统计数据生成简易报表,由原表格数据是单行的形式,最好 ...

  6. WEB中会话跟踪

    一.     什么叫会话跟踪 记录用户一段时间内的逻辑上相关联的不同访问请求个过程叫“会话跟踪”.通过用户在每次对服务请求时的唯一标识,可以跟踪会话. 二.     会话跟踪产生的原因 我们都知道In ...

  7. 里氏替换原则(Liskov Substitution Principle,LSP)

    肯定有不少人跟我刚看到这项原则的时候一样,对这个原则的名字充满疑惑.其实原因就是这项原则最早是在1988年,由麻省理工学院的一位姓里的女士(Barbara Liskov)提出来的. 定义1:如果对每一 ...

  8. Dapper,大规模分布式系统的跟踪系统

    概述 当代的互联网的服务,通常都是用复杂的.大规模分布式集群来实现的.互联网应用构建在不同的软件模块集上,这些软件模块,有可能是由不同的团队开发.可能使用不同的编程语言来实现.有可能布在了几千台服务器 ...

  9. SendMessage消息大全及说明

    WM_CREATE   =   &H0001     应用程序创建一个窗口     WM_DESTROY   =   &H0002     一个窗口被销毁     WM_MOVE   ...

  10. multiMap遍历方法

    /* multimap中的三种遍历方法 multimap中如果没有查找到相应元素,则返回的迭代器是依据该元素的排列顺序该键应该插入的位置 如果找不到,则方法一和方法二返回的两个迭代器应该相等 */ # ...