从廖雪峰老师的python教程入门的,最近在看python爬虫,入手了一下

代码比较low,没有用到多线程和ip代理池

然后呢,由于robots.txt的限定,构建了一些user-agent,并放慢的爬虫的速度,起到一些效果,可能多次抓取才能完成所有文章~~~

仅供一些刚入门的同学参考一下........

用到的库及工具:(自行百度)

1.BeautifulSoup4

2.pdfkit

3.requests

4.wkhtmltopdf(需添加环境变量)

代码如下:

 # -*- coding:utf-8 -*-
 # @author:lijinxi
 # @file: __init__.py.py
 # @time: 2018/05/07

 import requests
 from bs4 import BeautifulSoup
 import pdfkit
 import time
 import os
 import re
 import  random

 class Crawel(object):
     def __init__(self):
         self.htmlTemplate = '''
             <!DOCTYPE html>
             <html lang="en">
             <head>
                 <meta charset="UTF-8">
             </head>
             <body>
             {content}
             </body>
             </html>
 '''
         # robots.txt不允许,设置请求头
         user_agent=[
             "Mozilla / 5.0(Windows NT 10.0;Win64; x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 66.0.3359.139,Safari / 537.36",
             "Mozilla / 5.0(Windows NT 10.0;Win64; x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 58.0.3029.110Safari / 537.36 Edge / 16.16299",
             " Mozilla / 5.0(WindowsNT10.0;WOW64;Trident / 7.0;LCTE;rv: 11.0) likeGecko",
             "Mozilla / 5.0(Windows NT 10.0;Win64;x64;rv: 59.0) Gecko / 20100101Firefox / 59.0",
             "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.11 TaoBrowser/2.0 Safari/536.11",
             "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER",
             "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E; QQBrowser/7.0.3698.400)",
             "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)",
             "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)"
         ]
         self.headers = {
             "Proxy-Connection": "keep-alive",
             "Pragma": "no-cache",
             "Cache-Control": "no-cache",
             "User - Agent": (user_agent[random.randint(0,len(user_agent)-1)]),
             "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
             ",
             "Accept-Encoding": "gzip, deflate, sdch",
             "Accept-Language": "zh-CN,zh;q=0.8,en-US;q=0.6,en;q=0.4",
             "Accept-Charset": "gb2312,gbk;q=0.7,utf-8;q=0.7,*;q=0.7",
             "Referer": "https: // www.liaoxuefeng.com /",
         }

     def getPageLinks(self):
         '''
         获取所有的URL集合
         :return:
         '''
         response = requests.get("https://www.liaoxuefeng.com/wiki/0014316089557264a6b348958f449949df42a6d3a2e542c000",
                                 headers=self.headers)
         bsObj = BeautifulSoup(response.text, "lxml")
         menu_list = bsObj.find("ul", {"id": "x-wiki-index", "class": "uk-nav uk-nav-side"})
         pageLinks = []
         for pageLink in menu_list.findAll("a", {"class": "x-wiki-index-item"}):
             if pageLink.attrs["href"] is not None:
                 newLink = "https://www.liaoxuefeng.com" + pageLink.attrs["href"]
                 pageLinks.append(newLink)
         return pageLinks

     def getUrlContent(self, url, file):
         '''
         解析URL,获取HTML内容
         :param url:
         :param file:保存的html 文件名
         :return:
         '''
         response = requests.get(url, headers=self.headers)
         bsObj = BeautifulSoup(response.text, "lxml")
         # 正文
         pageContent = bsObj.find("div", {"class": "x-wiki-content x-main-content"})
         # 标题
         pageTitle = bsObj.find("h4").get_text()
         # 标题放在正文之前居中显示
         center_tag = bsObj.new_tag("center")
         title_tag = bsObj.new_tag("h1")
         title_tag.string = pageTitle
         center_tag.insert(1, title_tag)
         pageContent.insert(0, center_tag)
         html = str(pageContent)
         html = self.htmlTemplate.format(content=html)
         html = html.encode("utf-8")
         with open(file, 'wb+') as f:
             f.write(html)
         return file

     def sloveImage(self, filename1, filename2):
         '''
         解决图片不能正常保存的问题
         由路径引起,尝试修改路径
         :param filename1:原始文件
         :param filename2:修改后要保存的文件
         :return:
         '''
         with open(filename1, "rb+")  as f:
             text = f.read().decode("utf-8")
             text = text.replace("data-src", "src")
         with open(filename2, "wb+") as f:
             f.write(text.encode("utf-8"))
         return filename2

     def savePdf(self, htmls, filename):
         '''
         将所有的html保存到pdf文件
         :param htmls:
         :param filename:
         :return:
         '''
         options = {
             'page-size': 'Letter',
             'margin-top': '0.75in',
             'margin-right': '0.75in',
             'margin-bottom': '0.75in',
             'margin-left': '0.75in',
             'encoding': "UTF-8",
             'custom-header': [
                 ('Accept-Encoding', 'gzip')
             ],
             'cookie': [
                 ('cookie-name1', 'cookie-value1'),
                 ('cookie-name2', 'cookie-value2'),
             ],
             'outline-depth': 10,
         }
         pdfkit.from_file(htmls, filename, options=options)

 def main():
     '''
     处理
     :return:
     '''
     start = time.time()
     crawer = Crawel()
     filename = "liaoxuefeng_blogs_python3.pdf"
     pageLinks = crawer.getPageLinks()
     htmls = []  # html文件列表
     for index, pageLink in enumerate(pageLinks):
         if index<18:
             continue
         filename1 = "index" + str(index) + ".html"
         filename2 = "indexc" + str(index) + ".html"
         crawer.getUrlContent(pageLink, filename1)
         waittime=random.randint(0,20)+20;
         time.sleep(waittime)  # 给自己留一线生机
         html = crawer.sloveImage(filename1, filename2)
         htmls.append(html)
         print("第%d页采集完成........." % index)
     crawer.savePdf(htmls, filename)
     # 移除html文件
     ''''
     rex = re.compile("^index.*\.html$")
     for i in os.listdir():
         if rex.match(i):
             os.remove(i)
             '''
     total_time = time.time() - start
     print("总共运行了%d秒" % total_time)

 if __name__ == '__main__':
     main()

 进一步完善中..........................^<>^

爬取廖雪峰的python3教程的更多相关文章

  1. Python爬虫——用BeautifulSoup、python-docx爬取廖雪峰大大的教程为word文档

    版权声明:本文为博主原创文章,欢迎转载,并请注明出处.联系方式:460356155@qq.com 廖雪峰大大贡献的教程写的不错,写了个爬虫把教程保存为word文件,供大家方便下载学习:http://p ...

  2. step2: 爬取廖雪峰博客

    #https://zhuanlan.zhihu.com/p/26342933 #https://zhuanlan.zhihu.com/p/26833760 scrapy startproject li ...

  3. 廖雪峰老师Python3教程练习整理

    1.定义一个函数quadratic(a, b, c),接收3个参数,返回一元二次方程:ax2 + bx + c = 0的两个解 # -*- coding: utf-8 -*-import mathde ...

  4. 廖雪峰Git入门教程

    廖雪峰Git入门教程  2018-05-24 23:05:11     0     0     0 https://www.liaoxuefeng.com/wiki/00137395163059296 ...

  5. 【js】【读书笔记】廖雪峰的js教程读书笔记

    最近在看廖雪峰的js教程,重温了下js基础,记下一些笔记,好记性不如烂笔头嘛 编写代码尽量使用严格模式 use strict JavaScript引擎是一个事件驱动的执行引擎,代码总是以单线程执行 执 ...

  6. 廖雪峰的java教程

    F:\教程\0-免费下载-廖雪峰 公司电脑地址: G:\学习中\廖雪峰的java教程 廖雪峰java课程地址: https://www.feiyangedu.com/category/JavaSE 0 ...

  7. 学以致用:Python爬取廖大Python教程制作pdf

    当我学了廖大的Python教程后,感觉总得做点什么,正好自己想随时查阅,于是就开始有了制作PDF这个想法. 想要把教程变成PDF有三步: 先生成空html,爬取每一篇教程放进一个新生成的div,这样就 ...

  8. git常用命令总结--廖雪峰老师Git教程命令总结

    学习了廖雪峰老师的Git教程之后的命令总结,重点关于git和远程仓库的东西. 如果没有学过,这是传送门 下面这个图很重要 一.git初始化本地仓库和配置 echo "想输入到文件的内容,一般 ...

  9. scrapy爬取微信小程序社区教程(crawlspider)

    爬取的目标网站是: http://www.wxapp-union.com/portal.php?mod=list&catid=2&page=1 目的是爬取每一个教程的标题,作者,时间和 ...

随机推荐

  1. React Native之Navigator

    移动应用很少只包含一个页面.从你添加第二个页面开始,就得考虑如何管理多个页面间的跳转了. 导航器正是为此而生.它可以管理多个页面间的跳转,也包含了一些常见的过渡动画,包括水平翻页.垂直弹出等等. Na ...

  2. 纯CSS箭头,气泡

    原文地址: CSS Triangles 演示地址:CSS Triangles Demo 原文日期: 2013年8月5日 翻译日期: 2013年8月9日 本文两种实现方式: 使用或不使用 before ...

  3. JAVA之旅(二十)—HashSet,自定义存储对象,TreeSet,二叉树,实现Comparator方式排序,TreeSet小练习

    JAVA之旅(二十)-HashSet,自定义存储对象,TreeSet,二叉树,实现Comparator方式排序,TreeSet小练习 我们继续说一下集合框架 Set:元素是无序(存入和取出的顺序不一定 ...

  4. STL:STL各种容器的使用时机详解

    C++标准程序库提供了各具特长的不同容器.现在的问题是:该如何选择最佳的容器类别?下表给出了概述. 但是其中有些描述可能不一定实际.例如:如果你需呀处理的元素数量很少,可以虎落复杂度,因为线性算法通常 ...

  5. javascript之自定义数组工具对象

    <pre name="code" class="html">/* 需求:编写一个js文件,在js文件中自定义一个数组工具对象, 该工具对象要有一个找 ...

  6. byte和长度为8的boolean数组互相转换

    由于byte是一个8位字节 所以可以用它来存放数组为8的boolean数组,这些在通信协议会经常用到.这里给出一个java代码对其互相转换的. package com.udpdemo.test2; i ...

  7. OS X 10.11 中的安全删除文件

    在 OS X 10.11 中安全倾倒垃圾桶这个功能已经被取消了.是因为 SSD 闪存硬盘的原因 . 安全删除操作并不能安全清除. 所以就直接取消了. 但是其实其实还是可以在系统内使用安全删除功能的. ...

  8. JVM 类的生命周期、类加载器

    类的加载.连接与初始化                  • 1. 加载:查找并加载类的二进制数据         • 2. 连接             – 2.1 验证:确保被加载的类的正确性   ...

  9. cat .git/config查看远端服务器信息(git的配置信息:远端服务器连接信息)

    本地git库中,查找其连接的远端服务器信息: 每个git库都会有一个配置信息文件.git/config. cat .git/config,可以看到信息如下: [core]         reposi ...

  10. 【线性代数】标准正交矩阵与Gram-Schmidt正交化

    1.标准正交矩阵 假设矩阵Q有列向量q1,q2,...,qn表示,且其列向量满足下式: 则 若Q为方阵,由上面的式子则有 我们举例说明上述概念: 2.标准正交矩阵的好处     上面我们介绍了标准正交 ...