今天看着有个很吸引人的小说作品信息:一家只在深夜开门营业的书屋,欢迎您的光临.作为东野奎吾<深夜食堂>漫画的fans,看到这个标题按捺不住我的好奇心........ 所以我又抓下来了,总共52章,下面有源码,写的有点乱哦,凑合看看,关键看结果,@~@.... 代码写完,几秒钟就抓取下来,比下载效率高不少,小激动~~~~~~ readme>>>环境python2,我的python2还有多长寿命:其他內库依赖见代码体现 # coding:utf-8 from multiproce…
心血来潮,想研究下爬虫,爬点小说. 通过百度选择了个小说网站,随便找了一本小书http://www.23us.so/files/article/html/13/13655/index.html. 1.分析html规则 思路是获取小说章节目录,循环目录,抓取所有章节中的内容,拼到txt文本中.最后形成完本小说. 1.获取小说章节目录 通过分析,我在标注的地方获取小说名字及章节目录. <meta name="keywords" content="无疆,无疆最新章节,无疆全文…
心血来潮,想爬点小说.通过百度选择了个小说网站,随便找了一本小说http://www.23us.so/files/article/html/13/13655/index.html. 1.分析html规则 思路是获取小说章节目录,循环目录,抓取所有章节中的内容,拼到txt文本中.最后形成完本小说. 1.获取小说章节目录 通过分析,我在标注的地方获取小说名字及章节目录. <meta name="keywords" content="无疆,无疆最新章节,无疆全文阅读"…
Python抓取小说 前言 这个脚本命令MAC在抓取小说写,使用Python它有几个码. 代码 # coding=utf-8 import re import urllib2 import chardet import sys from bs4 import BeautifulSoup import codecs class Spider(): def __init__(self): self.aTag=re.compile("<a href=\"(http://www.44pq…
用scrapy建立一个project,名字为Spider scrapy startproject Spider 因为之前一直用的是电脑自带的python版本,所以在安装scrapy时,有很多问题,也没有装成功,所以就重新给本机安装了一个python3.+,然后安装scrapy和其他的库.新建的Spider文件夹结构如图 其中Spider.py 是spider程序代码 items.py 文件中定义一些字段,这些字段用来临时存储你需要保存的数据.方便后面保存数据到其他地方,比如数据库 或者 本地文本…
抓取页面数据的时候,有时候我们需要登陆才可以获取页面资源,那么我们需要登陆以后才可以跳转到对应的资源页面,那么我们需要通过模拟登陆,登陆成功以后再次去抓取对应的数据. 首先我们需要通过手动方式来登陆一下,查看一下如何请求登陆 通过下图我们看到真正处理请求的页面是login.php,登陆成功以后跳转到index.php页面,下面我们来模拟一下. 代码实现 LOGIN_URL = 'http://yingxiao.chewumi.com/login.php' #请求的URL地址 DATA = {"u…
2022-03-06 23:05:11 申明:自我娱乐,对自我学习过程的总结. 正文: 环境: 系统:win10, python版本:python3.10.2, 工具:pycharm. 项目目标: 实现对单本小说的更新判断,省去人工登录浏览器看小说的繁琐操作. 如果小说内容更新了,那么自动下载你没看过的小说内容到本地,并保存为txt格式. 对项目代码封装成可单独运行在win10上的exe文件. 最终效果:都已实现.可以判断小说更新了没:更新了就下载下来:通过调整小说的已看章节数(就是你上次浏览小…
最近想看盗墓笔记,看了一下网页代码,竟然不是js防爬虫,那就用简单的代码爬下了一节: """ 爬取盗墓笔记小说-七星鲁王宫 """ from urllib.request import urlopen from bs4 import BeautifulSoup from docx import Document import os class Download(): def __init__(self): self.baseUrl = 'http…
想看小说<鬼吹灯之精绝古城>,可是网页版的好多广告,还要一页一页的翻,还无法复制,于是写了个小爬虫,保存到word里慢慢看. 代码如下: """ 爬取<鬼吹灯之精绝古城>小说 """ from selenium import webdriver import os from docx import Document class DownloadFiles(): def __init__(self): self.baseUr…
最近在研究用android和jsoup抓取小说数据,jsoup的使用可以参照http://www.open-open.com/jsoup/;在抓纵横中文网永生这本书的目录内容时碰到了问题, 永生的书简介url http://book.zongheng.com/book/48552.html中,我要抓取 <a class="button read" href="http://book.zongheng.com/showchapter/48552.html">…
前几天看到一篇博文:C# 爬虫 抓取小说 博主使用的是正则表达式获取小说的名字.目录以及内容. 下面使用HtmlAgilityPack来改写原博主的代码 在使用HtmlAgilityPack之前,可以先熟悉一下XPath:点我 代码如下: using System; using System.IO; using System.Text; using HtmlAgilityPack; namespace HtmlAgilityPackDemo { class Program { static vo…
使用python和tableau对数据进行抓取及可视化 本篇文章介绍使用python抓取贷款及理财平台的数据,并将数据拼接和汇总.最终通过tableau进行可视化.与之前的python爬虫文章 不同之处在于之前是一次性抓取生产数据表,本次的数据需要每天重复抓取及存储,并汇总在一起进行分析和可视化. 开始前的准备工作 开始之前先导入所需使用的库文件,各个库文件在整个抓取和拼表过程中负责不同的部分.Requests负责页面抓取,re负责从抓取下 来的页面中提取有用的信息,pandas负责拼接并生成数…
#利用requests和正则抓取猫眼电影网上排名前100的电影 import requests from requests.exceptions import RequestException import re import json from multiprocessing import Pool def get_one_page(url): try: #需要重置requests的headers,否则猫眼电影拒绝访问. headers = { "user-agent": 'Mozi…
1. 什么是Requests? Requests是用Python语言编写的,基于urllib3来改写的,采用Apache2 Licensed 来源协议的HTTP库. 它比urllib更加方便,可以节约我们大量的工作,完全满足HTTP测试需求. 一句话---Python实现的简单易用的HTTP库. 2. 什么是Beausoup? Beautiful Soup提供一些简单的.python式的函数用来处理导航.搜索.修改分析树等功能.它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以…
笔趣看小说Python3爬虫抓取 获取HTML信息 解析HTML信息 整合代码 获取HTML信息 # -*- coding:UTF-8 -*- import requests if __name__ == '__main__': target = 'http://www.biqukan.com/1_1094/5403177.html' req = requests.get(url=target) print(req.text) 解析HTML信息 提取的方法有很多,例如使用正则表达式.Xpath.…
把以前博客的东西夜迁移过来吧,这个是以前公司做的,原来放在csdn里面,先切过来. 用多进程实现的 wget多进程抓取的实现,有问题联系我 (微博:偶是周亮) #!/bin/bash url_path="-"; WGET_TIMECOUNT=; WGET_TIME=; FORK_SLEEP_TIME=; ONEURL_SLEEP_TIME=; SPIDER_PID_NUM=; function usage(){ echo "usage:spider.sh -u url_pat…
Requests比urllib更加方便,抓取有道翻译非常的简单. import requests class YouDao():     def __init__(self,parm):         # 请求表单,不需要手动urlencode         self.form_data = {}         self.form_data['type'] = 'AUTO'         self.form_data['i'] = parm         self.form_data[…
本文目的:介绍如何抓取微博内容,利用requests包+cookies实现登陆微博,lxml包的xpath语法解析网页,抓取目标内容. 所需python包:requests.lxml 皆使用pip安装即可 XPath即为XML路径语言,它是一种用来确定XML(标准通用标记语言的子集)文档中某部分位置的语言.XPath基于XML的树状结构,提供在数据结构树中找寻节点的能力. xPath 同样也支持HTML. XPath 是一门小型的查询语言,这里我们将它与 python 爬虫相结合来介绍. xpa…
python requests抓取NBA球员数据,pandas进行数据分析,echarts进行可视化 (前言) 感觉要总结总结了,希望这次能写个系列文章分享分享心得,和大神们交流交流,提升提升. 因为半桶子水的水平,一直在想写什么,为什么写,怎么写. 直到现在找到了一种好的办法: 1.写什么 自己手上掌握的,工作中经常用到的,从数据源 到 最后可视化 所有一套流程. 2.为什么写 因为很长一段时间没有进行总结和梳理了,总感觉很多东西很零散,另一方面,写写笔记也是对那些东西的一次巩固. 3.怎么写…
本文使用python的第三方模块requests爬取王者荣耀所有英雄的图片,并将图片按每个英雄为一个目录存入文件夹中,方便用作桌面壁纸 下面时具体的代码,已通过python3.6测试,可以成功运行: 对于所要爬取的网页连接可以通过王者荣耀官网找到, # -*- coding: utf-8 -*- """ Created on Wed Dec 13 13:49:52 2017 @author:KillerTwo """ import request…
上一篇多文章,是二级目录,根目录"小说",二级目录"作品名称",之后就是小说文件. 本篇改造了部分代码,将目录设置为根目录->作者目录->作品目录->作品章节.txt. 但这并不是本章内容当重点,重点是使用这个爬虫程序抓取当时候,经常会因为网络丢包等原因导致程序中断, 本来想着是循环获取网站状态,然后重新发起请求,结果好像也没什么用.然后在虫师讲selenium的书中看到了多线程,正好就实验下,结果发现,速度很快,cool! 以下代码基本摘自虫师的…
很多时候想看小说但是在网页上找不到资源,即使找到了资源也没有提供下载,小说当然是下载下来用手机看才爽快啦! 于是程序员的思维出来了,不能下载我就直接用爬虫把各个章节爬下来,存入一个txt文件中,这样,一部小说就爬下来啦. 这一次我爬的书为<黑客>,一本网络小说,相信很多人都看过吧,看看他的代码吧. 代码见如下: import re import urllib.request import time # root = 'http://www.biquge.com.tw/3_3542/' # 伪造…
  这种乱码现象基本上都是编码造成的,我们要转到我们想要的编码,先po一个知识点,嵩天老师在Python网络爬虫与信息提取说到过的:response.encoding是指从HTTP的header中猜测的响应内容编码方式,如果header中不存在charset,则默认编码为ISO-8859-1 ,这样一来某些不规范的服务器返回就必然乱码了:response.apparent_encoding是指从内容中分析出的响应内容编码方式.requests内部的 utils 也提供了一个从返回 body 获取…
前言 首先先介绍一下Jsoup:(摘自官网) jsoup is a Java library for working with real-world HTML. It provides a very convenient API for extracting and manipulating data, using the best of DOM, CSS, and jquery-like methods. Jsoup俗称“大杀器”,具体的使用大家可以看 jsoup中文文档 代码编写 首先mav…
requests+正则表达式抓取猫眼电影top100 一.首先我们先分析下网页结构 可以看到第一页的URL和第二页的URL的区别在于offset的值,第一页为0,第二页为10,以此类推. 二.<dd>标签的结构(含有电影相关信息) 三.源代码 import requests import re import json from requests.exceptions import RequestException #获取页面源代码 def get_one_page(url,headers):…
Web抓取Web站点使用HTML描述,这意味着每个web页面是一个结构化的文档.有时从中 获取数据同时保持它的结构是有用的.web站点不总是以容易处理的格式, 如 csv 或者 json 提供它们的数据. 这正是web抓取出场的时机.Web抓取是使用计算机程序将web页面数据进行收集 并整理成所需格式,同时保存其结构的实践. lxml和Requestslxml(http://lxml.de/)是一个优美的扩展库,用来快速解析XML以及HTML文档 即使所处理的标签非常混乱.我们也将使用 Requ…
本篇文章是使用python抓取数据的第一篇,使用requests+BeautifulSoup的方法对页面进行抓取和数据提取.通过使用requests库对链家网二手房列表页进行抓取,通过BeautifulSoup对页面进行解析,并从中获取房源价格,面积,户型和关注度的数据. 准备工作 首先是开始抓取前准备工作,导入需要使用的库文件,这里主要使用的是requests和BeautifulSoup两个.Time库负责设置每次抓取的休息时间.这里并非全部,后续还会在过程中导入新的库. 抓取列表页 开始抓取…
本章学习内容:将网站上的小说都爬下来,存储到本地. 目标网站:www.cuiweijuxs.com 分析页面,发现一共4步:从主页进入分版打开分页列表.打开分页下所有链接.打开作品页面.打开单章内容. 所以实现步骤如下: 1.进入分版页面,www.cuiweijuxs.com/jingpinxiaoshuo/ 找到最大分页数 <a href="http://www.cuiweijuxs.com/jingpinxiaoshuo/5_122.html" class="las…
python+requests抓取猫眼中上映电影,re正则匹配获取对应电影的排名,图片地址,片名,主演及上映时间和评分 import requests import re, json def get_html(url): """ 获取网页html源码 :return: """ user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) " \ "AppleWebKi…
因为进程也不是越多越好,我们计划分3个进程执行.意思就是 :把总共要抓取的28页分成三部分. 怎么分呢? # 初始range r = range(1,29) # 步长 step = 10 myList = [r[x:x+step] for x in range(0,len(r),step)] print(myList) # [range(1, 11), range(11, 21), range(21, 29)] 看上面代码,我们就把1~29分成了三部分,list里三个range. 2.还记得我们…