前言:不知道写什么好,绕来绕去还是写回爬虫这一块. 之前的都爬了一遍.这次爬点好用一点的网站. 0x01: 自行备好requests模块 目标站:http://tool.chinaz.com/ 0x2: 代码: import optparse import requests import re import sys from bs4 import BeautifulSoup def main(): usage="[-z Subdomain mining]" \ "[-p Si…
使用python爬取medsci上的期刊信息,通过设定条件,然后获取相应的期刊的的影响因子排名,期刊名称,英文全称和影响因子.主要过程如下: 首先,通过分析网站http://www.medsci.cn/sci的交互过程.可以使用谷歌或火狐浏览器的“审查元素-->Network”,然后就可以看到操作页面就可以看到网站的交互信息.当在网页上点击“我要查询”时,网页会发送一个POST消息给服务器,然后,服务器返回查询结果 然后,将查询到的结果使用正则表达式提取出需要的数据. 最后将提取出的数据输出到文…
python爬取当当网的书籍信息并保存到csv文件 依赖的库: requests #用来获取页面内容 BeautifulSoup #opython3不能安装BeautifulSoup,但可以安装BeautifulSoup4(pip install bs4) 此实验爬取了当当网中关于深度学习的书籍,内容包括书籍名称.作者.出版社.当前价钱.为方便,此实验只爬取搜索出来的一个页面的书籍.具体步骤如下: 1 打开当当网,搜索"深度学习",等待页面加载,获取当前网址 "http://…
原文:http://norvig.com/spell-correct.html 翻译:http://blog.youxu.info/spell-correct.html 怎样写一个拼写检查器 Peter Norvig 翻译: Eric You XU 上个星期, 我的两个朋友 Dean 和 Bill 分别告诉我说他们对 Google 的快速高质量的拼写检查工具感到惊奇. 比如说在搜索的时候键入 [speling], 在不到 0.1 秒的时间内, Google 会返回: 你要找的是不是 [spell…
(一)前言 在开始学习之前,你需要确保你对Python, JavaScript, HTML, Markdown语法有非常基础的了解.项目的源码你可以在 https://github.com/zhu-y/markdown-toolkit 找到,最后的效果会像 http://yzhu.pythonanywhere.com 展示的一样. 本文分为三个部分: Python+Flask+Gunicorn 项目实战(一) 从零开始,写一个Markdown解析器 —— 初体验 Python+Flask+Gun…
用 EPWA 写一个 图片播放器  PicturePlayer  . 有关 EPWA,见 <我发起并创立了一个 EPWA 的 开源项目>   https://www.cnblogs.com/KSongKing/p/10745935.html   , js 库 用的是  jWebForm,   见 <我发起并创立了一个 Javascript 前端库 开源项目 jWebForm>  https://www.cnblogs.com/KSongKing/p/10326119.html ,…
因为有在北京租房的打算,于是上网浏览了一下链家网站的房价,想将他们爬取下来,并保存到本地. 先看链家网的源码..房价信息 都保存在 ul 下的li 里面 ​ 爬虫结构: ​ 其中封装了一个数据库处理模块,还有一个user-agent池.. 先看mylianjia.py # -*- coding: utf-8 -*- import scrapy from ..items import LianjiaItem from scrapy.http import Request from parsel i…
0x0前言: 带来一首小歌: 之前看了小迪老师讲的课,仔细做了些笔记 然后打算将其写成一个脚本. 0x01准备: requests模块 socket模块 optparser模块 time模块 0x02笔记和思路: 笔记: 信息收集四大件 6.快速判断网站系统类型: 改一个网站后缀名文件,看它对大小写是否敏感 windows:不区分大小写 Linux:区分大小写 7.判断网站语言格式 看后缀 动态语言 疑问:伪静态该怎么判断 8.判断网站的数据库类型 端口扫描. SQL报错注入 搭建分析 以下3种…
爬取链家网站二手房房源信息,第一次做,仅供参考,要用scrapy.   import scrapy,pypinyin,requests import bs4 from ..items import LianjiaItem class LianjiaSpider(scrapy.Spider):     name = 'lianjia_dl'     allowed_domains = ['www.lianjia.com']     start_urls = []     url_0 = 'http…
今天利用xpath写了一个小爬虫,比较适合一些爬虫新手来学习.话不多说,开始今天的正题,我会利用一个案例来介绍下xpath如何对网页进行解析的,以及如何对信息进行提取的. python环境:python3.5 先看看网页的样子 豆瓣电影网站链接 我们下面将要对电影的名字.链接.评分.评价人数和一句话描述这些信息进行提取1.检查并复制电影名字的xPath信息 电影<肖申克的救赎>的xPath信息如下://*[@id=”content”]/div/div[1]/ol/li[1]/div/div[2…