import scrapy import json class TzcSpider(scrapy.Spider): # spider的名字,唯一 name = 'tzc' # 起始地址 start_urls = ['https://hr.tencent.com/position.php?keywords=python&tid=0&lid=2268'] # 每个url爬取之后会调用这个方法 def parse(self, response): tr = response.xpath( '//…
我爬取的是Python相关职位,先po上代码,(PS:本人小白,这是跟着B站教学视频学习后,老师留的作业,因为腾讯招聘的网站变动比较大,老师的代码已经无法运行,所以po上),一些想法和过程在后面. from lxml import etree import requests HEADERS = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chro…
我们先通过百度搜索智联招聘,进入智联招聘官网,一看,傻眼了,需要登录才能查看招聘信息 没办法,用账号登录进去,登录后的网页如下: 输入职位名称点击搜索,显示如下网页: 把这个URL:https://sou.zhaopin.com/?jl=765&kw=软件测试&kt=3   拷贝下来,退出登录,再在浏览器地址栏输入复制下来的URL 哈哈,居然不用登录,也可以显示搜索的职位信息.好了,到这一步,目的达成. 接下来,我们来分析下页面,打开浏览器的开发者工具,选择Network,查看XHR,重新…
测试了下,采用单进程爬取5000条数据大概需要22分钟,速度太慢了点.我们把脚本改进下,采用多进程. 首先获取所有要爬取的URL,在这里不建议使用集合,字典或列表的数据类型来保存这些URL,因为数据量太大,太消耗内存,这里,python的生成器就发挥作用了. def get_urls(total_page,cityname,jobname): ''' 获取需要爬取的URL以及部分职位信息 :param start: 开始的工作条数 :param cityname: 城市名 :param jobn…
简单的scrapy实战:爬取腾讯招聘北京地区的相关招聘信息 简单的scrapy实战:爬取腾讯招聘北京地区的相关招聘信息 系统环境:Fedora22(昨天已安装scrapy环境) 爬取的开始URL:http://hr.tencent.com/position.php?lid=2156 target:爬取职位名称.职位类别.人数.地点.发布时间 如下 ①创建项目 scrapy startproject hrtencent 然后cd hrtencent ②修改items.py # -*- coding…
安装scrapy不再赘述, 在控制台中输入scrapy startproject tencent 创建爬虫项目名字为 tencent 接着cd tencent 用pycharm打开tencent项目 构建item文件 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 # -*- coding: utf-8 -*-   # Define here the models for your scraped items #…
1.scrapy爬虫的流程,可简单该括为以下4步: 1).新建项目---->scrapy startproject 项目名称(例如:myspider) >>scrapy.cfg为项目配置文件 >>myspider:项目的Python模块,将会从这里引用代码 >>mySpider/items.py :项目的目标文件 >>mySpider/pipelines.py :项目的管道文件 >>mySpider/settings.py :项目的设置文件…
分析爬取对象 初始网址, http://hr.tencent.com/position.php?@start=0&start=0#a (可选)由于含有多页数据,我们可以查看一下这些网址有什么相关 page2:http://hr.tencent.com/position.php?@start=0&start=10#a page3:http://hr.tencent.com/position.php?@start=0&start=20#a 也就是说末尾id每次递增10(#a无实际意义,…
1.创建scrapy项目 dos窗口输入: scrapy startproject tencent cd tencent 2.编写item.py文件(相当于编写模板,需要爬取的数据在这里定义) # -*- coding: utf-8 -*- # Define here the models for your scraped items # # See documentation in: # https://doc.scrapy.org/en/latest/topics/items.html im…
---恢复内容开始--- 今天我们来爬取一下智联招聘上金融行业薪酬在50-100万的职位. 第一步:解析解析网页 当我们依次点击下边的索引页面是,发现url的规律如下: 第1页:http://www.highpin.cn/zhiwei/ci_180000_180100_as_50_100.html 第2页:http://www.highpin.cn/zhiwei/ci_180000_180100_as_50_100_p_2.html 第3页:http://www.highpin.cn/zhiwe…