talk is cheap...show you the code..... import requests import lxml,time,os from bs4 import BeautifulSoup as sb from xlwt import * import sys reload(sys) sys.setdefaultencoding('utf-8') print sys.getdefaultencoding() book = Workbook(encoding = "utf-8&…
用python抓取智联招聘信息并存入excel tags:python 智联招聘导出excel 引言:前一阵子是人们俗称的金三银四,跳槽的小朋友很多,我觉得每个人都应该给自己做一下规划,根据自己的进步作出调整.建议不要看到身边的人涨了工资就盲目的心动.一般来说跳槽后要熟悉新的环境会浪费不少时间,如果现在的工作在氛围和自身进步上还可以接受,其他比如待遇方面可以和公司协调解决. 本文参考了yaoyefengchen的博客:文章链接,并进行了地域搜索优化和将存储方式由cvs改成大家常用的excel.下…
上代码,有问题欢迎留言指出. # -*- coding: utf-8 -*- """ Created on Tue Aug 7 20:41:09 2018 @author: brave-man blog: http://www.cnblogs.com/zrmw/ """ import requests from bs4 import BeautifulSoup import json def getDetails(url): headers =…
PS重点:我回来了-----我回来了-----我回来了 1. 基础需要: python3 基础 html5 CS3 基础 2.库的选择: 原始库  urllib2  (这个库早些年的用过,后来淡忘了) 进阶库  requests + BeautifulSop Xpth 方法 -库lxml 组合版: requests_html  (requests 作者) 存储:         csv 正则:          re PS:那个方便用那个. |-1 PS: 智联的网页ip复制到本地text,中文…
上学期在实验室发表时写了一个爬取智联招牌信息的爬虫. 操作流程大致分为:信息爬取——数据结构化——存入数据库——所需技能等分词统计——数据可视化 1.数据爬取 job = "通信工程师" #以爬取通信工程师职业为例 leibie = ' url_job = [] for page in range(99): x = str(page) #爬取的页码 p = str(page+1) print("正在抓取第一"+p+"页...\n") #提示 ur…
写在前面的话, .......写个P,直接上效果图.附上源码地址  github/lonhon ok,正文开始,先列出用到的和require的东西: node.js,这个是必须的 request,然发送网络请求更方便 bluebird,让Promise更优雅.搞笑 cheerio,像jQuery一样解析页面 fs,读写本地文件 之前写的代理ip的爬取结果 由于自己的比较偏好数据方面,之前一直就想用python做一些爬虫的东西,奈何一直纠结2.7还是3.x(逃... 上周在看慕课网上的node教程…
整个爬虫是基于selenium和Python来运行的,运行需要的包 mysql,matplotlib,selenium 需要安装selenium火狐浏览器驱动,百度的搜寻. 整个爬虫是模块化组织的,不同功能的函数和类放在不同文件中,最后将需要配置的常量放在constant.py中 项目地址:github(点击直达) 整个爬虫的主线程是Main.py文件,在设置好constant.py后就可以直接运行Main.py 从主线分析 Main.py # /bin/python # author:leoz…
测试了下,采用单进程爬取5000条数据大概需要22分钟,速度太慢了点.我们把脚本改进下,采用多进程. 首先获取所有要爬取的URL,在这里不建议使用集合,字典或列表的数据类型来保存这些URL,因为数据量太大,太消耗内存,这里,python的生成器就发挥作用了. def get_urls(total_page,cityname,jobname): ''' 获取需要爬取的URL以及部分职位信息 :param start: 开始的工作条数 :param cityname: 城市名 :param jobn…
我们先通过百度搜索智联招聘,进入智联招聘官网,一看,傻眼了,需要登录才能查看招聘信息 没办法,用账号登录进去,登录后的网页如下: 输入职位名称点击搜索,显示如下网页: 把这个URL:https://sou.zhaopin.com/?jl=765&kw=软件测试&kt=3   拷贝下来,退出登录,再在浏览器地址栏输入复制下来的URL 哈哈,居然不用登录,也可以显示搜索的职位信息.好了,到这一步,目的达成. 接下来,我们来分析下页面,打开浏览器的开发者工具,选择Network,查看XHR,重新…
---恢复内容开始--- 今天我们来爬取一下智联招聘上金融行业薪酬在50-100万的职位. 第一步:解析解析网页 当我们依次点击下边的索引页面是,发现url的规律如下: 第1页:http://www.highpin.cn/zhiwei/ci_180000_180100_as_50_100.html 第2页:http://www.highpin.cn/zhiwei/ci_180000_180100_as_50_100_p_2.html 第3页:http://www.highpin.cn/zhiwe…