上次获取第一次分词之后的内容了 但是数据数据量太大了 ,这时候有个模块就派上用场了collections模块的Counter类 Counter类:为hashable对象计数,是字典的子类. 然后使用most_common方法返回一个TopN列表.如果n没有被指定,则返回所有元素.当多个元素计数值相同时,排列是无确定顺序的. def get_top_words(topn): # 从out.txt中读取带词性的分词结果列表 words_with_attr = read_result() # 要过滤掉…
如何获取数据点击这里 下载之后的文件名为:all_results.csv 数据样式大概这样.然后下面我分析的是工作要求  也就是那边的绿框那一列. import csv import os import jieba import jieba.posseg as psg #posseg模块可以获取词性 datapath=os.path.join(os.getcwd(),"all_results.csv") with open(datapath,'r',newline='',encodin…
# 根据传入的背景图片路径和词频字典.字体文件,生成指定名称的词云图片 def generate_word_cloud(img_bg_path, top_words_with_freq, font_path, to_save_img_path, background_color='white'): # 读取背景图形 img_bg = imread(img_bg_path) # 创建词云对象 wc = WordCloud(font_path=font_path, # 设置字体 background…
import requests from lxml import html import time import pandas as pd from sqlalchemy import create_engine import traceback from fake_useragent import UserAgent as UA #使用其random方法获取随机ua class ZhaoPinSpider: def __init__(self): #http://sou.zhaopin.com…
用python抓取智联招聘信息并存入excel tags:python 智联招聘导出excel 引言:前一阵子是人们俗称的金三银四,跳槽的小朋友很多,我觉得每个人都应该给自己做一下规划,根据自己的进步作出调整.建议不要看到身边的人涨了工资就盲目的心动.一般来说跳槽后要熟悉新的环境会浪费不少时间,如果现在的工作在氛围和自身进步上还可以接受,其他比如待遇方面可以和公司协调解决. 本文参考了yaoyefengchen的博客:文章链接,并进行了地域搜索优化和将存储方式由cvs改成大家常用的excel.下…
整个爬虫是基于selenium和Python来运行的,运行需要的包 mysql,matplotlib,selenium 需要安装selenium火狐浏览器驱动,百度的搜寻. 整个爬虫是模块化组织的,不同功能的函数和类放在不同文件中,最后将需要配置的常量放在constant.py中 项目地址:github(点击直达) 整个爬虫的主线程是Main.py文件,在设置好constant.py后就可以直接运行Main.py 从主线分析 Main.py # /bin/python # author:leoz…
爬取python岗位智联招聘 这里爬取北京地区岗位招聘python岗位,并存入EXECEL文件内,代码如下: import json import xlwt import requests from queue import Queue from threading import Thread def producer(q,path): res1 = requests.get(path, headers = {'user-agent':'Mozilla/5.0 (Windows NT 10.0;…
上学期在实验室发表时写了一个爬取智联招牌信息的爬虫. 操作流程大致分为:信息爬取——数据结构化——存入数据库——所需技能等分词统计——数据可视化 1.数据爬取 job = "通信工程师" #以爬取通信工程师职业为例 leibie = ' url_job = [] for page in range(99): x = str(page) #爬取的页码 p = str(page+1) print("正在抓取第一"+p+"页...\n") #提示 ur…
测试了下,采用单进程爬取5000条数据大概需要22分钟,速度太慢了点.我们把脚本改进下,采用多进程. 首先获取所有要爬取的URL,在这里不建议使用集合,字典或列表的数据类型来保存这些URL,因为数据量太大,太消耗内存,这里,python的生成器就发挥作用了. def get_urls(total_page,cityname,jobname): ''' 获取需要爬取的URL以及部分职位信息 :param start: 开始的工作条数 :param cityname: 城市名 :param jobn…
我们先通过百度搜索智联招聘,进入智联招聘官网,一看,傻眼了,需要登录才能查看招聘信息 没办法,用账号登录进去,登录后的网页如下: 输入职位名称点击搜索,显示如下网页: 把这个URL:https://sou.zhaopin.com/?jl=765&kw=软件测试&kt=3   拷贝下来,退出登录,再在浏览器地址栏输入复制下来的URL 哈哈,居然不用登录,也可以显示搜索的职位信息.好了,到这一步,目的达成. 接下来,我们来分析下页面,打开浏览器的开发者工具,选择Network,查看XHR,重新…
---恢复内容开始--- 今天我们来爬取一下智联招聘上金融行业薪酬在50-100万的职位. 第一步:解析解析网页 当我们依次点击下边的索引页面是,发现url的规律如下: 第1页:http://www.highpin.cn/zhiwei/ci_180000_180100_as_50_100.html 第2页:http://www.highpin.cn/zhiwei/ci_180000_180100_as_50_100_p_2.html 第3页:http://www.highpin.cn/zhiwe…
前些天帮同事爬取一些智联招聘网上的关于数据分析的职位信息,他说要做一些数据分析看看,现在已经帮他爬完了.我本来想用Scrapy来爬的,但是不知道为什么爬取的数据和真实搜到的数据不太一样,比如:搜索到的杭州地区数据分析职位个数有5000左右,但是爬取到的只有4000多点,而且IP一直被ban,免费的IP又不好用,只能说是scrapy 的速度太快了(还是我scrapy框架学的不是很好),所以我索性用requests规规矩矩的爬取,保证速度,爬取的数据质量还不错.我已经给他了数据,可能的话到时候把他的…
写在前面的话, .......写个P,直接上效果图.附上源码地址  github/lonhon ok,正文开始,先列出用到的和require的东西: node.js,这个是必须的 request,然发送网络请求更方便 bluebird,让Promise更优雅.搞笑 cheerio,像jQuery一样解析页面 fs,读写本地文件 之前写的代理ip的爬取结果 由于自己的比较偏好数据方面,之前一直就想用python做一些爬虫的东西,奈何一直纠结2.7还是3.x(逃... 上周在看慕课网上的node教程…
前言 本次主题分两篇文章来介绍: 一.数据采集 二.数据分析 第一篇先来介绍数据采集,即用python爬取网站数据. 1 运行环境和python库 先说下运行环境: python3.5 windows 7, 64位系统 python库 本次智联招聘的网站爬取,主要涉及以下一些python库: requests BeautifulSoup multiprocessing pymongo itertools 2 爬取的主要步骤 根据关键字.城市.以及页面编号生成需要爬取的网页链接 用requests…
上代码,有问题欢迎留言指出. # -*- coding: utf-8 -*- """ Created on Tue Aug 7 20:41:09 2018 @author: brave-man blog: http://www.cnblogs.com/zrmw/ """ import requests from bs4 import BeautifulSoup import json def getDetails(url): headers =…
Jsoup爬虫学习--获取智联招聘(老网站)的全国java职位信息,爬取10页,输出 职位名称*****公司名称*****职位月薪*****工作地点*****发布日期 import java.io.IOException; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; public class Js…
PS重点:我回来了-----我回来了-----我回来了 1. 基础需要: python3 基础 html5 CS3 基础 2.库的选择: 原始库  urllib2  (这个库早些年的用过,后来淡忘了) 进阶库  requests + BeautifulSop Xpth 方法 -库lxml 组合版: requests_html  (requests 作者) 存储:         csv 正则:          re PS:那个方便用那个. |-1 PS: 智联的网页ip复制到本地text,中文…
1.  卓聘IM开发背景 智联卓聘是智联旗下高端人才招聘平台,成立快4年了,业务增涨每年以100%速度增涨,业务增涨快在开发和上线速度要求也比较高. 2016年6月提出IM开发需求,7月初上线,开发人员三名,开发时间20多天,后期可以不断满足业务需求.前期阶段我们考虑网上各种提供IM的云平台,这些平台都有一个问题,聊天记录管理上,有着各种限制和不方便,所以我们决定自己去完成一个. 一个完整的IM,需考虑通信协议和传输协议.通信协议目前XMPP.MQTT ...传输协议TCP.HTTP,下面我就从…
  本人5年开发经验.18年年底开始跑路找工作,在互联网寒冬下成功拿到阿里巴巴.今日头条.智联等公司offer,岗位是Java后端开发,因为发展原因最终选择去了智联,入职一年时间了,之前面试了很多家公司,感觉大部分公司考察的点都差不多,趁空闲时间,将自己的心得记下来,希望能给正在找或者准备找工作的朋友提供一点帮助.   下面提的问题可以看下你自己是否能回答出来,是否做好准备了,当然面试题准备是一方面,你本身的技能掌握是一方面,本身技能不过硬也会被刷下来,下面的图是进阶体系图可以参考下,还有个架构…
把语料从数据库提取出来以后就要进行分词啦,我是在linux环境下做的,先把jieba安装好,然后找到内容是build jieba PKG-INFO setup.py test的那个文件夹(我这边是jieba-0.38),把自己的自定义词典(选用,目的是为了分出原始词库中没有的词以及优先分出一些词),停用词词典(选用),需要分词的语料文件,调用jieba的python程序都放到这个文件夹里,就可以用啦.至于词典要什么样的格式,在网上一查就可以了. 之前有看到别的例子用自定义词典替换掉jieba本身…
talk is cheap...show you the code..... import requests import lxml,time,os from bs4 import BeautifulSoup as sb from xlwt import * import sys reload(sys) sys.setdefaultencoding('utf-8') print sys.getdefaultencoding() book = Workbook(encoding = "utf-8&…
爬取字段,公司名称,职位名称,公司详情的链接,薪资待遇,要求的工作经验年限 1,items中定义爬取字段 import scrapy class ZhilianzhaopinItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() company_name = scrapy.Field() jobName = scrapy.Field() company_url = scrapy…
准备工作 1. scrapy startproject Jobs 2. cd Jobs 3. scrapy genspider ZhaopinSpider www.zhaopin.com 4. scrapy crawl ZhaopinSpider 5. pip install diskcache 6. pip install tinydb 7. scrapy crawl ZhaopinSpider -o chongqing.json ZhaopinSpider # -*- coding: utf…
<攀登者>影评爬取及分析 0.项目结构 其中simkai.ttf为字体文件,Windows查看系统自带的字体 C:\Windows\Fonts 一.爬取豆瓣影评数据 # -*- coding: utf-8 -*- """爬取豆瓣影评""" import requests from lxml import etree import time url = "https://movie.douban.com/subject/304…
结论 国际惯例,先上结论. Java 类职位招聘,不论是需求量(工作机会),还是工资平均水平,都是帝都北京最好. 北京和上海的平均工资差距不大(不超过200/月),但上海的需求量是北京的一半,机会更少. 广州和深圳的工作机会几乎一样,平均工资也相差不大. 本数据取自 2017 年 4 月 29 号 19 点智联招聘北上广深 90 页招聘数据.收智联排序影响, 可能会有偏差(估计不大). 本数据进攻个人学习只用,如有冒犯,告知立删. excel文件下载地址http://pan.baidu.com/…
前言 毕业找工作,在职人员换工作,离职人员找工作……不管什么人群,应聘求职,都需要先分析对应的招聘岗位,岗位需求是否和自己匹配,常见的招聘平台有:BOSS直聘.拉钩招聘.智联招聘等,我们通常的方法都是,打开招聘网站,搜索职位关键字,然后一页一页的逐个查看,觉得还不错的岗位就投递一下简历,或者和招聘负责人聊一下,那么有没有办法,能一次性把相关的招聘岗位列出来,方便快速的分析,答案当然有的…… 很多人学习python,不知道从何学起.很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上…
1.python爬取招聘信息 简单爬取智联招聘职位信息 # !/usr/bin/env python # -*-coding:utf-8-*- """ @Author  : xiaofeng @Time    : 2018/12/18 16:31 @Desc : Less interests,More interest. (爬取智联招聘职位数据) @Project : python_appliction @FileName: zhilianzhaopin.py @Softwa…
这几天在学习Java解析xml,突然想到Dom能不能解析html,结果试了半天行不通,然后就去查了一些资料,发现很多人都在用Jsoup解析html文件,然后研究了一下,写了一个简单的实例,感觉还有很多地方需要润色,在这里分享一下我的实例,欢迎交流指教! 后续想通过Java把数据导入到Excel或者生成一个报表! package gethtml; import java.io.IOException; import org.jsoup.Jsoup; import org.jsoup.nodes.D…
爬虫目的 使用requests库和BeautifulSoup4库来爬取拉勾网Python相关岗位数据 爬虫工具 使用Requests库发送http请求,然后用BeautifulSoup库解析HTML文档对象,并提取职位信息. 爬取过程 1.请求地址 https://www.lagou.com/zhaopin/Python/ 2.需要爬取的内容 (1)岗位名称 (2)薪资 (3)公司所在地 3.查看html 使用FireFox浏览器,登陆拉勾网,按F12可以进入开发者工具页面: 这时候会看到该页面…
1.  卓聘IM开发背景 智联卓聘是智联旗下高端人才招聘平台,成立快4年多,业务增涨每年以100%速度增涨快,同时对产品和研发速度都比较高. 2015年提出IM开发,主要用于后选人与猎头及时交流,降低后选人与猎头沟通成本.我们首先考虑就是网上各种IM的云平台,而这些平台都有一个问题,聊天记录管理上有着各种限制和不方便,所以我们决定自己去完成一个. 2.  IM 技术选型 前期主要是PC版本的IM工具开发,(实际当时我们还没有自己APP),像大多数网站一样.把聊天功能仅嵌入网页的一角.有消息时弹出…