我用Python爬虫挣钱的那些事】的更多相关文章

在下写了10年Python,期间写了各种奇葩爬虫,挣各种奇葩的钱,写这篇文章总结下几种爬虫挣钱的方式. 1.最典型的就是找爬虫外包活儿. 这个真是体力活,最早是在国外各个freelancer网站上找适合个人做的小项目,看见了就赶紧去bid一下,把价格标得死死的,由于是挣dollar,当时换算成人民币是1:7.5左右感觉还是换算,别人标几百刀,我就标几十刀,价格战.就是这样做些体力活,不过有个问题是我们跟老美时差是12小时,刚好是颠倒的,他们白天干活的时候,我们刚好是凌晨,所以在回复他们信息时就很…
在下写了10年Python,期间写了各种奇葩爬虫,挣各种奇葩的钱,写这篇文章总结下几种爬虫挣钱的方式. 1.最典型的就是找爬虫外包活儿.这个真是体力活,最早是在国外各个freelancer网站上找适合个人做的小项目,看见了就赶紧去bid一下,把价格标得死死的,由于是挣dollar,当时换算成人民币是1:7.5左右感觉还是换算,别人标几百刀,我就标几十刀,价格战.就是这样做些体力活,不过有个问题是我们跟老美时差是12小时,刚好是颠倒的,他们白天干活的时候,我们刚好是凌晨,所以在回复他们信息时就很延…
闲来无事,学学python爬虫. 在正式学爬虫前,简单学习了下HTML和CSS,了解了网页的基本结构后,更加快速入门. 1.获取糗事百科url http://www.qiushibaike.com/hot/page/2/    末尾2指第2页 2.先抓取HTML页面 import urllib import urllib2 import re page = 2 url = 'http://www.qiushibaike.com/hot/page/' + str(page) #对应第2页的url…
今天使用python爬虫实现了自动抓取糗事百科的段子,因为糗事百科不需要登录,抓取比较简单.程序每按一次回车输出一条段子,代码参考了 http://cuiqingcai.com/990.html 但该博主的代码似乎有些问题,我自己做了修改,运行成功,下面是代码内容: # -*- coding:utf-8 -*- __author__ = 'Jz' import urllib2 import re #糗事百科爬虫类 class QSBK: #初始化 def __init__(self): self…
欢迎添加华为云小助手微信(微信号:HWCloud002 或 HWCloud003),输入关键字"加群",加入华为云线上技术讨论群:输入关键字"最新活动",获取华为云最新特惠促销.华为云诸多技术大咖.特惠活动等你来撩 自娱自乐 今天朋友发了一个段子,居然来自糗事百科-随着抖音.快手的各种火爆,仿佛从前拿着手机刷糗百的日子,已经过去好久了.不知道多少人还会念起那句"天王盖地虎,小鸡炖蘑菇-".今天就做个小练习,爬一爬糗事百科上的段子吧! 网站分析 段…
参照网上的教程再做修改,抓取糗事百科段子(去除图片),详情见下面源码: #coding=utf-8#!/usr/bin/pythonimport urllibimport urllib2import reimport threadimport timeimport sys #定义要抓取的网页#url = 'http://www.qiushibaike.com/hot/'#读取要抓取的网页#globalcontent = urllib.urlopen(url).read()#抓取段子内容#new_…
1.获取糗事百科url http://www.qiushibaike.com/hot/page/2/    末尾2指第2页 2.分析页面,找到段子部分的位置, 需要一点CSS和HTML的知识 3.编写代码 import urllib.request from bs4 import BeautifulSoup from urllib.request import URLError from urllib.request import HTTPError import time # 调用 publi…
糗事百科实例 爬取糗事百科段子,假设页面的URL是: http://www.qiushibaike.com/8hr/page/1 要求: 使用requests获取页面信息,用XPath/re做数据提取 获取每个帖子里的用户头像连接.用户姓名.段子内容.点赞次数和评论次数 保存到json文件内 参考代码 #-*- coding:utf-8 -*- import requests from lxml import etree page = 1 url = 'http://www.qiushibaik…
为了收集笑话也是挺拼的,我就不相信你所有的都看过了.还有,请问哪位仁兄能指点之下怎么把网上抓取到的图片写到word里面,捉摸了好久都没弄出来.   糗百不需要登录,html直接解析,只要在request的时候加上header就行了,是本菜鸟入手的最佳选择.重点就是正则表达式的匹配上花了很多时间,然后利用bs4获取了热点笑话的页面总数,最后为了方便,就封装成类.该代码抓取了今天24小时内的网站所有热点笑话(当然,图片的笑话就还没实现,有时间在捉摸一下~),写到文件中. 代码(文件参见:https:…
本篇博文为使用python爬虫爬取糗事百科content并将爬取内容存入excel中保存·. 实验环境:Windows10   代码编辑工具:pycharm 使用selenium(自动化测试工具)+phantomjs(无界面的浏览器  也可以使用Firefox或者chrome)+beautiful soup来爬取并解析页面 代码如下: #_*_coding:utf-8_*_from selenium import webdriverfrom bs4 import BeautifulSoupimp…