在使用 Python 开发爬虫的过程中,requests 和 BeautifulSoup4(别名bs4) 应用的比较广泛,requests主要用于模拟浏览器的客户端请求,以获取服务器端响应,接收到的响应结果,如:网页HTML源码则交由 bs4 封装后再解析提取目标内容数据. 今天的案例中,我们将使用一个新库 MechanicalSoup 该库事实上是对 requests 和 bs4 的进一步封装,让请求和解析的工作进一步简化,如果你已经熟悉 requests 和 bs4 的基本操作,下面的代码理…
今年的国庆档电影市场的表现还是比较强势的,两名主力<我和我的家乡>和<姜子牙>起到了很好的带头作用. <姜子牙>首日破 2 亿,一举刷新由<哪吒之魔童降世>保持的中国影市动画电影首日票房纪录,但因其后续口碑下滑,目前已被<我和我的家乡>在口碑和票房上实现了全面的超越,如不出意外,<我和我的家乡>将会是今年国庆档的最大赢家. 从上图中我们可以看出<我和我的家乡>在猫眼上目前有 29.6 万人评分,总体评分 9.3,可以说是一…
爬取CBO中国票房网所有电影片名和演员名字 # -*- coding: utf-8 -*- # 爬取CBO中国票房网所有电影片名 import json import requests import time with open("moviename.txt", 'a') as fh: for pn in range(1,320): url = 'http://www.cbooo.cn/Mdata/getMdata_movie?area=50&type=0&year=0…
# -*- coding: utf-8 -*- import requests import os import csv import time import random base_url = 'http://api-t.iqiyi.com/feed/get_feeds?authcookie=97RRnhwyZA35LUddm35Yh4x5m2Vv9DJtUOuFHAeFVinDJg17wOO5Em1Se5vGm2vqn8SoSb24&device_id=a35b964e5084125fb7d…
当你向验证码发起请求的时候,就有session了,记录下这次session 因为每当你请求一次验证码 或者 请求一次登录首页,验证码都在变动 验证码的链接可能不是固定的,可能需要GET/POST请求,获取那部分变动的信息 session = requests.session() html = session.post(captcha_post, headers) 在第二次发起请求的时候,data里面带着你的账号 密码 验证码值 就可以了 rep = session.post(url, heade…
本篇为个人测试记录,记录爬取连续一字板的股票及当时日期. import tushare as ts import pandas as pd import time # 筛选一字板的策略 def gp_rules(code): # 获取某只股票的历史数据 data = ts.get_hist_data(code, start='2018-01-01', end='2019-07-26') # 排除该时间段无数据的股票 if data is None: return # 筛选表头[开盘价,收盘价,…
from selenium import webdriverfrom selenium.webdriver import ActionChainsimport time driver = webdriver.Chrome(r'C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe') #自动化侧是驱动程序本地所纺地址driver.get('https://accounts.douban.com/passport/logi…
前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 武汉地区,目前已经实现住院患者清零了,国内疫情已经稳定,然而中国以外新冠确诊病例达到2720458例.为了体现大国风范,今天带领大家用python实现绘制疫情地图 知识点 1. 爬虫基本流程 2. json 3. requests 4. pyecharts 开发环境 Python 3.6 Pycharm 思路 1.目标网址 2.模拟浏览器实现访问url 3.从网页源代码中…
抓取大众点评首页左侧信息,如图: 我们要实现把中文名字都存到mongodb,而每个链接存入redis数据库. 因为将数据存到mongodb时每一个信息都会有一个对应的id,那样就方便我们存入redis可以不出错. # -*- coding: utf-8 -*- import re from urllib.request import urlopen from urllib.request import Request from bs4 import BeautifulSoup from lxml…
目标:使用Python爬取豆瓣电影并保存MongoDB数据库中 我们先来看一下通过浏览器的方式来筛选某些特定的电影: 我们把URL来复制出来分析分析: https://movie.douban.com/tag/#/?sort=T&range=0,10&tags=%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD,%E9%BB%91%E5%B8%AE 有3个字段是非常重要的: 1.sort=T 2.range=0,10 3.tag…