爬虫之selenium爬取斗鱼主播图片】的更多相关文章

这是我GitHub上简单的selenium介绍与简单使用:https://github.com/bwyt/spider/tree/master/selenium%E5%9F%BA%E7%A1%80 """ 发送请求 1.1生成driver对象 2.1窗口最大化 2.2下拉滚动条(保证每个位置都刷新) 3.获取所有li标签列表 遍历li标签列表提取图片的连接以及主播的名字 保存图片 翻页 """ import time import request…
分析目标 爬取的是斗鱼主播头像,示范使用的URL似乎是个移动接口(下文有提到),理由是网页主页属于动态页面,爬取难度陡升,当然爬取斗鱼主播头像这么恶趣味的事也不是我的兴趣...... 目标URL如下, http://capi.douyucdn.cn/api/v1/getVerticalRoom?limit=20&offset=150 这是一个json形式文件(所谓json形式的文件实际就是把字典作为字符串保存起来),limit参数表示一次加载多少条目,offset表示偏移量,即加载的第一条项目相…
from selenium import webdriver import time from bs4 import BeautifulSoup class douyuSelenium(): #初始化,启动斗鱼浏览器 def setUp(self): self.driver = webdriver.PhantomJS() #获取斗鱼房间信息 def testDouyu(self):#'https://www.douyu.com/directory/all' self.driver.get('ht…
前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者: python小爬虫 PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取 http://note.youdao.com/noteshare?id=3054cce4add8a909e784ad934f956cef 效果图,其中涉及一些真名我就打码了,还有qq号我也打码了,见谅 分析登陆的元素,下图一目了然,怎么获取这个登陆元素应该都知道了 代码奉上…
1.先附上效果图(我偷懒只爬了4页)  2.京东的网址https://www.jd.com/ 3.我这里是不加载图片,加快爬取速度,也可以用Headless无弹窗模式 options = webdriver.ChromeOptions() options.add_experimental_option('prefs', {'profile.managed_default_content_settings.images': 2}) #不加载图片 browser = webdriver.Chrome…
我们爬取的网站:https://www.anjuke.com/sy-city.html 获取的内容:包括地区名,地区链接: 安居客详情 一开始直接用requests库进行网站的爬取,会访问不到数据的, 会直接出现 访问的页面出现错误的信息. selenium 的使用,我的博客上有说过: 代码 # -*- coding: utf-8 -*- # @Time : # @Author : # @Email : # @File : import requests import re from bs4 i…
from selenium import webdriver import os import json import time class Douyu: def __init__(self): # 1.发送首页的请求 self.driver = webdriver.Chrome('../chromedriver.exe') self.driver.get('https://www.douyu.com/g_yz') # 获取页面内容 def get_content(self): time.sle…
import json import time from selenium import webdriver """ 发送请求 1.1生成driver对象 2.1窗口最大化 2.2下拉滚动条(保证每个位置都刷新) 3.获取所有li标签列表 遍历li标签列表提取图片的连接以及主播的名字 保存图片 翻页 """ driver = webdriver.Chrome() driver.maximize_window() time.sleep(1) # 京…
Scrapy Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试. 一.安装 注:windows平台需要依赖pywin32,请根据自己系统32/64位选择下载安装 http…
直接上全部代码 新手上路代码风格可能不太好 import requests import re from fake_useragent import UserAgent #### 用来伪造爬头部信息 ua = UserAgent() kv = {'user-agent': ua.random} url = 'https://movie.douban.com/top250?start=0&filter=' index = 0 ####标记爬取图片的数量与命名 for i in range(0, 1…