今天花了一下午时间来做这东西,之前没有自己写过代码,50几行的代码还是查了很多东西啊,果然学起来和自己动起手来完全是两码事. 方案:requests库+正则表达式提取视频下载链接+urlretrieve下载到本地 import requests from urllib.request import urlretrieve import re def geturl(url): requ = requests.get(url,headers={'User-Agent':'Mozilla/5.0 (W…
目录 一:代码 二:结果如下(部分例子)   这里是爬取豆瓣视频信息,用pyquery库(jquery的python库). 一:代码 from urllib.request import quote from pyquery import PyQuery as pq import requests import pandas as pd def get_text_page(movie_name): ''' 函数功能:获得指定电影名的源代码 参数:电影名 返回值:电影名结果的源代码 ''' url…
就是为了兴趣才搞的这个,ok 废话不多说 直接开始. 环境: python 2.7 + win10 工具:fiddler postman 安卓模拟器 首先,打开fiddler,fiddler作为http/https 抓包神器,这里就不多介绍. 配置允许https 配置允许远程连接 也就是打开http代理 电脑ip: 192.168.1.110 然后 确保手机和电脑是在一个局域网下,可以通信.由于我这边没有安卓手机,就用了安卓模拟器代替,效果一样的. 打开手机浏览器,输入192.168.1.110…
# -*- coding: utf-8 -*- # @author: Tele # @Time : 2019/04/09 下午 4:50 # 爬取弹幕 import requests import json import os from lxml import etree def main(): headers = { "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHT…
# _*_ coding:utf-8 _*_ from Tkinter import * from ScrolledText import ScrolledText import urllib #import requests import urllib2 #import pygame import re import threading import time url_name=[]#放置地址 名称 a=1#代表页数 def get(): global a#改变全局变量 hd={'User-A…
抓包时发现子菜单请求数据时一般需要rid,但的确存在一些如游戏->游戏赛事不使用rid,对于这种未进行处理,此外rid一般在主菜单的响应中,但有的如番剧这种,rid在子菜单的url中,此外返回的data中含有页数相关信息,可以据此定义爬取的页面数量 # -*- coding: utf-8 -*- # @author: Tele # @Time : 2019/04/08 下午 1:01 import requests import json import os import re import s…
声明:我写的所有文章都是发在博客园的,我看到其他复制粘贴过去的 连个出处也不写,直接打上自己的水印...真是没的说了. 前言:前段时间搞了一些爬视频的项目,代码都写好了,这里写文章那就在来重新分析一遍吧.有不好的地方 莫见怪 : ) 环境:python2.7 + win10 开始先说一下,访问youtube需要科学上网,请自行解决,最好是全局代理. ok,现在开始,首先打开网站观察 网站很干净清爽,这次做的是基于关键字搜索来爬那些相关视频,这样就能很好的分类了,若输入中文搜索,那结果也一般都是国…
前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者: Woo_home PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取 http://note.youdao.co-m/noteshare?id=3054cce4add8a909e784ad934f956cef 安装库 该示例使用到的库有requests.lxml.re,其中re是python自带的,所以无需安装,只需安装requests和lxml库…
知识点总结 1. 利用webdriver 模拟浏览器访问 from selenium import webdriver 2.import requests 3. from bs4 import BeautifulSoup 简单小例 import requestsfrom selenium import webdriverfrom urllib.parse import urlencodefrom bs4 import BeautifulSoup def get_one_page(): # hea…
传送门 题意简述:nnn个点的带边权无向图,定义一个图的权值是所有边的积,问所有nnn个点都连通的子图的权值之和. 思路: fif_ifi​表示保证集合iii中所有点都连通其余点随意的方案数. gig_igi​表示只考虑集合iii中所有点的状态的子图的权值和. 我们先预处理出ggg数组,然后考虑递推fff数组. 显然fif_ifi​是等于gig_igi​扣掉一些东西的,扣掉的应该就是不连通的情况. 于是我们枚举编号最小的点所在的连通块来扣掉非法情况. 时间复杂度O(n2n+3n)O(n2^n+3…