第三百二十四节,web爬虫,scrapy模块介绍与使用 Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试. Scrapy 使用了 Twisted异步网络库来处理网络通讯.…
本章叫介绍如何使用selenium在浏览器中使用js脚本,更多内容请参考:Python学习指南 隐藏百度图片 #-*- coding:utf-8 -*- #本篇将模拟执行javascript语句 from selenium import webdriver from selenium.webdriver.common.keys import Keys driver = webdriver.Chrome() driver.get('https://www.baidu.com/') #给搜索输入框标…
socket编程 一.客户端/服务端架构 客户端/服务端架构 即C/S架构,包括:1.硬件C/S架构,2.软件C/S架构. 互联网中处处都是C/S架构,学习socket 就是为了完成C/S架构的开发. C/S架构: server端要: 1.力求一直提供服务 2.要绑定一个唯一的地址,让客户端能明确的找到服务端. 二.OSI七层 1.一个完整的计算机系统是由硬件.操作系统.应用软件三者组成,具备了这三个条件,一台计算机系统就可以自己跟自己玩了. 如果要跟别人一起玩,那就需要上网了.互联网的核心就是…
简介 许仙小时候最喜欢吃又甜又软的汤圆了,一次一颗汤圆落入西湖,被一条小白蛇衔走了.十几年后,一位身着白衣.有青衣丫鬟相伴的美丽女子与许仙相识了,她叫白娘子.白娘子聪明又善良,两个人很快走到了一起.靠着自己的力量,他们过上了幸福的生活.一天,僧人法海找到许仙,警告说白娘子是一条修行千年的蛇精,许仙不信.到了端午节,勉强喝下了雄黄酒的白娘子现了原形,许仙被吓得昏死过去.原来白娘子真的是之前吃下许仙汤圆的小蛇.白娘子辛苦救回了许仙的性命,但之后法海却以保护许仙的名义将他囚禁起来,白娘子与小青召集虾兵…
转载自:http://www.cnblogs.com/liwenzhou/p/8214637.html 一.Bootstrap介绍 Bootstrap是Twitter开源的基于HTML.CSS.JavaScript的前端框架. 它是为实现快速开发Web应用程序而设计的一套前端工具包. 它支持响应式布局,并且在V3版本之后坚持移动设备优先. 二.为什么要使用Bootstrap? 在Bootstrap出现之前: 命名:重复.复杂.无意义(想个名字费劲) 样式:重复.冗余.不规范.不和谐 页面:错乱.…
参考:返回函数 NOTE 1.高阶函数除了可以接受函数作为参数外,还可以把函数作为结果值返回. eg.求和函数 #!/usr/bin/env python3 def calsums(*args): ans = 0 for i in args: ans = ans+i return ans def slowcalsums(*args): def cal(): ans = 0 for i in args: ans = ans+i return ans return cal def main(): r…
继承 什么是继承?就是一个派生类(derived class)继承基类(base class)的字段和方法.一个类可以被多个类继承;在python中,一个类可以继承多个类. 父类可以称为基类和超类,而子类可以称为派生类 在继承中可分为单继承和多继承两种 下面是继承的用法,语法为'class 子类的名字(父类名):' class Plane: #定义一个所有战机的父类 def __init__(self,name,speed,hp,atk): self.name = name self.speed…
# 添加多个附件参数化files = [("1.png", "1.png") ("2.png", "2.png") ]def addFiles(files, n=1): file = [] for i in list(range(n)): a =("files[]", (files[i][1], open(files[i][2], "rb"), "image/png"…
1: Test 1 a = 'city' b = 'country' print(" aaa %s bbb %s " % (a, b)) result: aaa city bbb country 2: Test 2 cars = ["aa", "bb"] b = cars * print(b) result ['aa', 'bb', 'aa', 'bb', 'aa', 'bb', 'aa', 'bb', 'aa', 'bb', 'aa', 'bb…
第三百二十九节,web爬虫讲解2—urllib库爬虫—ip代理 使用IP代理 ProxyHandler()格式化IP,第一个参数,请求目标可能是http或者https,对应设置build_opener()初始化IPinstall_opener()将代理IP设置成全局,当使用urlopen()请求时自动使用代理IP #!/usr/bin/env python # -*- coding: utf-8 -*- import urllib import urllib.request import ran…