上次代码只能抓取一个网页上的链接,本次可以自主设定抓取的页面个数. 代码如下: from selenium import webdriver import os, time class DownloadFiles(): def __init__(self): self.url = 'http://www.neeq.com.cn/disclosure/announcement.html' self.basePath = os.path.dirname(__file__) self.times =…
python爬虫实战——图片自动下载器 之前介绍了那么多基本知识[Python爬虫]入门知识,(没看的先去看!!)大家也估计手痒了.想要实际做个小东西来看看,毕竟: talk is cheap show me the code! 这个小工程的代码都在github上,感兴趣的自己去下载: https://github.com/hk029/Pickup 制作爬虫的基本步骤 顺便通过这个小例子,可以掌握一些有关制作爬虫的基本的步骤. 一般来说,制作一个爬虫需要分以下几个步骤: 1. 分析需求(对,需求…
需求:将Linux系统的的某个文件夹(里面包含文件夹和文件)下载到我Windows系统某个文件夹里 之前我使用xshell下载,但是通过 rz :上传sz:下载 命令中的sz命令,下载失败. 下载 code文件到本地 以下是code文件里的内容: 通过sz dir/* 命令: 通过查找资料得出结论是:sz命令下载不了文件夹,只能下载文件!!! 最后我想到一款软件:通过FTP传输.以下我就简单说明如何下载.通过其他的FTP软件也是差不多的.…
右键另存下载文件 先编辑SciTE脚本: ;ControlFocus("title","text",controlID) ;表示将焦点切换到标题为title窗体中的controlID上 ;Edit1表示第一个可以编辑的实例 ;title表示弹出的Window窗口标题,不同浏览器的标题可能不一样 ControlFocus("请输入要保存的文件名...","","Edit1") ;等待10秒以便window窗口…
  python爬虫实战——图片自动下载器 制作爬虫的基本步骤 顺便通过这个小例子,可以掌握一些有关制作爬虫的基本的步骤. 一般来说,制作一个爬虫需要分以下几个步骤: 分析需求(对,需求分析非常重要,不要告诉我你老师没教你) 分析网页源代码,配合F12(没有F12那么乱的网页源代码,你想看死我?) 编写正则表达式或者XPath表达式(就是前面说的那个神器) 正式编写python爬虫代码 效果 运行: 恩,让我输入关键词,让我想想,输入什么好呢?好像有点暴露爱好了. 回车 好像开始下载了!好赞!,…
服务器端程序 import socket import json import struct import hashlib import os def md5_code(usr, pwd): ret = hashlib.md5(usr.encode()) ret.update(pwd.encode()) return ret.hexdigest() def login(): recv_msg = conn.recv(1024).decode() msg_dic = json.loads(recv…
ftp server 1) 读取文件名 2)检查文件是否存在 3)打开文件 4)检查文件大小 5)发送文件大小给客户端 6)等客户端确认 7)开始边读边(md5计算)发数据 8)给客户端发md5 ftp下载文件 服务器 # -*- coding:utf-8 -*- __author__ = 'shisanjun' import socket import os import hashlib server=socket.socket() server.bind(("127.0.0.1",…
先上一张代码及代码运行后的输出结果的图! 下面上代码: # coding=utf-8 import os import time from selenium import webdriver #打开火狐浏览器 需要V47版本以上的 driver = webdriver.Firefox()#打开火狐浏览器 url = "http://codelife.ecit-it.com"#这里打开我的博客网站 driver.get(url)#设置火狐浏览器打开的网址 time.sleep(2) #使…
Python  requests  下载  m3u8 格式    视频 最近爬取一个视频网站,遇到  m3u8 格式的视频需要下载. 抓包分析,视频文件是多个  ts 文件,什么是 ts文件,请去百度吧: 附图:抓包分析过程 直接把 ts文件请求下来,然后合并 ts文件,如果想把 ts文件转换 MP4 格式,请自行百度吧. 完整下载代码: #coding=utf-8 import requests import re import time from bs4 import BeautifulSo…
  好久没有写过爬虫的文章了,今天在尝试着做验证码相关的研究时,遇到了验证码的收集问题.   一般,验证码的加载都有着比较复杂的算法和加密在里边,但是笔者今天碰到的验证码却比较幸运,有迹可循.在此,给出本爬虫的相关记录.   注意,文章和代码中均不会给出相关的真实网站的信息,避免不道德的行为.   首先,让我们来看一看该验证码的页面,如下: 如果我们尝试着查看该验证码加载时的源代码,会发现源码如下: 我们可以发现,该验证码的加载机制其实并不复杂,只是在网址后面跟了一个时间戳,而这个时间戳,是由J…