python 小脚本/自动重复访问网站(快速提高网页访问量)
来到csdn也快两个月了,前前后后写了20篇博客,但才1800+的访问量,其中恐怕还有300多是我自己点的
有点桑心(┬_┬)
于是打算另辟蹊径,自己刷访问量
代码如下,需要自取
import urllib.request
import requests
import time
import ssl
import random
def openUrl(ip, agent):
headers = {'User-Agent': agent}
proxies = {'http' : ip}
######################################################################################################################
requests.get("https://blog.csdn.net/qq_38175040/article/details/105555979", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105723124", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105709758", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105533341", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105481195", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105411407", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105385858", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105269253", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105143224", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105118224", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104965393", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104922374", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104867747", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104684355", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104654254", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104581291", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104575123", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104555324", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104484876", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104473154", headers=headers, proxies=proxies, verify=True)
########################################################################################################################
ssl._create_default_https_context = ssl._create_unverified_context
print("Access to success.")
def randomIP():
ip = random.choice(['120.78.78.141', '122.72.18.35', '120.92.119.229'])
return ip
#User-Agent
#User-Agent来源:http://www.useragentstring.com/pages/useragentstring.php
def randomUserAgent():
UserAgent = random.choice(['Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2228.0 Safari/537.36',
'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2227.1 Safari/537.36',
'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2227.0 Safari/537.36'])
return UserAgent
if __name__ == '__main__':
for i in range(60):
ip = randomIP()
agent = randomUserAgent()
openUrl(ip, agent)
time.sleep(60)
在python3.x的idle下可以运行:
最后附上效果图:
OK,这不就行了吗,要的就是这个效果!!!
python 小脚本/自动重复访问网站(快速提高网页访问量)的更多相关文章
- iptables自动屏蔽访问网站最频繁的IP
iptables自动屏蔽访问网站频繁的IP 屏蔽每分钟访问超过200的IP 方法1:根据访问日志(Nginx为例 #!/bin/bash DATE=$(date +%d/%b/%Y:%H:%M) AB ...
- python小脚本(18-11.10)-修改excle后批量生成,作用:导入数据时,系统做了不能导入重复数据时的限制时使用 -本来是小白,大神勿扰
from testcase.test_mokuai.operation_excle import OperationExcleimport shutil class test_daoru(): #一个 ...
- 分享几个python小脚本
by 梁凯 今天我想给大家分享几个python脚本,分别是: 1.公司访问外网认证脚本(最初有同事写过,我优化了一下). 2.统计周报系统所有同事的最近一篇周报. 3.统计测试技术分享里指定一个月所有 ...
- python 小脚本升级-- 钉钉群聊天机器人
一则小脚本(工作中用) 在这篇文章中写的监控的脚本,发送监控的时候 是利用的邮箱,其实在实际,邮箱查收有着不方便性,于是乎升级, 我们工作中,经常用钉钉,那么如果要是能用到钉钉多好,这样我们的监控成功 ...
- 分享一个刷网页PV的python小脚本
下面分享一个小脚本,用来刷网页PV. [root@huanqiu ~]# cat www.py #!/usr/bin/python# coding: UTF-8import webbrowser as ...
- 第一个python小脚本
第一个python小实验 前言 作为一个工作1年的linux运维搬砖师来说,发现没点开发能力真的是不好混啊.于是下定决心学习python! 直接上刚写的语句(大神莫鄙视) 通过控制台输入一个账号密码, ...
- 网站渗透常用到的Python小脚本
0×00渗透的很多时候,找到的工具并不适用,自己码代码才是王道,下面三个程序都是渗透时在网络上找不到合适工具,自己辛苦开发的,短小使用,求欣赏,求好评. 0×01记录root密码小工具 root.py ...
- Python小爬虫-自动下载三亿文库文档
新手学python,写了一个抓取网页后自动下载文档的脚本,和大家分享. 首先我们打开三亿文库下载栏目的网址,比如专业资料(IT/计算机/互联网)http://3y.uu456.com/bl-197?o ...
- 短小实用 渗透用的Python小脚本
渗透的很多时候,找到的工具并不适用,自己码代码才是王道,下面三个程序都是渗透时在网络上找不到合适工具,自己辛苦开发的,短小实用. 一.记录root密码小工具 root.py #!/usr/bin/py ...
随机推荐
- 解Bug之路-dubbo流量上线时的非平滑问题
前言 笔者最近解决了一个困扰了业务系统很久的问题.这个问题只在发布时出现,每次只影响一两次调用,相较于其它的问题来说,这个问题有点不够受重视.由于种种原因,使得这个问题到了业务必须解决的程度,于是就到 ...
- golang bool值
目录 前言 1.基本介绍 2.类型转换 3.使用: 跳转 前言 不做文字的搬运工,多做灵感性记录 这是平时学习总结的地方,用做知识库 平时看到其他文章的相关知识,也会增加到这里 随着学习深入,会进行知 ...
- markdown 绘图利器之granphviz
目录 概述 graphviz 脚本语法结构 图 方向,尺寸,间距 节点 shape 属性 多边形 record-based 的形状 用户定制 label 属性 基本用法 HTML用法 style 属性 ...
- muduo源码解析9-timezone类
timezone class timezone:public copyable { }: 作用: 感觉有点看不懂,detail内部实现文件类不明白跟时区有什么关系.timezone类主要是完成各个时区 ...
- 「Netty实战 02」手把手教你实现自己的第一个 Netty 应用!新手也能搞懂!
大家好,我是 「后端技术进阶」 作者,一个热爱技术的少年. 很多小伙伴搞不清楚为啥要学习 Netty ,今天这篇文章开始之前,简单说一下自己的看法: @ 目录 服务端 创建服务端 自定义服务端 Cha ...
- 小白一样能建站——winser2012 IIS8.0搭建基本的网站
在window server 2012环境下,搭建一个基本的 网站.能够使用即可. 打开服务器管理器 添加角色和功能 默认下一步 下一步, 下一步,选择web服务器 添加功能 下一步, 下一步,不安装 ...
- CF1349A Orac and LCM 题解
题意分析 给出$n$个数,求这$n$个数两两的最小公倍数的最大公约数 思路分析 通过分析样例可以发现,如果要成为这$n$个数两两的最小公倍数的公约数,至少要是这$n$个数中$n-1$个数的约数,否则就 ...
- Qt QDialog添加最大化和最小化按钮
Qt QDialog添加最大化和最小化按钮(转载) QDialog窗体右上角默认是没有最小化和最大化按钮的. 1.效果 2.上代码 1 // 设置窗体最大化和最小化 2 Qt::WindowFlags ...
- 理解Django 中Call Stack 机制的小Demo
1.工作流程 request/response模式下,request并不是直接到达view方法,view方法也不是将返回的response直接发送给浏览器的,而是request由外到里的层层通过各种m ...
- Nodejs模块:fs
/** * @description fs模块常用api */ // fs所有的文件操作都是异步IO,如果要以同步的方式去调用,都会加一个在原同步api的基础上加Sync // 同步的方式会在最后传入 ...