python 多进程并发接口测试实例
#encoding=utf-8
import requests
import json
import os
import hashlib
print "register------"
data = json.dumps({'username': 'lildddy1', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}) #
r = requests.post('http://39.106.41.11:8080/register/', data= data)
print r.status_code
print r.text
print type(r.json())
print str(r.json())
c:\Python27\Scripts>python
task_test.py
register------
200
{"username":
"lildddy1", "code": "01"}
<type
'dict'>
{u'username':
u'lildddy1', u'code': u'01'}
#encoding=utf-8
import requests
import json
import string
import random
import multiprocessing
from multiprocessing import Process, Pool, Value, Lock, Manager
import time
def test_register(lock,success_Count,failure_Count):
print "************"
data_dict={'username': 'xxdddy', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}
for i in range(2):
data_dict["username"] = "".join(random.sample(string.lowercase,10))+str(i)
data = json.dumps(data_dict) #
r = requests.post('http://39.106.41.11:8080/register/', data= data)
#print r.status_code
#print r.text
#print type(r.json())
print str(r.json()) #用json的规则,把服务器的接口返回转换为了一个字典
if r.json()["code"]=="00" and isinstance(r.json()["userid"],int):
lock.acquire()
success_Count.value+=1
lock.release()
else:
lock.acquire()
failure_Count.value+=1
lock.release()
#print "*"*50
if __name__ == '__main__':
lock=manager.Lock()#同学说用共享锁,改成lock=manager.Lock()
manager = Manager()
success_Count = manager.Value('i',0)
failure_Count = manager.Value('i',0)
proc_list = [Process(target=test_register, args=(lock,success_Count,failure_Count)) for i in range(2)]
for p in proc_list: p.start()
for p in proc_list: p.join()
print 'Waiting for all subprocesses done...'
print 'All subprocesses done.'
print success_Count.value
print failure_Count.value
c:\Python27\Scripts>python task_test.py
************
************
{u'code': u'00', u'userid': 2685}
{u'code': u'00', u'userid': 2686}
{u'code': u'00', u'userid': 2687}
{u'code': u'00', u'userid': 2688}
Waiting for all subprocesses done...
All subprocesses done.
4
0
单进程:
#encoding=utf-8
import requests
import json
import os
import hashlib
import string
success_count =0
faileure_count =0
print "register------"
data_dict={'username': 'xxdddy', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}
for i in range(5):
data_dict["username"] = "xx2ddddy"+str(i)
data = json.dumps(data_dict) #
r = requests.post('http://39.106.41.11:8080/register/', data= data)
print r.status_code
print r.text
print type(r.json())
print str(r.json()) #用json的规则,把服务器的接口返回转换为了一个字典
if r.json()["code"]=="00" and isinstance(r.json()["userid"],int):
success_count+=1
else:
faileure_count+=1
print "*"*50
print "success count:",success_count
print "faileure count:",faileure_count
多进程的
方法1:
#encoding=utf-8
import requests
import json
import string
import random
import multiprocessing
from multiprocessing import Process, Pool, Value, Lock, Manager
import time
def test_register(lock,success_Count,failure_Count):
print "************"
data_dict={'username': 'xxdddy', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}
for i in range(2):
data_dict["username"] = "".join(random.sample(string.lowercase,10))+str(i)
data = json.dumps(data_dict) #
r = requests.post('http://39.106.41.11:8080/register/', data= data)
#print r.status_code
#print r.text
#print type(r.json())
print str(r.json()) #用json的规则,把服务器的接口返回转换为了一个字典
if r.json()["code"]=="00" and isinstance(r.json()["userid"],int):
lock.acquire()
success_Count.value+=1
lock.release()
else:
lock.acquire()
failure_Count.value+=1
lock.release()
#print "*"*50
if __name__ == '__main__':
lock = Lock()
manager = Manager()
success_Count = manager.Value('i',0)
failure_Count = manager.Value('i',0)
proc_list = [Process(target=test_register, args=(lock,success_Count,failure_Count)) for i in range(2)]
for p in proc_list: p.start()
for p in proc_list: p.join()
print 'Waiting for all subprocesses done...'
print 'All subprocesses done.'
print success_Count.value
print failure_Count.value
方法2:
#encoding=utf-8
import requests
import json
import string
import random
import multiprocessing
from multiprocessing import Process, Pool, Value, Lock, Manager
import time
def test_register(counter):
print "************"
data_dict={'username': 'xxdddy', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}
for i in range(2):
data_dict["username"] = "".join(random.sample(string.lowercase,10))+str(i)
data = json.dumps(data_dict) #
r = requests.post('http://39.106.41.11:8080/register/', data= data)
#print r.status_code
#print r.text
#print type(r.json())
print str(r.json()) #用json的规则,把服务器的接口返回转换为了一个字典
if r.json()["code"]=="00" and isinstance(r.json()["userid"],int):
#lock.acquire()
counter.increment_success_count()
#lock.release()
else:
#lock.acquire()
counter.increment_failure_count()
#lock.release()
#print "*"*50
class Counter(object):
def __init__(self, initval = 0):
self.success_count = Value('i', initval)
self.failure_count = Value('i', initval)
self.lock = Lock()
def increment_success_count(self):
with self.lock:
self.success_count.value += 1 # 共享变量自加1
def increment_failure_count(self):
with self.lock:
self.failure_count.value += 1 # 共享变量自加1
def get_success_count(self):
with self.lock:
return self.success_count.value
def get_failure_count(self):
with self.lock:
return self.failure_count.value
if __name__ == '__main__':
#lock = Lock()
manager = Manager()
counter= Counter()
proc_list = [Process(target=test_register, args=(counter,)) for i in range(2)]
for p in proc_list: p.start()
for p in proc_list: p.join()
print 'Waiting for all subprocesses done...'
print 'All subprocesses done.'
print counter.get_success_count()
print counter.get_failure_count()
用进程池子Pool
方法3:
#encoding=utf-8
import requests
import json
import string
import random
import multiprocessing
from multiprocessing import Pool, Value,Manager
import time
def test_register(lock,success_Count,failure_Count):
print "************"
data_dict={'username': 'xxdddy', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}
for i in range(2):
data_dict["username"] = "".join(random.sample(string.lowercase,10))+str(i)
data = json.dumps(data_dict) #
r = requests.post('http://39.106.41.11:8080/register/', data= data)
#print r.status_code
#print r.text
#print type(r.json())
print str(r.json()) #用json的规则,把服务器的接口返回转换为了一个字典
if r.json()["code"]=="00" and isinstance(r.json()["userid"],int):
lock.acquire()
success_Count.value+=1
lock.release()
else:
lock.acquire()
failure_Count.value+=1
lock.release()
#print "*"*50
if __name__ == '__main__' :
manager = Manager()
lock =manager.Lock()
success_Count = manager.Value('i',0)
failure_Count = manager.Value('i',0)
pool = Pool(3) # start 4 worker processes
pool.apply_async(test_register,args=(lock,success_Count,failure_Count))
pool.apply_async(test_register,args=(lock,success_Count,failure_Count))
pool.close()
pool.join()
print "Process end."
print "success count:",success_Count.value
print "faileure count:",failure_Count.value
python 多进程并发接口测试实例的更多相关文章
- Python多进程并发(multiprocessing)用法实例详解
http://www.jb51.net/article/67116.htm 本文实例讲述了Python多进程并发(multiprocessing)用法.分享给大家供大家参考.具体分析如下: 由于Pyt ...
- python多进程并发和多线程并发和协程
为什么需要并发编程? 如果程序中包含I/O操作,程序会有很高的延迟,CPU会处于等待状态,这样会浪费系统资源,浪费时间 1.Python的并发编程分为多进程并发和多线程并发 多进程并发:运行多个独立的 ...
- python 多进程并发与多线程并发
本文对python支持的几种并发方式进行简单的总结. Python支持的并发分为多线程并发与多进程并发(异步IO本文不涉及).概念上来说,多进程并发即运行多个独立的程序,优势在于并发处理的任务都由操作 ...
- Python多进程并发操作进程池Pool
目录: multiprocessing模块 Pool类 apply apply_async map close terminate join 进程实例 multiprocessing模块 如果你打算编 ...
- [转]Python多进程并发操作中进程池Pool的应用
Pool类 在使用Python进行系统管理时,特别是同时操作多个文件目录或者远程控制多台主机,并行操作可以节约大量的时间.如果操作的对象数目不大时,还可以直接使用Process类动态的生成多个进程,十 ...
- Python多进程并发操作中进程池Pool的应用
Pool类 在使用Python进行系统管理时,特别是同时操作多个文件目录或者远程控制多台主机,并行操作可以节约大量的时间.如果操作的对象数目不大时,还可以直接使用Process类动态的生成多个进程,十 ...
- python多进程并发
由于Python下调用Linux的Shell命令都需要等待返回,所以常常我们设置的多线程都达不到效果,因此在调用shell命令不需要返回时,使用threading模块并不是最好的方法. http: ...
- python多进程并发redis
Redis支持两种持久化方式RDB和AOF,RDB持久化能够快速的储存和回复数据,但在服务器停机时会丢失大量数据,AOF持久化能够高效的提高数据的安全性,但在储存和恢复数据方面要耗费大量的时间,最好的 ...
- PYTHON多进程并发WEB服务器(利用LINUX的FORK)
这个又牛X 一点点.. 这还不涉及IO,如果调用GEVENT之类作异步IO或非阻塞IO,那就大框架都有啦.. ############################################# ...
随机推荐
- UEditor富文本WEB编辑器自定义默认值设置方法
1.在使用UEditor编辑器编写内容时你会发现,当输入的内容较多时,编辑框的边框高度也会自动增加,若希望输入内容较多时以拉框滚动的效果. 方法:找到Ueditor文件根目录下的ueditor.con ...
- like to do vs like doing
I like to eat apple 表示我喜欢吃苹果这种食物. I like eating apple 表示我喜欢吃苹果这种食物 或者 表示我喜欢吃苹果这个过程. like to do,表达的是倾 ...
- Mybatis generator使用小记
Mybatis generator可以使用命令行,eclipse插件和maven配置实现自动生成代码的功能,主要来看看使用eclipse插件生成代码方法. 先安装插件: maven加载mysql驱动: ...
- hdu5266 pog loves szh III 【LCA】【倍增】
Pog and Szh are playing games. Firstly Pog draw a tree on the paper. Here we define 1 as the root of ...
- 【太虚AR_v0.1】使用教程 | SLAM(Markerless)
https://blog.csdn.net/VOID_AR/article/details/77715274
- HDU_6043_KazaQ's Socks
KazaQ's Socks Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 131072/131072 K (Java/Others)T ...
- CodeForces - 950D A Leapfrog in the Array 玄学题
题意:n个数1~n(n<=1e18)依次放在一个数组中,第i个数位置为2i-1,其它地方是空的.现在重复以下操作:将最右边的数放到离其左边最近的空的位置,直到所有数移到前一半的位置中.有q< ...
- Linux的/etc/services文件的作用?
4)端口分配 Linux系统的端口号的范围为0–65535,不同范围有不同的意义. 0 不使用 1--1023 系统保留,只能由root用户使用 1024---4999 由客户端程序自由分配 5000 ...
- Java Hash Collision之数据生产
上一篇文章一种高级的DoS攻击-Hash碰撞攻击我通过伪造Hash Collision数据实现了对Java的DoS攻击,下面说说如何生产大量的攻击数据. HashTable是一种非常常用的数据结构.它 ...
- es新增字段,并设置默认值
重新设置mapping 添加新的字段. 设置es允许脚本执行:elasticsearch.yml script.inline: true 然后执行脚本 POST linewell_assets_mgt ...