#encoding=utf-8
import requests
import json
import os
import hashlib

print "register------"
data = json.dumps({'username': 'lildddy1', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}) #
r = requests.post('http://39.106.41.11:8080/register/', data= data)
print r.status_code
print r.text
print type(r.json())
print str(r.json())

c:\Python27\Scripts>python
task_test.py

register------

200

{"username":
"lildddy1", "code": "01"}

<type
'dict'>

{u'username':
u'lildddy1', u'code': u'01'}

#encoding=utf-8

import requests

import json

import string

import random

import multiprocessing

from multiprocessing import Process, Pool, Value, Lock, Manager

import time

def test_register(lock,success_Count,failure_Count):

print "************"

data_dict={'username': 'xxdddy', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}

for i in range(2):

data_dict["username"] =  "".join(random.sample(string.lowercase,10))+str(i)

data = json.dumps(data_dict) #

r = requests.post('http://39.106.41.11:8080/register/', data= data)

#print r.status_code

#print r.text

#print type(r.json())

print str(r.json())  #用json的规则,把服务器的接口返回转换为了一个字典

if r.json()["code"]=="00" and isinstance(r.json()["userid"],int):

lock.acquire()

success_Count.value+=1

lock.release()

else:

lock.acquire()

failure_Count.value+=1

lock.release()

#print "*"*50

if __name__ == '__main__':

lock=manager.Lock()#同学说用共享锁,改成lock=manager.Lock()

manager = Manager()

success_Count = manager.Value('i',0)

failure_Count = manager.Value('i',0)

proc_list = [Process(target=test_register, args=(lock,success_Count,failure_Count)) for i in range(2)]

for p in proc_list: p.start()

for p in proc_list: p.join()

print 'Waiting for all subprocesses done...'

print 'All subprocesses done.'

print success_Count.value

print failure_Count.value

c:\Python27\Scripts>python task_test.py

************

************

{u'code': u'00', u'userid': 2685}

{u'code': u'00', u'userid': 2686}

{u'code': u'00', u'userid': 2687}

{u'code': u'00', u'userid': 2688}

Waiting for all subprocesses done...

All subprocesses done.

4

0

单进程:

#encoding=utf-8

import requests

import json

import os

import hashlib

import string

success_count =0

faileure_count =0

print "register------"

data_dict={'username': 'xxdddy', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}

for i in range(5):

data_dict["username"] =  "xx2ddddy"+str(i)

data = json.dumps(data_dict) #

r = requests.post('http://39.106.41.11:8080/register/', data= data)

print r.status_code

print r.text

print type(r.json())

print str(r.json())  #用json的规则,把服务器的接口返回转换为了一个字典

if r.json()["code"]=="00" and isinstance(r.json()["userid"],int):

success_count+=1

else:

faileure_count+=1

print "*"*50

print "success count:",success_count

print "faileure count:",faileure_count

多进程的

方法1:

#encoding=utf-8

import requests

import json

import string

import random

import multiprocessing

from multiprocessing import Process, Pool, Value, Lock, Manager

import time

def test_register(lock,success_Count,failure_Count):

print "************"

data_dict={'username': 'xxdddy', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}

for i in range(2):

data_dict["username"] =  "".join(random.sample(string.lowercase,10))+str(i)

data = json.dumps(data_dict) #

r = requests.post('http://39.106.41.11:8080/register/', data= data)

#print r.status_code

#print r.text

#print type(r.json())

print str(r.json())  #用json的规则,把服务器的接口返回转换为了一个字典

if r.json()["code"]=="00" and isinstance(r.json()["userid"],int):

lock.acquire()

success_Count.value+=1

lock.release()

else:

lock.acquire()

failure_Count.value+=1

lock.release()

#print "*"*50

if __name__ == '__main__':

lock = Lock()

manager = Manager()

success_Count = manager.Value('i',0)

failure_Count = manager.Value('i',0)

proc_list = [Process(target=test_register, args=(lock,success_Count,failure_Count)) for i in range(2)]

for p in proc_list: p.start()

for p in proc_list: p.join()

print 'Waiting for all subprocesses done...'

print 'All subprocesses done.'

print success_Count.value

print failure_Count.value

方法2:

#encoding=utf-8

import requests

import json

import string

import random

import multiprocessing

from multiprocessing import Process, Pool, Value, Lock, Manager

import time

def test_register(counter):

print "************"

data_dict={'username': 'xxdddy', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}

for i in range(2):

data_dict["username"] =  "".join(random.sample(string.lowercase,10))+str(i)

data = json.dumps(data_dict) #

r = requests.post('http://39.106.41.11:8080/register/', data= data)

#print r.status_code

#print r.text

#print type(r.json())

print str(r.json())  #用json的规则,把服务器的接口返回转换为了一个字典

if r.json()["code"]=="00" and isinstance(r.json()["userid"],int):

#lock.acquire()

counter.increment_success_count()

#lock.release()

else:

#lock.acquire()

counter.increment_failure_count()

#lock.release()

#print "*"*50

class Counter(object):

def __init__(self, initval = 0):

self.success_count = Value('i', initval)

self.failure_count = Value('i', initval)

self.lock = Lock()

def increment_success_count(self):

with self.lock:

self.success_count.value += 1 # 共享变量自加1

def increment_failure_count(self):

with self.lock:

self.failure_count.value += 1 # 共享变量自加1

def get_success_count(self):

with self.lock:

return self.success_count.value

def get_failure_count(self):

with self.lock:

return self.failure_count.value

if __name__ == '__main__':

#lock = Lock()

manager = Manager()

counter= Counter()

proc_list = [Process(target=test_register, args=(counter,)) for i in range(2)]

for p in proc_list: p.start()

for p in proc_list: p.join()

print 'Waiting for all subprocesses done...'

print 'All subprocesses done.'

print counter.get_success_count()

print counter.get_failure_count()

用进程池子Pool

方法3:

#encoding=utf-8

import requests

import json

import string

import random

import multiprocessing

from multiprocessing import Pool, Value,Manager

import time

def test_register(lock,success_Count,failure_Count):

print "************"

data_dict={'username': 'xxdddy', 'password': 'wcx123wacs', 'email': 'lsily@qq.com'}

for i in range(2):

data_dict["username"] =  "".join(random.sample(string.lowercase,10))+str(i)

data = json.dumps(data_dict) #

r = requests.post('http://39.106.41.11:8080/register/', data= data)

#print r.status_code

#print r.text

#print type(r.json())

print str(r.json())  #用json的规则,把服务器的接口返回转换为了一个字典

if r.json()["code"]=="00" and isinstance(r.json()["userid"],int):

lock.acquire()

success_Count.value+=1

lock.release()

else:

lock.acquire()

failure_Count.value+=1

lock.release()

#print "*"*50

if __name__ == '__main__' :

manager = Manager()

lock =manager.Lock()

success_Count = manager.Value('i',0)

failure_Count = manager.Value('i',0)

pool = Pool(3)  # start 4 worker processes

pool.apply_async(test_register,args=(lock,success_Count,failure_Count))

pool.apply_async(test_register,args=(lock,success_Count,failure_Count))

pool.close()

pool.join()

print "Process end."

print "success count:",success_Count.value

print "faileure count:",failure_Count.value

python 多进程并发接口测试实例的更多相关文章

  1. Python多进程并发(multiprocessing)用法实例详解

    http://www.jb51.net/article/67116.htm 本文实例讲述了Python多进程并发(multiprocessing)用法.分享给大家供大家参考.具体分析如下: 由于Pyt ...

  2. python多进程并发和多线程并发和协程

    为什么需要并发编程? 如果程序中包含I/O操作,程序会有很高的延迟,CPU会处于等待状态,这样会浪费系统资源,浪费时间 1.Python的并发编程分为多进程并发和多线程并发 多进程并发:运行多个独立的 ...

  3. python 多进程并发与多线程并发

    本文对python支持的几种并发方式进行简单的总结. Python支持的并发分为多线程并发与多进程并发(异步IO本文不涉及).概念上来说,多进程并发即运行多个独立的程序,优势在于并发处理的任务都由操作 ...

  4. Python多进程并发操作进程池Pool

    目录: multiprocessing模块 Pool类 apply apply_async map close terminate join 进程实例 multiprocessing模块 如果你打算编 ...

  5. [转]Python多进程并发操作中进程池Pool的应用

    Pool类 在使用Python进行系统管理时,特别是同时操作多个文件目录或者远程控制多台主机,并行操作可以节约大量的时间.如果操作的对象数目不大时,还可以直接使用Process类动态的生成多个进程,十 ...

  6. Python多进程并发操作中进程池Pool的应用

    Pool类 在使用Python进行系统管理时,特别是同时操作多个文件目录或者远程控制多台主机,并行操作可以节约大量的时间.如果操作的对象数目不大时,还可以直接使用Process类动态的生成多个进程,十 ...

  7. python多进程并发

    由于Python下调用Linux的Shell命令都需要等待返回,所以常常我们设置的多线程都达不到效果,因此在调用shell命令不需要返回时,使用threading模块并不是最好的方法.   http: ...

  8. python多进程并发redis

    Redis支持两种持久化方式RDB和AOF,RDB持久化能够快速的储存和回复数据,但在服务器停机时会丢失大量数据,AOF持久化能够高效的提高数据的安全性,但在储存和恢复数据方面要耗费大量的时间,最好的 ...

  9. PYTHON多进程并发WEB服务器(利用LINUX的FORK)

    这个又牛X 一点点.. 这还不涉及IO,如果调用GEVENT之类作异步IO或非阻塞IO,那就大框架都有啦.. ############################################# ...

随机推荐

  1. PHPStorm 注册码&主题皮肤

    JetBrains PhpStorm 注册方法: 用浏览器打开 http://idea.lanyus.com/ 点击页面中的“获得注册码” 然后打开PhpStorm,在注册时切换至Activation ...

  2. RSA加密工具类(非对称加密算法)

    import com.jfinal.log.Log;import org.apache.commons.codec.binary.Base64; import javax.crypto.Cipher; ...

  3. SharePoint 2013 字段属性之JSLink

    在SharePoint 2013中,SPField新增加了一个属性是JSLink,使用客户端脚本修改字段前台展示,我们可以用很多方法修改这个脚本的引用,然后来修改脚本,下面,我们举一个简单的例子. 具 ...

  4. python----字符编码与文件处理

    字符编码 计算机工作就要通电,也就是说‘电‘驱使计算机干活,而电只有高电压(二进制1),低电压(二进制0),也就是说计算机只认数字. 编程的目的就是让计算机干活,编程的结果就是一堆字符,也就是我们编程 ...

  5. linux使用bin文件安装jdk

    jdk1.6.20文件为bin文件安装过程如下 添加执行权限 chmod +x jdk-6u20-linux-x64.bin 运行,出现提示需要输入yes ./jdk-6u20-linux-x64.b ...

  6. 1.4激活函数-带隐层的神经网络tf实战

    激活函数 激活函数----日常不能用线性方程所概括的东西 左图是线性方程,右图是非线性方程 当男生增加到一定程度的时候,喜欢女生的数量不可能无限制增加,更加趋于平稳 在线性基础上套了一个激活函数,使得 ...

  7. SPOJ IM - Intergalactic Map - [拆点最大流]

    题目链接:http://www.spoj.com/problems/IM/en/ Time limit:491 ms Memory limit:1572864 kB Code length Limit ...

  8. It is not based on WSGI, and it is typically run with only one thread per process.

    Tornado Web Server — Tornado 5.1.1 documentation http://www.tornadoweb.org/en/stable/

  9. 高并发服务器建议调小 TCP 协议的 time_wait 超时时间。

    1. [推荐]高并发服务器建议调小 TCP 协议的 time_wait 超时时间. 说明:操作系统默认 240 秒后,才会关闭处于 time_wait 状态的连接,在高并发访问下,服 务器端会因为处于 ...

  10. html中label及加上属性for之后的用法

    定义和用法 <label> 标签为 input 元素定义标签(label). label 元素不会向用户呈现任何特殊的样式.不过,它为鼠标用户改善了可用性,因为如果用户点击 label 元 ...