一、线程池(concurrent.futures模块)

  1. #1 介绍
  2. concurrent.futures模块提供了高度封装的异步调用接口
  3. ThreadPoolExecutor:线程池,提供异步调用
  4. ProcessPoolExecutor: 进程池,提供异步调用
  5. Both implement the same interface, which is defined by the abstract Executor class.
  6.  
  7. #2 基本方法
  8. #submit(fn, *args, **kwargs)
  9. 异步提交任务
  10.  
  11. #map(func, *iterables, timeout=None, chunksize=1)
  12. 取代for循环submit的操作
  13.  
  14. #shutdown(wait=True)
  15. 相当于进程池的pool.close()+pool.join()操作
  16. wait=True,等待池内所有任务执行完毕回收完资源后才继续
  17. wait=False,立即返回,并不会等待池内的任务执行完毕
  18. 但不管wait参数为何值,整个程序都会等到所有任务执行完毕
  19. submitmap必须在shutdown之前
  20.  
  21. #result(timeout=None)
  22. 取得结果
  23.  
  24. #add_done_callback(fn)
  25. 回调函数
  1. import time
  2. from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor
  3.  
  4. def func(i):
  5. print('thread', i)
  6. time.sleep(1)
  7. print('thread %s end' % i)
  8.  
  9. # 线程池,提供异步调用
  10. tp = ThreadPoolExecutor(5)
  11. tp.submit(func, 1)
  12. tp.shutdown()
  13. print('主线程')
  14.  
  15. # 进程池,提供异步调用
  16. if __name__ == '__main__':
  17. tp = ProcessPoolExecutor(5)
  18. tp.submit(func, 1)
  19. tp.shutdown()
  20. print('主线程')
  1. import time
  2. from concurrent.futures import ThreadPoolExecutor
  3. from threading import current_thread
  4.  
  5. def func(i):
  6. print('thread', i, current_thread().ident)
  7. time.sleep(1)
  8. print('thread %s end' % i)
  9.  
  10. tp = ThreadPoolExecutor(5)
  11. for i in range(20):
  12. tp.submit(func, i)
  13. tp.shutdown()
  14. print('主线程')
  15.  
  16. # 获取返回值
  17. import time
  18. from concurrent.futures import ThreadPoolExecutor
  19. from threading import current_thread
  20.  
  21. def func(i):
  22. print('thread', i, current_thread().ident)
  23. time.sleep(1)
  24. print('thread %s end' % i)
  25. return i * '*'
  26.  
  27. tp = ThreadPoolExecutor(5)
  28. ret_l = []
  29. for i in range(20):
  30. ret = tp.submit(func, i)
  31. ret_l.append(ret)
  32. for ret in ret_l:
  33. print(ret.result())
  34. print('主线程')
  1. # map的用法
  2. import time
  3. from concurrent.futures import ThreadPoolExecutor
  4.  
  5. def func(i):
  6. print('thread', i)
  7. time.sleep(1)
  8. print('thread %s end' % i)
  9. return i * '*'
  10.  
  11. tp = ThreadPoolExecutor(5)
  12. res = tp.map(func, range(20))
  13. for i in res:
  14. print(i)
  1. # 回调函数
  2. import time
  3. import os
  4. from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor
  5. from threading import current_thread
  6.  
  7. def func(i):
  8. print('thread', i, current_thread().ident, os.getpid())
  9. time.sleep(1)
  10. print('thread %s end' % i)
  11. return i * '*'
  12.  
  13. def call_back(arg):
  14. print('call back : ', current_thread().ident, os.getpid())
  15. print('ret : ', arg.result())
  16. # 线程池的回调函数是由子线程完成的
  17. tp = ThreadPoolExecutor(5)
  18. ret_l = []
  19. for i in range(20):
  20. tp.submit(func, i).add_done_callback(call_back)
  21. print('主线程', current_thread().ident, os.getpid())
  22. # 进程池的回调函数是由主进程完成的
  23. if __name__ == '__main__':
  24. tp = ProcessPoolExecutor(5)
  25. ret_l = []
  26. for i in range(20):
  27. tp.submit(func, i).add_done_callback(call_back)
  28. print('主线程', current_thread().ident, os.getpid())

二、协程

  之前我们学习了线程、进程的概念,了解了在操作系统中进程是资源分配的最小单位,线程是CPU调度的最小单位。按道理来说我们已经算是把cpu的利用率提高很多了。但是我们知道无论是创建多进程还是创建多线程来解决问题,都要消耗一定的时间来创建进程、创建线程、以及管理他们之间的切换。

  随着我们对于效率的追求不断提高,基于单线程来实现并发又成为一个新的课题,即只用一个主线程(很明显可利用的cpu只有一个)情况下实现并发。这样就可以节省创建线进程所消耗的时间。

  为此我们需要先回顾下并发的本质:切换+保存状态

  cpu正在运行一个任务,会在两种情况下切走去执行其他的任务(切换由操作系统强制控制),一种情况是该任务发生了阻塞,另外一种情况是该任务计算的时间过长

    

  ps:在介绍进程理论时,提及进程的三种执行状态,而线程才是执行单位,所以也可以将上图理解为线程的三种状态

   一:其中第二种情况并不能提升效率,只是为了让cpu能够雨露均沾,实现看起来所有任务都被“同时”执行的效果,如果多个任务都是纯计算的,这种切换反而会降低效率。

  为此我们可以基于yield来验证。yield本身就是一种在单线程下可以保存任务运行状态的方法,我们来简单复习一下:

  1. # 1. yiled可以保存状态,yield的状态保存与操作系统的保存线程状态很像,但是yield是代码级别控制的,更轻量级
  2. # 2. send可以把一个函数的结果传给另外一个函数,以此实现单线程内程序之间的切换
  1. # 串行执行
  2. import time
  3. def consumer(res):
  4. '''任务1:接收数据,处理数据'''
  5. pass
  6.  
  7. def producer():
  8. '''任务2:生产数据'''
  9. res=[]
  10. for i in range(10000000):
  11. res.append(i)
  12. return res
  13.  
  14. start=time.time()
  15. # 串行执行
  16. res=producer()
  17. consumer(res) # 写成consumer(producer())会降低执行效率
  18. stop=time.time()
  19. print(stop-start) # 1.5536692142486572
  20.  
  21. #基于yield并发执行
  22. import time
  23. def consumer():
  24. '''任务1:接收数据,处理数据'''
  25. while True:
  26. x=yield
  27.  
  28. def producer():
  29. '''任务2:生产数据'''
  30. g=consumer()
  31. next(g)
  32. for i in range(10000000):
  33. g.send(i)
  34.  
  35. start=time.time()
  36. # 基于yield保存状态,实现两个任务直接来回切换,即并发的效果
  37. # PS:如果每个任务中都加上打印,那么明显地看到两个任务的打印是你一次我一次,即并发执行的.
  38. producer()
  39.  
  40. stop=time.time()
  41. print(stop-start) #2.0272178649902344

单纯地切换反而会降低运行效率

  二:第一种情况的切换。在任务一遇到io情况下,切到任务二去执行,这样就可以利用任务一阻塞的时间完成任务二的计算,效率的提升就在于此。

  1. import time
  2. def consumer():
  3. '''任务1:接收数据,处理数据'''
  4. while True:
  5. x=yield
  6.  
  7. def producer():
  8. '''任务2:生产数据'''
  9. g=consumer()
  10. next(g)
  11. for i in range(10000000):
  12. g.send(i)
  13. time.sleep(2)
  14.  
  15. start=time.time()
  16. producer() # 并发执行,但是任务producer遇到io就会阻塞住,并不会切到该线程内的其他任务去执行
  17.  
  18. stop=time.time()
  19. print(stop-start)

yield无法做到遇到io阻塞

  对于单线程下,我们不可避免程序中出现io操作,但如果我们能在自己的程序中(即用户程序级别,而非操作系统级别)控制单线程下的多个任务能在一个任务遇到io阻塞时就切换到另外一个任务去计算,这样就保证了该线程能够最大限度地处于就绪态,即随时都可以被cpu执行的状态,相当于我们在用户程序级别将自己的io操作最大限度地隐藏起来,从而可以迷惑操作系统,让其看到:该线程好像是一直在计算,io比较少,从而更多的将cpu的执行权限分配给我们的线程。

协程的本质就是在单线程下,由用户自己控制一个任务遇到io阻塞了就切换另外一个任务去执行,以此来提升效率。为了实现它,我们需要找寻一种可以同时满足以下条件的解决方案:

  1. # 1. 可以控制多个任务之间的切换,切换之前将任务的状态保存下来,以便重新运行时,可以基于暂停的位置继续执行。
  2. # 2. 作为1的补充:可以检测io操作,在遇到io操作的情况下才发生切换

协程介绍:  

  协程:是单线程下的并发,又称微线程,纤程。英文名Coroutine。一句话说明什么是线程:协程是一种用户态的轻量级线程,即协程是由用户程序自己控制调度的。

需要强调的是:

  1. #1. python的线程属于内核级别的,即由操作系统控制调度(如单线程遇到io或执行时间过长就会被迫交出cpu执行权限,切换其他线程运行)
  2. #2. 单线程内开启协程,一旦遇到io,就会从应用程序级别(而非操作系统)控制切换,以此来提升效率(!!!非io操作的切换与效率无关)

对比操作系统控制线程的切换,用户在单线程内控制协程的切换

优点如下:

  1. #1. 协程的切换开销更小,属于程序级别的切换,操作系统完全感知不到,因而更加轻量级
  2. #2. 单线程内就可以实现并发的效果,最大限度地利用cpu

缺点如下:

  1. #1. 协程的本质是单线程下,无法利用多核,可以是一个程序开启多个进程,每个进程内开启多个线程,每个线程内开启协程
  2. #2. 协程指的是单个线程,因而一旦协程出现阻塞,将会阻塞整个线程

总结协程特点:

  1. 必须在只有一个单线程里实现并发
  2. 修改共享数据不需加锁
  3. 用户程序里自己保存多个控制流的上下文栈
  4. 附加:一个协程遇到IO操作自动切换到其它协程(如何实现检测IO,yield、greenlet都无法实现,就用到了gevent模块(select机制))

Greenlet 模块

安装 :pip3 install greenlet

  1. # greenlet实现状态切换
  2.  
  3. import time
  4. from greenlet import greenlet
  5.  
  6. def eat():
  7. print('eating 1')
  8. g2.switch()
  9. time.sleep(1)
  10. print('eating 2')
  11.  
  12. def play():
  13. print('playing 1')
  14. time.sleep(1)
  15. print('playing 2')
  16. g1.switch()
  17.  
  18. g1 = greenlet(eat)
  19. g2 = greenlet(play)
  20. g1.switch()

单纯的切换(在没有io的情况下或者没有重复开辟内存空间的操作),反而会降低程序的执行速度

  1. # 顺序执行
  2. import time
  3. def f1():
  4. res=1
  5. for i in range(100000000):
  6. res+=i
  7.  
  8. def f2():
  9. res=1
  10. for i in range(100000000):
  11. res*=i
  12.  
  13. start=time.time()
  14. f1()
  15. f2()
  16. stop=time.time()
  17. print('run time is %s' %(stop-start)) #10.985628366470337
  18.  
  19. # 切换
  20. from greenlet import greenlet
  21. import time
  22. def f1():
  23. res=1
  24. for i in range(100000000):
  25. res+=i
  26. g2.switch()
  27.  
  28. def f2():
  29. res=1
  30. for i in range(100000000):
  31. res*=i
  32. g1.switch()
  33.  
  34. start=time.time()
  35. g1=greenlet(f1)
  36. g2=greenlet(f2)
  37. g1.switch()
  38. stop=time.time()
  39. print('run time is %s' %(stop-start)) # 52.763017892837524

效率对比

  greenlet只是提供了一种比generator更加便捷的切换方式,当切到一个任务执行时如果遇到io,那就原地阻塞,仍然是没有解决遇到IO自动切换来提升效率的问题。

  单线程里的这20个任务的代码通常会既有计算操作又有阻塞操作,我们完全可以在执行任务1时遇到阻塞,就利用阻塞的时间去执行任务2。。。。如此,才能提高效率,这就用到了Gevent模块。

Gevent 模块

安装:pip3 install gevent

  Gevent 是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度。

  1. g1=gevent.spawn(func,1,,2,3,x=4,y=5) # 创建一个协程对象g1,spawn括号内第一个参数是函数名,如eat,后面可以有多个参数,可以是位置实参或关键字实参,都是传给函数eat的
  2.  
  3. g2=gevent.spawn(func2)
  4.  
  5. g1.join() # 等待g1结束
  6.  
  7. g2.join() # 等待g2结束
  8.  
  9. # 或者上述两步合作一步:gevent.joinall([g1,g2])
  10.  
  11. g1.value # 拿到func1的返回值
  1. import time
  2. import gevent
  3.  
  4. def eat():
  5. print('eating 1')
  6. # time.sleep(1)
  7. gevent.sleep(1) # 改成这样就能认识了
  8. print('eating 2')
  9.  
  10. def play():
  11. print('playing 1')
  12. # time.sleep(1)
  13. gevent.sleep(1) # 改成这样就能认识了
  14. print('playing 2')
  15.  
  16. g1 = gevent.spawn(eat) # 自动的检测事件,遇见阻塞了就会进行切换,有些阻塞它不认识
  17. g2 = gevent.spawn(play)
  18. g1.join() # 阻塞直到g1结束
  19. g2.join() # 阻塞直到g2结束
    # gevent.joinall([g1, g2])  # 这样也可以

  上例gevent.sleep(1)模拟的是gevent可以识别的io阻塞,而time.sleep(1)或其他的阻塞,gevent是不能直接识别的需要用下面一行代码,打补丁,就可以识别了

from gevent import monkey;monkey.patch_all() 必须放到被打补丁者的前面,如time,socket模块之前

或者我们干脆记忆成:要用gevent,需要将from gevent import monkey;monkey.patch_all() 放到文件的开头

  1. from gevent import monkey;monkey.patch_all() # 要放在最上面      
  2. import time
  3. import gevent
  4.  
  5. def eat():
  6. print('eating 1')
  7. time.sleep(1)
  8. print('eating 2')
  9.  
  10. def play():
  11. print('playing 1')
  12. time.sleep(1)
  13. print('playing 2')
  14.  
  15. g1 = gevent.spawn(eat) # 自动的检测阻塞事件,遇见阻塞了就会进行切换
  16. g2 = gevent.spawn(play)
  17. g1.join() # 阻塞直到g1结束
  18. g2.join() # 阻塞直到g2结束

  我们可以用threading.current_thread().getName()来查看每个g1和g2,查看的结果为DummyThread-n,即假线程

  1. from gevent import monkey;monkey.patch_all()
  2. import threading
  3. import gevent
  4. import time
  5.  
  6. def eat():
  7. print(threading.current_thread().getName())
  8. print('eat food 1')
  9. time.sleep(2)
  10. print('eat food 2')
  11.  
  12. def play():
  13. print(threading.current_thread().getName())
  14. print('play 1')
  15. time.sleep(1)
  16. print('play 2')
  17.  
  18. g1=gevent.spawn(eat)
  19. g2=gevent.spawn(play)
  20. gevent.joinall([g1,g2])
  21. print('主')

查看threading.current_thread().getName()

  1. # Gevent 之同步与异步
  2.  
  3. from gevent import spawn,joinall,monkey;monkey.patch_all()
  4.  
  5. import time
  6. def task(pid):
  7. """
  8. Some non-deterministic task
  9. """
  10. time.sleep(0.5)
  11. print('Task %s done' % pid)
  12.  
  13. def synchronous(): # 同步
  14. for i in range(10):
  15. task(i)
  16.  
  17. def asynchronous(): # 异步
  18. g_l=[spawn(task,i) for i in range(10)]
  19. joinall(g_l)
  20. print('DONE')
  21.  
  22. if __name__ == '__main__':
  23. print('Synchronous:')
  24. synchronous()
  25. print('Asynchronous:')
  26. asynchronous()
  27. # 上面程序的重要部分是将task函数封装到Greenlet内部线程的gevent.spawn。
  28. # 初始化的greenlet列表存放在数组threads中,此数组被传给gevent.joinall 函数,
  29. # 后者阻塞当前流程,并执行所有给定的greenlet任务。执行流程只会在 所有greenlet执行完后才会继续向下走。
  1. from gevent import monkey;monkey.patch_all()
  2. import time
  3. import gevent
  4. import requests
  5.  
  6. url_lst = [
  7. 'http://www.baidu.com',
  8. 'http://www.4399.com',
  9. 'http://www.7k7k.com',
  10. 'http://www.sogou.com',
  11. 'http://www.sohu.com',
  12. 'http://www.sina.com',
  13. 'http://www.jd.com',
  14. 'http://www.luffycity.com/home',
  15. 'http://www.douban.com',
  16. 'http://cnblogs.com/Eva-J/articles/8324673.html'
  17. ]
  18.  
  19. def get_url(url):
  20. response = requests.get(url)
  21. if response.status_code == 200:
  22. print(url, len(response.text))
  23.  
  24. # 普通方法
  25. start = time.time()
  26. for url in url_lst:
  27. get_url(url)
  28. print(time.time() - start)
  29.  
  30. # 通过协程实现
  31. start = time.time()
  32. g_lst = []
  33. for url in url_lst:
  34. g = gevent.spawn(get_url, url)
  35. g_lst.append(g)
  36. gevent.joinall(g_lst)
  37. print(time.time() - start)

协程应用:爬虫

  通过gevent实现单线程下的socket并发

注意 :from gevent import monkey;monkey.patch_all()一定要放到导入socket模块之前,否则gevent无法识别socket的阻塞

  1. from gevent import monkey;monkey.patch_all()
  2. from socket import *
  3. import gevent
  4.  
  5. #如果不想用money.patch_all()打补丁,可以用gevent自带的socket
  6. # from gevent import socket
  7. # s=socket.socket()
  8.  
  9. def server(server_ip,port):
  10. s=socket(AF_INET,SOCK_STREAM)
  11. s.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
  12. s.bind((server_ip,port))
  13. s.listen(5)
  14. while True:
  15. conn,addr=s.accept()
  16. gevent.spawn(talk,conn,addr)
  17.  
  18. def talk(conn,addr):
  19. try:
  20. while True:
  21. res=conn.recv(1024)
  22. print('client %s:%s msg: %s' %(addr[0],addr[1],res))
  23. conn.send(res.upper())
  24. except Exception as e:
  25. print(e)
  26. finally:
  27. conn.close()
  28.  
  29. if __name__ == '__main__':
  30. server('127.0.0.1',8080)

server

  1. from socket import *
  2.  
  3. client=socket(AF_INET,SOCK_STREAM)
  4. client.connect(('127.0.0.1',8080))
  5.  
  6. while True:
  7. msg=input('>>: ').strip()
  8. if not msg:continue
  9.  
  10. client.send(msg.encode('utf-8'))
  11. msg=client.recv(1024)
  12. print(msg.decode('utf-8'))

client

  1. from threading import Thread
  2. from socket import *
  3. import threading
  4.  
  5. def client(server_ip,port):
  6. c=socket(AF_INET,SOCK_STREAM) #套接字对象一定要加到函数内,即局部名称空间内,放在函数外则被所有线程共享,则大家公用一个套接字对象,那么客户端端口永远一样了
  7. c.connect((server_ip,port))
  8.  
  9. count=0
  10. while True:
  11. c.send(('%s say hello %s' %(threading.current_thread().getName(),count)).encode('utf-8'))
  12. msg=c.recv(1024)
  13. print(msg.decode('utf-8'))
  14. count+=1
  15. if __name__ == '__main__':
  16. for i in range(500):
  17. t=Thread(target=client,args=('127.0.0.1',8080))
  18. t.start()

多线程并发多个客户端

《Python》线程池、携程的更多相关文章

  1. 进程、线程和携程的通俗解释【刘新宇Python】

    通过下面这张图你就能看清楚了,进程.线程和携程的关系   进程: 多个进程是可以运行在多个CPU当中的,比如你的电脑是4核,可以同时并行运行四个进程,这是真正物理上的并行运行. 线程: 每个进程又可以 ...

  2. Python线程池与进程池

    Python线程池与进程池 前言 前面我们已经将线程并发编程与进程并行编程全部摸了个透,其实我第一次学习他们的时候感觉非常困难甚至是吃力.因为概念实在是太多了,各种锁,数据共享同步,各种方法等等让人十 ...

  3. 自定义高级版python线程池

    基于简单版创建类对象过多,现自定义高级版python线程池,代码如下 #高级线程池 import queue import threading import time StopEvent = obje ...

  4. 对Python线程池

    本文对Python线程池进行详细说明介绍,IDE选择及编码的解决方案进行了一番详细的描述,实为Python初学者必读的Python学习经验心得. AD: 干货来了,不要等!WOT2015 北京站演讲P ...

  5. Python 线程池(小节)

    Python 线程池(小节) from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor import os,time, ...

  6. python线程池ThreadPoolExecutor(上)(38)

    在前面的文章中我们已经介绍了很多关于python线程相关的知识点,比如 线程互斥锁Lock / 线程事件Event / 线程条件变量Condition 等等,而今天给大家讲解的是 线程池ThreadP ...

  7. python线程池及其原理和使用

    python线程池及其原理和使用 2019-05-29 17:05:20 whatday 阅读数 576 系统启动一个新线程的成本是比较高的,因为它涉及与操作系统的交互.在这种情形下,使用线程池可以很 ...

  8. python线程池示例

    使用with方式创建线程池,任务执行完毕之后,会自动关闭资源 , 否则就需要手动关闭线程池资源  import threading, time from concurrent.futures impo ...

  9. Python 线程池,进程池,协程,和其他

    本节内容 线程池 进程池 协程 try异常处理 IO多路复用 线程的继承调用 1.线程池 线程池帮助你来管理线程,不再需要每个任务都创建一个线程进行处理任务. 任务需要执行时,会从线程池申请线程,有则 ...

  10. python全栈开发 * 线程队列 线程池 协程 * 180731

    一.线程队列 队列:1.Queue 先进先出 自带锁 数据安全 from queue import Queue from multiprocessing import Queue (IPC队列)2.L ...

随机推荐

  1. Fiddler 简单介绍

    fiddler 也已经使用了几年了,前面做免登录时就是用了fiddler,为了抓取cookie等信息.但是一直没有对他进行整理出一篇文章来介绍其使用. Fiddler的基本介绍 Fiddler的官方网 ...

  2. 小程序for循环给里面单独的view加单独的样式

    效果图如下: 上面是个列表从数据库拿下来所有的信息:在视图层直接一个for循环展示下来,现在麻烦来了前三个和后面的额不一样,小程序不允许dom操作,那怎么解决呢? 解决办法: wx:for和wx:if ...

  3. 第 8 章 容器网络 - 049 - 准备 Overlay 网络实验环境

    overlay环境准备 在docker-machine (10.12.31.21)的基础上 docker主机 host1 (10.12.31.22) host2 (10.12.31.23) 在dock ...

  4. mismatch详解

    mismatch到底只是一个碱基替换,还是也包括了插入缺失? If two sequences in an alignment share a common ancestor, mismatches ...

  5. 【PowerDesigner】【8】把Comment复制到name中和把name复制到Comment

    原因:这两个字段的值很多时候其实是一样的,重写很麻烦 步骤:打开菜单Tools>Execute Commands>Edit/Run Script.. 或者用快捷键 Ctrl+Shift+X ...

  6. Leetcode 1020. 将数组分成和相等的三个部分

    1020. 将数组分成和相等的三个部分  显示英文描述 我的提交返回竞赛   用户通过次数321 用户尝试次数401 通过次数324 提交次数883 题目难度Easy 给定一个整数数组 A,只有我们可 ...

  7. 13. Roman to Integer C++

    直接for循环,并且判断是否出现IV等情况 int which(char ch) { if(ch == 'I') ; else if(ch == 'V') ; else if(ch == 'X') ; ...

  8. Maximum sub array

    Here I post a way to solve maximum sub array problem: The problem described like this: here is an ar ...

  9. ECharts 报表事件联动系列四:柱状图,折线图,饼状图实现联动

    代码如下: <!DOCTYPE html> <html> <head> <meta http-equiv="Content-Type" c ...

  10. 在Eclipse中无法链接到svn,出现Previous operation has not finished; run 'cleanup' if it was interrupted异常

    由于使用了clean或是clean up导致和svn断开链接 1.下载一个sqlite3.exe 2.将sqlite3.exe放到本项目的.svn同级目录下(.svn默认是隐藏,让.svn文件夹显示查 ...