目录

一、队列

二、生产者消费者模型

三、协程

四、select\poll\epoll

五、paramiko

六、mysql API调用


一、队列(queue)

队列分以下三种:

class queue.Queue(maxsize=0) #先入先出

class queue.LifoQueue(maxsize=0) #last in fisrt out 

class queue.PriorityQueue(maxsize=0) #存储数据时可设置优先级的队列

代码如下:

  1. import queue
  2.  
  3. class Foo(object):
  4. def __init__(self,n):
  5. self.n = n
  6.  
  7. #先进先出
  8. q = queue.Queue(maxsize=3)
  9. # q.get(timeout=3) #当队列为空时,get值会阻塞,加timeout参数后,会报错
  10. # q.get_nowait() #与上面一样的效果
  11. q.put([1,2,3])
  12. q.put(Foo(1))
  13. data = q.get_nowait()
  14. data2 = q.get_nowait()
  15. print(data,type(data))
  16. print(data2,type(data2))
  17. #输出结果
  18. # [1, 2, 3] <class 'list'>
  19. # <__main__.Foo object at 0x000001E060337278> <class '__main__.Foo'>
  20. print("-----------------")
  21. print(q.full()) #判断队列里数据是否满了,满为True,未满为False。
  22. print(q.qsize())#查看现在队列的大小(队列中有多少个数据)
  23. print(q.empty())#判断队列是否为空
  24. print("---------------")
  25. #先入后出
  26. q = queue.LifoQueue(maxsize=3)
  27. q.put(1)
  28. q.put(2)
  29. q.put(3)
  30. print(q.get_nowait())
  31. print(q.get_nowait())
  32. print(q.get_nowait())
  33. #输出结果
  34. #
  35. #
  36. #
  37. print("---------------")
  38. #可设施优先级的队列
  39. q = queue.PriorityQueue(maxsize=5)
  40. q.put((15,1))
  41. q.put((5,2))
  42. q.put((7,3))
  43. q.put((1,[1,2,3]))
  44. print(q.get())
  45. print(q.get())
  46. print(q.get())
  47. print(q.get())
  48. #输出结果
  49. # (1, [1, 2, 3])
  50. # (5, 2)
  51. # (7, 3)
  52. # (15, 1)

二、生产者消费者模型

  1. import queue,threading
  2. import time,random
  3.  
  4. q = queue.Queue()
  5.  
  6. def producer(name):
  7. count = 0
  8. while q.qsize() < 20:
  9. time.sleep(random.randrange(4))
  10. q.put(count)
  11. print("producer %s has produced %s baozi.." %(name,q.qsize()))
  12. count += 1
  13. def consumer(name):
  14. count = 0
  15. while count <20:
  16. time.sleep(random.randrange(3))
  17. if not q.empty():
  18. data2 = q.get_nowait()
  19.  
  20. print('\033[32;1mconsumer %s has eat %s baozi...\033[0m' %(name,count))
  21. else:
  22. print("-----no baozi anymore-----")
  23. count += 1
  24.  
  25. p1 = threading.Thread(target=producer,args=("XiaoLi",))
  26. p2 = threading.Thread(target=producer,args=("XiaoMin",))
  27. c1 = threading.Thread(target=consumer,args=("PangZi",))
  28.  
  29. p1.start()
  30. p2.start()
  31. c1.start()

三、协程

线程和进程的操作是由程序触发系统接口,最后的执行者是系统;协程的操作则是程序员。

协程存在的意义:对于多线程应用,CPU通过切片的方式来切换线程间的执行,线程切换时需要耗时(保存状态,下次继续)。协程,则只使用一个线程,在一个线程中规定某个代码块执行顺序。

协程的适用场景:当程序中存在大量不需要CPU的操作时(IO),适用于协程;

协程的好处:

  • 无需线程上下文切换的开销
  • 无需原子操作锁定及同步的开销
  • 方便切换控制流,简化编程模型
  • 高并发+高扩展性+低成本:一个CPU支持上万的协程都不是问题。所以很适合用于高并发处理。

缺点:

  • 无法利用多核资源:协程的本质是个单线程,它不能同时将 单个CPU 的多个核用上,协程需要和进程配合才能运行在多CPU上.当然我们日常所编写的绝大部分应用都没有这个必要,除非是cpu密集型应用。
  • 进行阻塞(Blocking)操作(如IO时)会阻塞掉整个程序

yield实现代码:

  1. import time,queue
  2.  
  3. def consumer(name):
  4. print("--->starting eating baozi...")
  5. while True:
  6. new_baozi = yield
  7. print("[%s] is eating baozi %s" %(name,new_baozi))
  8.  
  9. def producer():
  10. r = con.__next__()
  11. r = con2.__next__()
  12. n = 0
  13. while n < 5:
  14. n+=1
  15. con.send(n)
  16. con2.send(n)
  17. print("\033[32;1m[producer]\033[0m is making baozi %s"%n)
  18.  
  19. if __name__ == '__main__':
  20. con = consumer("c1")
  21. con2 = consumer("c2")
  22. p = producer()

Greenlet实现代码:

  1. from greenlet import greenlet
  2.  
  3. def test1():
  4. print("")
  5. gr2.switch()
  6. print("")
  7. gr2.switch()
  8.  
  9. def test2():
  10. print("")
  11. gr1.switch()
  12. print("")
  13.  
  14. gr1 = greenlet(test1)
  15. gr2 = greenlet(test2)
  16. gr1.switch()

Gevent实现代码:

Gevent 是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度。

  1. import gevent
  2.  
  3. def foo():
  4. print('\033[31;1mRunning in foo\033[0m')
  5. gevent.sleep(1)
  6. print("\033[31;1mExplicit context switch to foo again\033[0m")
  7.  
  8. def bar():
  9. print('\033[32;1mRunning in foo\033[0m')
  10. gevent.sleep(1)
  11. print("\033[32;1mExplicit context switch to foo again\033[0m")
  12.  
  13. def ex():
  14. print('\033[33;1mRunning in foo\033[0m')
  15. gevent.sleep(1)
  16. print("\033[33;1mExplicit context switch to foo again\033[0m")
  17.  
  18. gevent.joinall(
  19. [
  20. gevent.spawn(foo),
  21. gevent.spawn(bar),
  22. gevent.spawn(ex),
  23. ]
  24. )

上面程序的重要部分是将task函数封装到Greenlet内部线程的gevent.spawn。 初始化的greenlet列表存放在数组threads中,此数组被传给gevent.joinall 函数,后者阻塞当前流程,并执行所有给定的greenlet。执行流程只会在 所有greenlet执行完后才会继续向下走。

遇到IO阻塞时会自动切换任务

  1. from gevent import monkey; monkey.patch_all()
  2. import gevent
  3. from urllib.request import urlopen
  4.  
  5. def f(url):
  6. print('GET: %s' % url)
  7. resp = urlopen(url)
  8. data = resp.read()
  9. print('%d bytes received from %s.' % (len(data), url))
  10.  
  11. gevent.joinall([
  12. gevent.spawn(f, 'https://www.python.org/'),
  13. gevent.spawn(f, 'https://www.yahoo.com/'),
  14. gevent.spawn(f, 'https://github.com/'),
  15. ])

通过gevent实现单线程下的多socket并发

server端

  1. import gevent
  2.  
  3. from gevent import socket,monkey
  4. monkey.patch_all()
  5. def server(port):
  6. s = socket.socket()
  7. s.bind(('0.0.0.0', port))
  8. s.listen(500)
  9. while True:
  10. cli, addr = s.accept()
  11. gevent.spawn(handle_request, cli)
  12. def handle_request(s):
  13. try:
  14. while True:
  15. data = s.recv(1024)
  16. print("recv:", data)
  17. s.send(data)
  18. if not data:
  19. s.shutdown(socket.SHUT_WR)
  20.  
  21. except Exception as ex:
  22. print(ex)
  23. finally:
  24.  
  25. s.close()
  26. if __name__ == '__main__':
  27. server(8001)

client 端

  1. import socket
  2.  
  3. HOST = 'localhost' # The remote host
  4. PORT = 8001 # The same port as used by the server
  5. s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
  6. s.connect((HOST, PORT))
  7. while True:
  8. msg = bytes(input(">>:"),encoding="utf8")
  9. s.sendall(msg)
  10. data = s.recv(1024)
  11. #print(data)
  12.  
  13. print('Received', repr(data))
  14. s.close()

四、select\selectors\poll\epoll

select、poll、epoll区别:

select:

select最早于1983年出现在4.2BSD中,它通过一个select()系统调用来监视多个文件描述符的数组,当select()返回后,该数组中就绪的文件描述符便会被内核修改标志位,使得进程可以获得这些文件描述符从而进行后续的读写操作。

select目前几乎在所有的平台上支持,其良好跨平台支持也是它的一个优点,事实上从现在看来,这也是它所剩不多的优点之一。

select的一个缺点在于单个进程能够监视的文件描述符的数量存在最大限制,在Linux上一般为1024,不过可以通过修改宏定义甚至重新编译内核的方式提升这一限制。

另外,select()所维护的存储大量文件描述符的数据结构,随着文件描述符数量的增大,其复制的开销也线性增长。同时,由于网络响应时间的延迟使得大量TCP连接处于非活跃状态,但调用select()会对所有socket进行一次线性扫描,所以这也浪费了一定的开销。

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3.  
  4. import select
  5. import socket
  6. import sys
  7. import queue
  8.  
  9. # Create a TCP/IP socket
  10. server = socket.socket(socket.AF_INET, socket.SOCK_STREAM) #创建socket实例
  11. server.setblocking(False) #设置套接字为非阻塞
  12.  
  13. # Bind the socket to the port
  14. server_address = ('localhost', 20000) #设置通信地址
  15. print(sys.stderr, 'starting up on %s port %s' % server_address) #如果有错误,打印错误
  16. server.bind(server_address) #绑定通信地址
  17.  
  18. # Listen for incoming connections
  19. server.listen(5) #最大监听5个链接
  20.  
  21. # Sockets from which we expect to read
  22. #select()会监控三个通信列表,
  23. inputs = [ server ] #定义一个所有的输入
  24.  
  25. # Sockets to which we expect to write
  26. outputs = [ ] #定义一个所有的输出
  27.  
  28. message_queues = {}
  29. while inputs: #客户端过来的所有实例,都放到inputs里,要使inputs为True,将server放入
  30.  
  31. # Wait for at least one of the sockets to be ready for processing
  32. print( '\nwaiting for the next event')
  33. readable, writable, exceptional = select.select(inputs, outputs, inputs,2) #将三个list传给select后,select会返回三个新的list,分别为可读,可写,异常。
  34. #
  35.  
  36. # Handle inputs
  37. for s in readable: #循环readable,里面有当前所有链接和server,如果server返回到readable里,代表着有新连接,server就绪。
  38.  
  39. if s is server: #new connection #如果server就绪,则有新链接
  40. # A "readable" server socket is ready to accept a connection
  41. connection, client_address = s.accept() #接收新链接
  42. print('new connection from', client_address) #打印
  43. connection.setblocking(False) #设置新链接为非阻塞
  44. inputs.append(connection) #将新连接存入inputs里,当下次select时,检测此链接,若有数据则会返回此链接,则接受
  45.  
  46. # Give the connection a queue for data we want to send
  47. message_queues[connection] = queue.Queue() #生成一个此链接的队列,放入message_queues字典
  48. else: #如果不是server,代表有数据过来
  49. data = s.recv(1024) #接受数据
  50. if data: #如果data有数据
  51. # A readable client socket has data
  52. print(sys.stderr, 'received "%s" from %s' % (str(data,'utf8'), s.getpeername()) ) #打印data
  53. message_queues[s].put(str(data,'utf8')) #把data放入字典中相应的链接列表
  54. # Add output channel for response
  55. if s not in outputs: #如果此链接不再outputs里
  56. outputs.append(s) #把新的链接放入outputs
  57. else: #如果data没有数据,(出错了)
  58. # Interpret empty result as closed connection
  59. print('closing', client_address, 'after reading no data') #打印
  60. # Stop listening for input on the connection
  61. if s in outputs: #如果链接在outpus里
  62. outputs.remove(s) #既然客户端都断开了,我就不用再给它返回数据了,所以这时候如果这个客户端的连接对象还在outputs列表中,就把它删掉
  63. inputs.remove(s) #inputs中也删除掉
  64. s.close() #把这个连接关闭掉
  65.  
  66. # Remove message queue
  67. del message_queues[s] #把此链接在字典中的列表也删除
  68. # Handle outputs
  69. for s in writable: #循环发送队列,查找这个链接
  70. try:
  71. next_msg = message_queues[s].get_nowait() #获取发送的数据
  72. except queue.Empty: #如果为空
  73. # No messages waiting so stop checking for writability.
  74. print('output queue for', s.getpeername(), 'is empty')
  75. outputs.remove(s) #将outputs中的这个链接删除
  76. else: #如果取到数据
  77. print( 'sending "%s" to %s' % (next_msg, s.getpeername()))
  78. s.send(bytes(next_msg,'utf8')) #发送数据给客户端
  79. # Handle "exceptional conditions"
  80. for s in exceptional: #客户端断开后,句柄错误,返回到exceptional
  81. print('handling exceptional condition for', s.getpeername() )
  82. # Stop listening for input on the connection
  83. inputs.remove(s) #删除inputs中的句柄
  84. if s in outputs: #如果句柄在outputs中
  85. outputs.remove(s) #将outputs中的句柄删除
  86. s.close() #关闭链接
  87.  
  88. # Remove message queue
  89. del message_queues[s] #删除此链接在message_queues中的列表

select_server示例

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import socket
  4. import sys
  5. #消息列表
  6. messages = [ 'This is the message. ',
  7. 'It will be sent ',
  8. 'in parts.',
  9. ]
  10. server_address = ('localhost', 20000) #设置通信地址
  11.  
  12. # Create a TCP/IP socket
  13. #配置链接组
  14. socks = [ socket.socket(socket.AF_INET, socket.SOCK_STREAM),
  15. socket.socket(socket.AF_INET, socket.SOCK_STREAM),
  16. socket.socket(socket.AF_INET, socket.SOCK_STREAM),
  17. socket.socket(socket.AF_INET, socket.SOCK_STREAM),
  18. ]
  19.  
  20. # Connect the socket to the port where the server is listening
  21. print(sys.stderr, 'connecting to %s port %s' % server_address) #打印链接信息
  22. for s in socks: #循环链接配置组
  23. s.connect(server_address) #链接服务器
  24.  
  25. for message in messages: #循环消息列表
  26.  
  27. # Send messages on both sockets
  28. for s in socks: #循环链接组
  29. print(sys.stderr, '%s: sending "%s"' % (s.getsockname(), message)) #打印链接信息与消息
  30. s.send(bytes(message,"utf8")) #向服务器端发送消息
  31.  
  32. # Read responses on both sockets
  33. for s in socks: #循环链接组
  34. data = s.recv(1024) #接受服务端发来的数据
  35. print(sys.stderr, '%s: received "%s"' % (s.getsockname(), str(data,'utf8'))) #打印消息
  36. if not data: #如果接受的数据为空
  37. print(sys.stderr, 'closing socket', s.getsockname()) #打印出错信息
  38. s.close() #关闭连接

select_client示例

selectors:

This module allows high-level and efficient I/O multiplexing, built upon the select module primitives. Users are encouraged to use this module instead, unless they want precise control over the OS-level primitives used.

该模块允许高层次和高效率的输入/输出复用,建立在选择模块原语。用户被鼓励使用这个模块,除非他们想要精确控制操作系统级的原语。

  1. import selectors
  2. import socket
  3.  
  4. sel = selectors.DefaultSelector()
  5.  
  6. def accept(sock, mask):
  7. conn, addr = sock.accept() # Should be ready
  8. print('accepted', conn, 'from', addr)
  9. conn.setblocking(False)
  10. sel.register(conn, selectors.EVENT_READ, read)
  11.  
  12. def read(conn, mask):
  13. data = conn.recv(1000) # Should be ready
  14. if data:
  15. print('echoing', repr(data), 'to', conn)
  16. conn.send(data) # Hope it won't block
  17. else:
  18. print('closing', conn)
  19. sel.unregister(conn)
  20. conn.close()
  21.  
  22. sock = socket.socket()
  23. sock.bind(('localhost', 10000))
  24. sock.listen(100)
  25. sock.setblocking(False)
  26. sel.register(sock, selectors.EVENT_READ, accept)
  27.  
  28. while True:
  29. events = sel.select()
  30. for key, mask in events:
  31. callback = key.data
  32. callback(key.fileobj, mask)

selectors示例

poll:

poll在1986年诞生于System V Release 3,它和select在本质上没有多大差别,但是poll没有最大文件描述符数量的限制。

poll和select同样存在一个缺点就是,包含大量文件描述符的数组被整体复制于用户态和内核的地址空间之间,而不论这些文件描述符是否就绪,它的开销随着文件描述符数量的增加而线性增大。

另外,select()和poll()将就绪的文件描述符告诉进程后,如果进程没有对其进行IO操作,那么下次调用select()和poll()的时候将再次报告这些文件描述符,所以它们一般不会丢失就绪的消息,这种方式称为水平触发(Level Triggered)。

epoll:

直到Linux2.6才出现了由内核直接支持的实现方法,那就是epoll,它几乎具备了之前所说的一切优点,被公认为Linux2.6下性能最好的多路I/O就绪通知方法。

epoll可以同时支持水平触发和边缘触发(Edge Triggered,只告诉进程哪些文件描述符刚刚变为就绪状态,它只说一遍,如果我们没有采取行动,那么它将不会再次告知,这种方式称为边缘触发),理论上边缘触发的性能要更高一些,但是代码实现相当复杂。

epoll同样只告知那些就绪的文件描述符,而且当我们调用epoll_wait()获得就绪文件描述符时,返回的不是实际的描述符,而是一个代表就绪描述符数量的值,你只需要去epoll指定的一个数组中依次取得相应数量的文件描述符即可,这里也使用了内存映射(mmap)技术,这样便彻底省掉了这些文件描述符在系统调用时复制的开销。

另一个本质的改进在于epoll采用基于事件的就绪通知方式。在select/poll中,进程只有在调用一定的方法后,内核才对所有监视的文件描述符进行扫描,而epoll事先通过epoll_ctl()来注册一个文件描述符,一旦基于某个文件描述符就绪时,内核会采用类似callback的回调机制,迅速激活这个文件描述符,当进程调用epoll_wait()时便得到通知。


五、paramiko

执行远程命令:

  1. import paramiko
  2.  
  3. ssh = paramiko.SSHClient()
  4.  
  5. ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
  6.  
  7. ssh.connect("某IP地址",22,"用户名", "口令(密码)")
  8.  
  9. stdin, stdout, stderr = ssh.exec_command("你的命令")
  10.  
  11. print stdout.readlines()
  12.  
  13. ssh.close()

上传文件到远程:

  1. import paramiko
  2.  
  3. t = paramiko.Transport(("某IP地址",22))
  4.  
  5. t.connect(username = "用户名", password = "口令")
  6.  
  7. sftp = paramiko.SFTPClient.from_transport(t)
  8.  
  9. remotepath='/tmp/test.txt'
  10.  
  11. localpath='/tmp/test.txt'
  12.  
  13. sftp.put(localpath,remotepath)
  14.  
  15. t.close()

从远端下载文件:

  1. import paramiko
  2.  
  3. t = paramiko.Transport(("某IP地址",22))
  4.  
  5. t.connect(username = "用户名", password = "口令")
  6.  
  7. sftp = paramiko.SFTPClient.from_transport(t)
  8.  
  9. remotepath='/tmp/test.txt'
  10.  
  11. localpath='/tmp/test.txt'
  12.  
  13. sftp.get(remotepath, localpath)
  14.  
  15. t.close()

六、MySQL操作

mysql基本操作

1、数据库操作

  1. show databases;
  2. use [databasename];
  3. create database [name];

2、数据表操作

  1. show tables;
  2.  
  3. create table students
  4. (
  5. id int not null auto_increment primary key,
  6. name char(8) not null,
  7. sex char(4) not null,
  8. age tinyint unsigned not null,
  9. tel char(13) null default "-"
  10. );

3、数据操作

  1. insert into students(name,sex,age,tel) values('alex','man',18,'151515151')
  2.  
  3. delete from students where id =2;
  4.  
  5. update students set name = 'sb' where id =1;
  6.  
  7. select * from students

4、其他

  1. 主键
  2. 外键
  3. 左右连接
  1.  
  1. mysql API操作
  1. 插入数据
  1. import MySQLdb
  2.  
  3. conn = MySQLdb.connect(host='127.0.0.1',user='root',passwd='',db='s12')
  4.  
  5. cur = conn.cursor()
  6.  
  7. reCount = cur.execute('insert into day9(Name,Address) values(%s,%s)',('tom','usa'))
  8.  
  9. conn.commit()
  10.  
  11. cur.close()
  12. conn.close()
  13.  
  14. print reCount

批量添加

  1. import MySQLdb
  2.  
  3. conn = MySQLdb.connect(host='127.0.0.1',user='root',passwd='',db='s12')
  4.  
  5. cur = conn.cursor()
  6.  
  7. li =[
  8. ('tonny','cn'),
  9. ('xiaoming','cn'),
  10. ]
  11. reCount = cur.executemany('insert into day9(Name,Address) values(%s,%s)',li)
  12.  
  13. conn.commit()
  14. cur.close()
  15. conn.close()
  16.  
  17. print reCount

注意:cur.lastrowid

删除数据

  1. import MySQLdb
  2.  
  3. conn = MySQLdb.connect(host='127.0.0.1',user='root',passwd='',db='s12')
  4.  
  5. cur = conn.cursor()
  6.  
  7. reCount = cur.execute('delete from day9')
  8.  
  9. conn.commit()
  10.  
  11. cur.close()
  12. conn.close()
  13.  
  14. print reCount

修改数据

  1. import MySQLdb
  2.  
  3. conn = MySQLdb.connect(host='127.0.0.1',user='root',passwd='',db='s12')
  4.  
  5. cur = conn.cursor()
  6.  
  7. reCount = cur.execute('update day9 set Name = %s',('alin',))
  8.  
  9. conn.commit()
  10. cur.close()
  11. conn.close()
  12.  
  13. print reCount

查询数据

  1. import MySQLdb
  2.  
  3. conn = MySQLdb.connect(host='127.0.0.1',user='root',passwd='',db='s12')
  4.  
  5. cur = conn.cursor()
  6.  
  7. reCount = cur.execute('select * from day9')
  8. res = cur.fetchone() #查询一条
  9. #res = cur.fetchall() #查询全部
  10. #res = cur.fetchmany(3) #查询几条
  11. print(res)
  1. conn.commit()
  2.  
  3. cur.close()
  4. conn.close()
  5.  
  6. print reCount

回滚操作

  1. import MySQLdb
  2.  
  3. conn = MySQLdb.connect(host='127.0.0.1',user='root',passwd='',db='s12')
  4.  
  5. cur = conn.cursor()
  6.  
  7. reCount = cur.execute('insert into day9(Name,Address) values(%s,%s)',('tom','usa'))
  8. reCount = cur.execute('insert into day9(Name,Address) values(%s,%s)',('cat','hk'))
  1. conn.rollback()#回滚操作
  2. conn.commit()
  3.  
  4. cur.close()
  5. conn.close()
  6.  
  7. print reCount

python学习day9的更多相关文章

  1. Python学习-day9 线程

    这节内容主要是关于线程的学习 首先要了解的什么是进程,什么是线程 进程与线程 什么是进程(process)? 程序并不能单独运行,只有将程序装载到内存中,系统为它分配资源才能运行,而这种执行的程序就称 ...

  2. python学习Day9 内存管理

    复习 :文件处理 1. 操作文件的三步骤:-- 打开文件:此时该文件在硬盘的空间被操作系统持有 |  文件对象被应用程序持用 -- 操作文件:读写操作 -- 释放文件:释放操作系统对文件在硬盘间的持有 ...

  3. python学习day9 字符编码和文件处理

    1.字符编码 x='上' #unicode的二进制--------->编码-------->gbk格式的二进制 res=x.encode('gbk') #bytes 字节类型 print( ...

  4. python学习-Day9

    目录 记忆不清点回顾 今日概要 今日内容 大作业讲解 字符编码实际应用 编码与解码 如何解决乱码的问题 文件操作简介 什么是文件 代码操作文件 代码操作文件的流程 基本语法结构 使用关键字打开文件 w ...

  5. Python学习day9 函数Ⅰ(基础)

    函数Ⅰ(基础) 三目运算 基本结构 v =  前面  if 条件 else 后面    #条件为真v=前面,条件为假v=后面.​#等同于if 条件: v = '前面'else:    v = '后面' ...

  6. 【目录】Python学习笔记

    目录:Python学习笔记 目标:坚持每天学习,每周一篇博文 1. Python学习笔记 - day1 - 概述及安装 2.Python学习笔记 - day2 - PyCharm的基本使用 3.Pyt ...

  7. Python学习--04条件控制与循环结构

    Python学习--04条件控制与循环结构 条件控制 在Python程序中,用if语句实现条件控制. 语法格式: if <条件判断1>: <执行1> elif <条件判断 ...

  8. Python学习--01入门

    Python学习--01入门 Python是一种解释型.面向对象.动态数据类型的高级程序设计语言.和PHP一样,它是后端开发语言. 如果有C语言.PHP语言.JAVA语言等其中一种语言的基础,学习Py ...

  9. Python 学习小结

    python 学习小结 python 简明教程 1.python 文件 #!/etc/bin/python #coding=utf-8 2.main()函数 if __name__ == '__mai ...

随机推荐

  1. PyQt4.11.3(python3.4+QT4)ui文件生成py文件

    最近开始接触学习Python,所以想用QT弄个窗体程序出来玩玩,环境是Python3.4.2.PyQt4.11.3-Py3.4.Win7.用PyQt自带的Designer设计出一个窗体ui文件后,需要 ...

  2. wordpress教程之修改上传文件大小限制

    1. 修改apache配置文件 php.ini upload_max_filesize = 64M  post_max_size = 64M  max_execution_time = 300 //上 ...

  3. 前端MVVM学习之KnockOut(二)

    现在开始学习Knockout并且做个简单的例子. Knockout是建立在以下三个核心功能之上的: 1.Observables and dependency tracking(属性监控与依赖跟踪) 2 ...

  4. Oracle中使用escape关键字实现like匹配特殊字符,以及&字符的转义

    http://blog.chinaunix.net/uid-26896647-id-3433968.html http://soft.chinabyte.com/database/398/124298 ...

  5. QWidget可以设置QStyle,它可以绘制很多东西(具体内容没研究,待续)

    QStyle * QWidget::style() const See also QWidget::setStyle(), QApplication::setStyle(), and QApplica ...

  6. javaWeb Cache技术――OSCache(转-全)

    什么是osCache? 它是:http://baike.baidu.com/view/1835163.htm?fr=aladdin OSCache使用指南 一.下载安装 OSCache是一个基于web ...

  7. sizeof与类,继承,virtual的种种(整理)

    对虚继承层次的对象的内存布局,在不同编译器实现有所区别. 首先,说说GCC的编译器. 它实现比较简单,不管是否虚继承,GCC都是将虚表指针在整个继承关系中共享的,不共享的是指向虚基类的指针. clas ...

  8. LeeCode-Two Sum

    Given an array of integers, find two numbers such that they add up to a specific target number. The ...

  9. Java中取小数点后两位(四种方法)

    摘自http://irobot.iteye.com/blog/285537 Java中取小数点后两位(四种方法)   一 Long是长整型,怎么有小数,是double吧     java.text.D ...

  10. github教程--廖雪峰的官方网站

    http://www.liaoxuefeng.com/wiki/0013739516305929606dd18361248578c67b8067c8c017b000