random:随机数

(0, 1) 小数:random.random()  ***
[1, 10] 整数:random.randint(1, 10) *****
[1, 10) 整数:random.randrange(1, 10)
(1, 10) 小数:random.uniform(1, 10)
单例集合随机选择1个:random.choice(item) ***
单例集合随机选择n个:random.sample(item, n)
洗牌单列集合:random.shuffle(item)
# 产生指定位数的验证码
import random
def random_code(count):
code = ''
for i in range(count):
num = random.randint(1, 3)
if num == 1:
tag = str(random.randint(0, 9))
elif num == 2:
tag = chr(random.randint(65, 90))
else:
tag = chr(random.randint(97, 122))
code += tag
return code
print(random_code(6)) -----------------------------------------------------------
import random
def random_code1(count):
source = 'ABCDEFabcdef0123456789'
code_list = random.sample(source, count)
return ''.join(code_list)
print(random_code1(6))

shutil:可以操作权限的处理文件模块

# 基于路径的文件复制:
shutil.copyfile('source_file', 'target_file') # 基于流的文件复制:
with open('source_file', 'rb') as r, open('target_file', 'wb') as w:
shutil.copyfileobj(r, w) # 递归删除目标目录
shutil.rmtree('target_folder') # 文件移动
shutil.remove('old_file', 'new_file') # 文件夹压缩
shutil.make_archive('file_name', 'format', 'archive_path') # 文件夹解压
shutil.unpack_archive('unpack_file', 'unpack_name', 'format')

shevle:可以用字典存取数据到文件的序列化模块

 将序列化文件操作dump与load进行封装

import shelve
s_dic = shelve.open("target_file", writeback=True) # 注:writeback允许序列化的可变类型,可以直接修改值
# 序列化::存
s_dic['key1'] = 'value1'
s_dic['key2'] = 'value2'
# 反序列化:取
print(s_dic['key1'])
# 文件的释放
s_dic.close() -------------------------------------------------------------------
import shelve s_dic=shelve.open('target.txt') # 默认 writeback=False
s_dic['key1']=[1,2,3,4,5]
s_dic['key2']={'name':'Bob','age':18}
s_dic['key3']='abc'
print(s_dic['key1']) # [1,2,3,4,5]
s_dic['key1'][2]=30
print(s_dic['key1']) # [1,2,3,4,5]
s_dic.close() ------------------------------------------------------------------
import shelve s_dic=shelve.open('target.txt',writeback=True)
s_dic['key1']=[1,2,3,4,5]
s_dic['key2']={'name':'Bob','age':18}
s_dic['key3']='abc'
print(s_dic['key1']) # [1,2,3,4,5]
s_dic['key1'][2]=30
print(s_dic['key1']) # [1,2,30,4,5]
s_dic.close()

系统标准输入流/输出流/错误流

import sys
sys.stdout.write('msg')
sys.stderr.write('msg')
msg = sys.stdin.readline() # print默认是对sys.stdout.write('msg') + sys.stdout.write('\n')的封装
# 格式化结束符print:print('msg', end='') -----------------------------------------------------
import sys
sys.stdout.write('mag') # =print('mag',end='') 不分行
sys.stdout.write('msg\n') # =print('msg') 分行 sys.stderr.write('msg\n') #错误流输出的数据为红色 res=sys.stdin.read(3) #输入数据,最多只输出指定位数
print(res) res1=sys.stdin.readline() #将输入数据按行输出
print(res1) ②同时执行:
  》》》输入的数据,前三位是①的结果(包括enter),三位后是②的结果,包括enter

logging:日志模块

1) root logging的基本使用:五个级别
2)root logging的基本配置:logging.basicConfig()
3)logging模块四个核心:Logger | Filter | Handler | Formater
4)logging模块的配置与使用
 -- 配置文件:LOGGING_DIC = {}
 -- 加载配置文件:logging.config.dictConfig(LOGGING_DIC) => logging.getLogger('log_name') logging模块:python提供的用于记录日志的模块
logging作用:手动写日志操作重复且没有任何技术含量,所以python帮我们进行了封装,有了logging后我们在记录日志时,只需要简单的调用接口即可,非常方便!

日志级别

随着时间的推移,日志记录会非常多,成千上万行,如何快速找到需要的日志记录这就成了问题
解决的方案就是明确日志的级别,logging模块将日志分为了五个级别,从高到低分别是:
    1.debug 调试信息
    2.info  常规信息
    3.warning 警告信息
    4.error   错误信息
    5.cretical / fatal 严重错误
本质上他们使用数字来表示级别的,从高到低分别是10,20,30,40,50

logging模块的使用

#1.导入模块
import logging #2.输出日志:打印级别是人为规定的
logging.info("info")
logging.debug("debug")
logging.warning("warning")
logging.error("error")
logging.critical("critical") #输出 WARNING:root:warning
#输出 ERROR:root:error
#输出 CRITICAL:root:critical ----------------------------------------------
import logging
import sys handler1 = logging.FileHandler("owen.log", encoding="utf-8")
handler2 = logging.StreamHandler() logging.basicConfig(
level=logging.DEBUG,
stream=sys.stdout,
format='%(asctime)s -【%(levelname)s】: %(message)s',
filename='owen.log',
handlers=[handler1, handler2]
)

我们发现info  和 debug都没有输出,这是因为它们的级别不够,

默认情况下:
  logging的最低显示级别为warning,对应的数值为30 ​
  日志被打印到了控制台 ​
  日志输出格式为:级别:日志生成器名称:日志消息 WARNING:root:warning 如何修改这写默认的行为呢?,这就需要我们自己来进行配置

自定义配置

import logging
logging.basicConfig()

可用参数:

filename:用指定的文件名创建FiledHandler(后边会具体讲解handler的概念),这样日志会被存储在指定的文件中。
filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“a”还可指定为“w”。
format:指定handler使用的日志显示格式。
datefmt:指定日期时间格式。
level:设置rootlogger(后边会讲解具体概念)的日志级别

#案例:
logging.basicConfig(
filename="aaa.log",
filemode="at",
datefmt="%Y-%m-%d %H:%M:%S %p",
format="%(asctime)s - %(name)s - %(levelname)s - %(module)s: %(message)s",
level=10
)

格式化全部可用名称

%(name)s:Logger的名字,并非用户名,详细查看
%(levelno)s:数字形式的日志级别
%(levelname)s:文本形式的日志级别
%(pathname)s:调用日志输出函数的模块的完整路径名,可能没有
%(filename)s:调用日志输出函数的模块的文件名
%(module)s:调用日志输出函数的模块名
%(funcName)s:调用日志输出函数的函数名
%(lineno)d:调用日志输出函数的语句所在的代码行
%(created)f:当前时间,用UNIX标准的表示时间的浮 点数表示
%(relativeCreated)d:输出日志信息时的,自Logger创建以 来的毫秒数
%(asctime)s:字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒
%(thread)d:线程ID。可能没有
%(threadName)s:线程名。可能没有
%(process)d:进程ID。可能没有
%(message)s:用户输出的消息

将同一个日志输出到不同位置:
例如:
   有一个登录注册的功能 需要记录日志,同时生成两份 一份给程序员看,一份给老板看,
   作为程序员应该查看较为详细的日志,而老板则应该简单一些,因为他不需要关心程序的细节
   要实现这样的需要我们需要系统的了解loggin模块

logging模块的四个核心角色

1.Logger   日志生成器:产生日志
2.Filter   日志过滤器:过滤日志
3.Handler  日志处理器:对日志进行格式化,并输出到指定位置(控制台或文件)
4.Formater 处理日志的格式

import logging

# 规定输出源
handler1 = logging.FileHandler("owen.log", encoding="utf-8")
handler2 = logging.StreamHandler()
# 规定输出格式
fmt = logging.Formatter(
fmt="%(asctime)s - %(name)s - %(levelname)s: %(message)s",
datefmt="%m-%d %H:%M:%S %p") o_log1 = logging.getLogger('owen')
o_log1.setLevel(10) # 给logger设置打印级别
o_log1.addHandler(handler1) # 设置输出源,可以多个
o_log1.addHandler(handler2)
handler1.setFormatter(fmt) # 设置输出格式
o_log1.warning('owen message') o_log2 = logging.getLogger('zero')
o_log2.setLevel(10)
o_log2.addHandler(handler2)
handler2.setFormatter(fmt)
o_log2.warning('zero message')

一条日志完整的声明周期:

-> 1.由logger 产生日志 
-> 2.交给过滤器判断是否被过滤
-> 3.将日志消息分发给绑定的所有处理器
-> 4处理器按照绑定的格式化对象输出日志

第一步:会先检查日志级别,如果低于设置的级别则不执行
第二步:使用场景不多,需要使用面向对象的技术点
第三步:也会检查日志级别,如果得到的日志低于自身的日志级别则不输出
第四步:如果不指定格式则按照默认格式

```
生成器的级别应低于句柄否则给句柄设置级别是没有意义的,
例如: handler设置为20,生成器设置为30,30以下的日志压根不会产生
```

logging各角色的使用(了解)

# 生成器
logger1 = logging.getLogger("日志对象1") # 文件句柄
handler1 = logging.FileHandler("log1.log",encoding="utf-8")
handler2 = logging.FileHandler("log2.log",encoding="utf-8") # 控制台句柄
handler3 = logging.StreamHandler() # 格式化对象
fmt1 = logging.Formatter(
fmt="%(asctime)s - %(name)s - %(levelname)s: %(message)s",
datefmt="%m-%d %H:%M:%S %p")
fmt2 = logging.Formatter(
fmt="%(asctime)s - %(levelname)s : %(message)s",
datefmt="%Y/%m/%d %H:%M:%S") # 绑定格式化对象与文件句柄
handler1.setFormatter(fmt1)
handler2.setFormatter(fmt2)
handler3.setFormatter(fmt1) # 绑定生成器与文件句柄
logger1.addHandler(handler1)
logger1.addHandler(handler2)
logger1.addHandler(handler3) # 设置日志级别
logger1.setLevel(10) #生成器日志级别
handler1.setLevel(20) #句柄日志级别 # 测试
logger1.debug("debug msessage")
logger1.info("info msessage")
logger1.warning("warning msessage")
logger1.critical("critical msessage")

logging的继承(了解)

可以将一个日志指定为另一个日志的子日志 或子孙日志
当存在继承关系时 子孙级日志收到日志时会将该日志向上传递

指定继承关系:

import  logging

log1 = logging.getLogger("mother")
log2 = logging.getLogger("mother.son")
log3 = logging.getLogger("mother.son.grandson") # handler
fh = logging.FileHandler(filename="cc.log",encoding="utf-8")
# formatter
fm = logging.Formatter("%(asctime)s - %(name)s -%(filename)s - %(message)s") # 绑定
log1.addHandler(fh)
log2.addHandler(fh)
log3.addHandler(fh)
# 绑定格式
fh.setFormatter(fm)
# 测试
# log1.error("测试")
# log2.error("测试")
log3.error("测试")
# 取消传递
log3.propagate = False
# 再次测试
log3.error("测试")

通过字典配置日志模块(重点)

  每次都要编写代码来配置非常麻烦 ,我们可以写一个完整的配置保存起来,以便后续直接使用

import logging.config
logging.config.dictConfig(LOGGING_DIC)
logging.getLogger("aa").debug("测试") LOGGING_DIC模板:
standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' \
'[%(levelname)s][%(message)s]' #其中name为getlogger指定的名字 simple_format = '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s' id_simple_format = '[%(levelname)s][%(asctime)s] %(message)s'
logfile_path = "配置文件路径" LOGGING_DIC = {
'version': 1,
'disable_existing_loggers': False,
'formatters': {
'standard': {
'format': standard_format
},
'simple': {
'format': simple_format
},
},
'filters': {},
'handlers': {
#打印到终端的日志
'console': {
'level': 'DEBUG',
'class': 'logging.StreamHandler', # 打印到屏幕
'formatter': 'simple'
},
#打印到文件的日志,收集info及以上的日志
'default': {
'level': 'DEBUG',
'class': 'logging.handlers.RotatingFileHandler', # 保存到文件
'formatter': 'standard',
'filename': logfile_path, # 日志文件
'maxBytes': 1024*1024*5, # 日志大小 5M
'backupCount': 5, #日志文件最大个数
'encoding': 'utf-8', # 日志文件的编码
},
},
'loggers': {
#logging.getLogger(__name__)拿到的logger配置
'aa': {
'handlers': ['default', 'console'], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕
'level': 'DEBUG',
'propagate': True, # 向上(更高level的logger)传递
},
},
} 补充:
getLogger参数就是对应字典中loggers的key , 如果没有匹配的key 则返回系统默认的生成器,我们可以在字典中通过空的key来将一个生成器设置为默认的 'loggers': {
# 把key设置为空
'': {
'handlers': ['default', 'console'], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕
'level': 'DEBUG',
'propagate': True, # 向上(更高level的logger)传递
},
}, 往后在使用时可以这调用模块提供的函数,来输出日志 logging.info("测试信息!") 另外我们在第一次使用日志时并没有指定生成器,但也可以使用,这是因为系统有默认的生成器名称就叫root

最后来完成之前的需求:
有一个登录注册的功能 需要记录日志,同时生成两份 一份给程序员看,一份给老板看,作为程序员应该查看较为详细的日志,二老板则应该简单一些,因为他不需要关心程序的细节

# 程序员看的格式
standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' \
'[%(levelname)s][%(message)s]' #其中name为getlogger指定的名字
-
import os
import sys
BASE_DIR = os.path.dirname(os.path.dirname(__file__))
sys.path.append(BASE_DIR) LOG_PATH = os.path.join(BASE_DIR, 'log', 'my.log') standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' \
'[%(levelname)s][%(message)s]' #其中name为getlogger指定的名字 simple_format = '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s' id_simple_format = '[%(levelname)s][%(asctime)s] %(message)s' LOGGING_DIC = {
'version': 1,
'disable_existing_loggers': False,
'formatters': {
'standard': {
'format': standard_format
},
'simple': {
'format': simple_format
},
},
'filters': {},
'handlers': {
#打印到终端的日志
'console': {
'level': 'DEBUG',
'class': 'logging.StreamHandler', # 打印到屏幕
'formatter': 'simple'
},
#打印到文件的日志,收集info及以上的日志
'default': {
'level': 'DEBUG',
'class': 'logging.handlers.RotatingFileHandler', # 保存到文件
'formatter': 'standard',
'filename': LOG_PATH, # 日志文件
'maxBytes': 1024*1024*5, # 日志大小 5M
'backupCount': 5, #日志文件最大个数
'encoding': 'utf-8', # 日志文件的编码
},
},
'loggers': {
#logging.getLogger(__name__)拿到的logger配置
'owen': {
'handlers': ['default', 'console'], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕
'level': 'DEBUG',
'propagate': True, # 向上(更高level的logger)传递
},
'zero': {
'handlers': ['console'], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕
'level': 'DEBUG',
'propagate': True, # 向上(更高level的logger)传递
},
},
}

setting

项目流程:

1.调研
2.需求分析(产品经理)
3.任务分配
4.写项目demo
5.架构分析(架构师)
6.编写代码
7.测试
8.上线(项目→产品)

项目结构:

bin:可执行文件-项目入口
conf:配置文件
core:核心代码
db:数据库操作
interface:接口操作
lib:共有模块(功能)
log:日志文件

18 常用模块 random shutil shevle logging sys.stdin/out/err的更多相关文章

  1. 十八. Python基础(18)常用模块

    十八. Python基础(18)常用模块 1 ● 常用模块及其用途 collections模块: 一些扩展的数据类型→Counter, deque, defaultdict, namedtuple, ...

  2. python常用模块之shutil模块

    python常用模块之shutil模块 shutil模块,高级的文件.文件夹.压缩包处理模块 1.shutil.copyfile(src,des[,length]):将文件内容拷贝到另一个文件 In ...

  3. oldboy edu python full stack s22 day16 模块 random time datetime os sys hashlib collections

    今日内容笔记和代码: https://github.com/libo-sober/LearnPython/tree/master/day13 昨日内容回顾 自定义模块 模块的两种执行方式 __name ...

  4. 常用模块(random,os,json,pickle,shelve)

    常用模块(random,os,json,pickle,shelve) random import random print(random.random()) # 0-1之间的小数 print(rand ...

  5. day 5 模块导入、常用模块os shutil sys commands subprocess hashlib json pickle zipfile traceback random datetime

    os: os.getcwd() 获取当前工作目录,即当前python脚本工作的目录路径 os.chdir("dirname") 改变当前脚本工作目录:相当于shell下cd os. ...

  6. python-时间模块,random、os、sys、shutil、json和pickle模块

    一.time与datetime模块 time模块: 时间戳:表示的是从1970年1月1日00:00:00开始按秒计算的偏移量,返回类型为float类型 格式化时间字符串(Format String) ...

  7. 常用模块random/os/sys/time/datatime/hashlib/pymysql等

    一.标准模块 1.python自带的,import random,json,os,sys,datetime,hashlib等 ①.正常按照命令:打开cmd,执行:pip install rangdom ...

  8. Day 18 常用模块(二)

    一.随机数:RANDOM 1.(0,1)小数:random.random() 2.[1,10]整数:random.randint(1,10) 3.[1,10)整数:random.randrang(1, ...

  9. 常用模块之hashlib,subprocess,logging,re,collections

    hashlib 什么是hashlib 什么叫hash:hash是一种算法(3.x里代替了md5模块和sha模块,主要提供 SHA1, SHA224, SHA256, SHA384, SHA512 ,M ...

随机推荐

  1. 爬虫之selenium模块

    Selenium 简介 selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题 selenium本质是通过驱动浏览器,完全模拟 ...

  2. Hadoop Mapreduce分区、分组、二次排序

    1.MapReduce中数据流动   (1)最简单的过程:  map - reduce   (2)定制了partitioner以将map的结果送往指定reducer的过程: map - partiti ...

  3. 洛谷 p1090 合并果子

    https://www.luogu.org/problemnew/show/P1090 优先队列的经典题目 体现了stl的优越性 #include<bits/stdc++.h> using ...

  4. 映美FP-530K+打印发票卡纸

    最近打发票卡纸了几次,只能作废掉,硬件不太好排查,卡纸都是在发票的中间位置,我在卡纸的时候观察了好几次,打开打印机盖子,直接裸露这样看里面的打印状况,目前发现了两种卡纸位置. 如图,一种是后面的黑色塑 ...

  5. python之正则表达式和re模块一

    摘要:正则表达式 re模块 一.正则表达式:只和字符串打交道,是一种用来约束字符串的规则 1.应用场景: 1,判断某一个字符串是否符合规则:注册页-判断手机号.身份证号 是否合法 注册某个账号的时候, ...

  6. 「CF1154F」Shovels Shop【背包DP】

    题目链接 [洛谷传送门] 题解 非常简单的背包. \(f[i]\)表示购买\(i\)个物品所需要最少的花费. 不考虑免费的限制条件,那么一定是选择前\(k\)个双鞋子. 那么加入免费的条件,那么还是要 ...

  7. BZOJ2870 最长道路

    题意:给定树,有点权.求一条路径使得最小点权 * 总点数最大.只需输出这个最大值.5w. 解:树上路径问题,点分治. 考虑合并两个子树的时候,答案的形式是val1 * (d1 + d2),当1是新插入 ...

  8. django系列 2 :启动应用,目录结构解读

    来源:https://docs.djangoproject.com/en/2.1/intro/tutorial01/ 该教程是创建一个用于投票的网页. 1.使用命令创建site 进入要创建site的目 ...

  9. python实现简单的百度云自动下载

    最近女同让我帮助从百度云下载200个文件,给了我连接和提取码,这种重复的工作不适合人做写了一个简单的爬虫 #coding=utf-8 ''' 自动填写提取码下载百度云资源 方法: for 读取文件中的 ...

  10. Prometheus-配置解析

    1.Prometheus整体架构图 2.配置文件 # 全局配置 global: scrape_interval: 15s # 多久 收集 一次数据 evaluation_interval: 30s # ...