本节目录

  • 常用函数一:获取指定文件夹内所有文件

  • 常用函数二:文件合并

  • 常用函数三:将文件按时间划分

  • 常用函数四:数据去重

写在前面

写代码也有很长时间了,总觉得应该做点什么有价值的事情,写代码初始阶段觉得做更多的项目,积累更多的经验是自己应该做的事情,这样可以使自己短时间内技术水平获得较大的提升。随着代码量和项目的增加,确实体会到了自身水平的进步,但同时由原来的尽可能多的做项目,学知识,逐渐转变为了尽可能精尽可能专的投入,更准确的说是当有了一定的知识基础和技术积累,追求不仅仅是知识和项目的广度,更注重的是自身的深度,学确实自己现在或以后有可能会用到的技术和知识,做自己认为有价值的项目,我想这就是我想表达的。然而,除了不断的学习,不断的前进,另外一点就是需要经常做回顾和记录,我想这就是博客和代码仓库的存在的价值,博客可以存储我们学过的知识,仓库可以存储我们写过的代码。有了这些东西,我们实现了随时随地可以找到我们自己保存的东西。我目前的困扰就是自己积累了大量的经验和代码,但是还没有形成一个系统的体系,很多重复性的工作会经常做,虽然实现过一次之后使用的时候会节省不少时间和精力,但是有时候由于=一些原因,会把时间浪费在找之前写的代码过程中,尤其代码越来越多之后,没有一个很好的存储目录结构,实际上是效率极低的,毕竟自己造的轮子或者搜集的轮子再次使用的时候因为找不到轮子在哪或者速度很慢不是我们追求的结果,这个Python常用函数系列博客就应运而生。

常用函数一:获取指定文件夹内所有文件

  • 方式一:采用os.listdur方式
def print_directory_contents(dir_path, file_list):
"""
这个函数接收文件夹的名称作为输入参数
返回该文件夹中文件的路径
以及其包含文件夹中文件的路径
"""
import os
for file in os.listdir(dir_path):
file_path = os.path.join(dir_path, file)
if os.path.isdir(file_path):
print_directory_contents(file_path, file_list)
else:
file_list.append(file_path) if __name__ == '__main__':
file_list = []
print_directory_contents('G:/programming/interview_question', file_list)
print(file_list)
  • 方式二:采用os.walk方式
def print_directory_contents(dir_path):
"""
这个函数接收文件夹的名称作为输入参数
返回该文件夹中文件的路径
以及其包含文件夹中文件的路径
"""
import os
for base_path, folders, files in os.walk(dir_path):
for file in files:
file_path = os.path.join(base_path, file)
yield file_path if __name__ == '__main__':
file_list = print_directory_contents('G:/programming/interview_question')
for file in file_list:
print(file)

os.listdir和os.walk各适合什么场景?

经验分享:两种方式均能实现想要的功能,若读取单层目录,选择os.listdir;若读取多层目录,选择os.walk

常用函数二:文件合并

文件合并是数据处理中会经常用到,按合并类型划分为横向合并和纵向合并,此功能在pandas中有很好的实现,包含纵向合并append,横向合并concat和join,横纵向合并concat。下面的代码是我基于这四个函数编写的合并文件通用代码,基本上这套代码可以实现你所有的合并文件的需求。

# -*- coding: utf-8 -*-

"""
Datetime: 2020/07/05
Author: Zhang Yafei
Description: 合并文件
"""
from pandas import read_csv, read_excel, merge, concat, DataFrame def read_file(file_path, on):
if file_path.endswith('.csv'):
return read_csv(file_path)
if file_path.endswith('.xls') or file_path.endswith('xlsx'):
return read_excel(file_path) def df_to_file(df: DataFrame, file_path: str, index: bool = True, encoding: str = 'utf_8_sig'):
if file_path.endswith('.csv'):
df.to_csv(file_path, index=index, encoding=encoding)
if file_path.endswith('.xls') or file_path.endswith('xlsx'):
df.to_excel(file_path, index=index) def merge_two_data(file1: str, file2: str, on: str = None, left_on: str = None, right_on: str = None,
how: str = 'inner', to_file: str = None):
"""
横向合并两个文件
@param file1:
@param file2:
@param on:
@param left_on:
@param right_on:
@param how:
@param to_file:
@return:
"""
df1 = read_file(file1)
df2 = read_file(file2)
merge_df = merge(df1, df2, on=on, how=how, left_on=left_on, right_on=right_on)
if to_file:
if to_file.endswith('.csv'):
merge_df.to_csv(to_file, encoding='utf_8_sig', index=False)
elif to_file.endswith('xls') or to_file.endswith('xlsx'):
merge_df.to_excel(to_file, index=False)
else:
return merge_df def append_two_file(file1: str, file2: str, ignore_index: bool = True, to_file: str = None):
"""
纵向合并两个文件
@param file1:
@param file2:
@param to_file:
@return:
"""
df1 = read_file(file1)
df2 = read_file(file2)
df3 = df1.append(df2, ignore_index=ignore_index)
if to_file:
df_to_file(df3, to_file, index=False)
else:
return df3 def join_two_file(file1: str, file2: str, on=None, left_on=None, right_on=None, how: str = 'left', to_file: str = None):
"""
横向联接两个表格文件
@param file1:
@param file2:
@param on:
@param left_on:
@param right_on:
@param how:
@param to_file:
@return: None or DataFrame
"""
if on:
df1 = read_file(file1).set_index(keys=on)
df2 = read_file(file2).set_index(keys=on)
elif left_on or right_on:
df1 = read_file(file1).set_index(keys=on) if left_on else read_file(file1)
df2 = read_file(file2).set_index(keys=on) if right_on else read_file(file2)
else:
df1 = read_file(file1)
df2 = read_file(file2)
df3 = df1.join(df2, how=how)
if to_file:
df_to_file(df3, to_file, index=False)
else:
return df3 def concat_mul_file(axis: int = 0, on=None, to_file: str = None, encoding: str = 'utf_8_sig', *files):
"""
多个表格文件合并
@param axis: 0/index 1/column 若axis=1, 默认基于索引将多个文件合并
@param on: 当axis=1时,指定索引列/索引列
@param to_file: 导出文件路径
@param encoding: 导出文件编码
@param files: 合并文件路径
@return:
"""
if len(files) > 1:
if axis == 1 and on:
objs = [read_file(file).set_index(keys=on) for file in files]
else:
objs = [read_file(file) for file in files]
merge_data = concat(objs=objs, axis=axis)
if to_file:
df_to_file(merge_data, to_file, index=False, encoding=encoding)
else:
return merge_data
else:
raise Exception('合并的文件个数小于2,不能进行合并,请输入大于等于两个文件路径')

 经验分享:若为两个文件合并,横向合并可以选择merge,join,concat,纵向合并可以选择append,concat,若为多个文件合并(大于2),只能选择concat。

常用函数三:将文件按时间划分

一个文件若有一列是时间类型,那么处理此类数据时经常会有一个需求就是按照时间点划分此文件为多个文件,从实现上来说,读取文件之后,把时间那一列转换为时间类型,然后可以利用时间类型可以直接比较的,那么这样就可以实现划分的目的。以下是具体实现通用代码。

# -*- coding: utf-8 -*-

"""
Datetime: 2020/06/25
Author: Zhang Yafei
Description: 将文件按时间段划分
"""
import pandas as pd
from datetime import datetime def data_part(file_path, col, time_list):
df = pd.read_excel(file_path)
df[col] = pd.to_datetime(df[col])
for t in range(len(time_list)):
if t != len(time_list) - 1:
data = df[(df[col] >= time_list[t]) & (df[col] <= time_list[t+1])]
else:
data = df[(df[col] >= time_list[t])]
data.to_excel(f"{file_path}_{t}.xlsx", index=False) if __name__ == '__main__':
time_list = [datetime(2020, 1, 21), datetime(2020, 1, 24), datetime(2020, 2, 3)]
data_part('山西政策.xlsx', col='发布时间', time_list=time_list)

经验分享:此功能函数可以直接拿来用,但是简单的几行代码,对于其应用场景和使用熟练的运用可以帮助我们实现更复杂的功能。

常用函数四:数据去重

# -*- coding: utf-8 -*-

"""
Datetime: 2020/06/29
Author: Zhang Yafei
Description: 04_数据去重
"""
from pandas import read_csv, read_excel def data_drop_duplicate(file: str, to_file: str, columns: list = None, keep: str = 'first'):
"""
:param file: 要去重的文件路径
:param to_file: 去重之后保存的文件路径
:param columns: 哪些列重复的去重
:param keep: 重复的情况下,保留方式,默认 'first'
"""
if file.endswith('csv'):
df = read_csv(file)
else:
df = read_excel(file)
if columns:
df.drop_duplicates(subset=columns, keep=keep, inplace=True)
else:
df.drop_duplicates(keep=keep, inplace=True)
if to_file.endswith('csv'):
df.to_csv(to_file, index=False)
elif to_file.endswith('xlsx') or to_file.endswith('xls'):
df.to_excel(to_file, index=False) if __name__ == '__main__':
# 修改参数 file 文件名 columns 去重的列 to_file 去重之后新文件名
data_drop_duplicate(file='data.xlsx', columns=['id', 'title'], to_file='new_data.xlsx')

经验分享:这个功能Python实现起来是非常的方便,基本上关键功能只需一行代码,之前觉得这个功能很简单,而且我用的时候这只是其中很小的一个步骤,没必要单独记录下来。直到后来有同学经常单独那这个功能来问我,我就觉得有必要记录下来了,我相信这也是这个系列博客存在的意义,记录过往,记录曾经,不重复造轮子,但造出来的轮子随时可以找到拿来用,所以这系列的博客定位就是利用轮子仓库帮助理解实际应用的知识,从而更好的提高自己的逻辑能力,理解代码的能力和具体写代码的能力,不积跬步无以至千里,不积小流无以成江海,核心道理就是积少成多,直至某一天完成质变。

Python常用功能函数系列总结(一)的更多相关文章

  1. Python常用功能函数系列总结(二)

     本节目录 常用函数一:sel文件转换 常用函数二:refwork文件转换 常用函数三:xml文档解析 常用函数四:文本分词 常用函数一:sel文件转换 sel是种特殊的文件格式,具体应用场景的话可以 ...

  2. Python常用功能函数系列总结(三)

    本节目录 常用函数一:词频统计 常用函数二:word2vec 常用函数三:doc2vec 常用函数四:LDA主题分析 常用函数一:词频统计 # -*- coding: utf-8 -*- " ...

  3. Python常用功能函数系列总结(七)

    本节目录 常用函数一:批量文件重命名 常用函数一:批量文件重命名 # -*- coding: utf-8 -*- """ DateTime : 2021/02/08 10 ...

  4. Python常用功能函数系列总结(六)

    本节目录 常用函数一:词云图 常用函数二:关键词清洗 常用函数三:中英文姓名转换  常用函数四:去除文本中的HTML标签和文本清洗 常用函数一:词云图 wordcloud # -*- coding: ...

  5. Python常用功能函数系列总结(五)

    本节目录 常用函数一:向量距离和相似度计算 常用函数二:pagerank 常用函数三:TF-IDF 常用函数四:关键词提取 常用函数一:向量距离和相似度计算 KL距离.JS距离.余弦距离 # -*- ...

  6. Python常用功能函数系列总结(四)之数据库操作

    本节目录 常用函数一:redis操作 常用函数二:mongodb操作 常用函数三:数据库连接池操作 常用函数四:pandas连接数据库 常用函数五:异步连接数据库 常用函数一:redis操作 # -* ...

  7. Python常用功能函数总结系列

    Python常用功能函数系列总结(一) 常用函数一:获取指定文件夹内所有文件 常用函数二:文件合并 常用函数三:将文件按时间划分 常用函数四:数据去重 Python常用功能函数系列总结(二) 常用函数 ...

  8. Python常用功能函数

    Python常用功能函数汇总 1.按行写字符串到文件中 import sys, os, time, json def saveContext(filename,*name): format = '^' ...

  9. Python 常用string函数

    Python 常用string函数 字符串中字符大小写的变换 1. str.lower()   //小写>>> 'SkatE'.lower()'skate' 2. str.upper ...

随机推荐

  1. Delphi编译报错对照表

    ';' not allowed before 'ELSE' → ElSE前不允许有";" " clause not allowed in OLE automation s ...

  2. socket通道

    一.socket 网络上的两个程序通过一个双向的通信连接实现数据的交换,这个连接的一端称为一个socket. 就是两个进程,跨计算机,他俩需要通讯的话,需要通过网络对接起来.这就是 socket 的作 ...

  3. Python用matplotlib绘图网格线的设置

    一.X轴网格线的设置 import matplotlib.pyplot as plt import numpy as np from pylab import mpl mpl.rcParams['fo ...

  4. [BUUCTF]PWN——gyctf_2020_borrowstack

    gyctf_2020_borrowstack 附件 步骤: 例行检查,64位程序,开启NX保护 本地运行一下程序,看看大概的情况 64位ida载入,直接从main函数开始看程序, buf可以溢出0x1 ...

  5. 洛谷 11 月月赛 I Div.2 A [Kubic] Addition 题解

    Content 你有一个长度为 \(n\) 的序列 \(a\).你可以执行 \(n-1\) 次操作,每次操作中你可以选择一个位置 \(i\),并删除 \(a_i\) 和 \(a_{i+1}\),再在原 ...

  6. CF433B Kuriyama Mirai's Stones 题解

    Content 有一个长度为 \(n\) 的数组 \(a_1,a_2,a_3,...,a_n\).有 \(m\) 次询问,询问有以下两种: \(1~l~r\),求 \(\sum\limits_{i=l ...

  7. CF755C PolandBall and Forest 题解

    Content 给定无向图的 \(n\) 个点的父亲节点,求无向图的联通块个数. 数据范围:\(1\leqslant n\leqslant 10^4\). Solution 并查集模板题. 我们将在当 ...

  8. Nacos——注册中心

    目录 1.什么是nacos 2.使用--依赖+配置文件 3.Nacos服务分级存储模型 4.服务跨集群调用问题 5.服务集群属性--配置服务集群 6. Nacos-NacosRule负载均衡 7.根据 ...

  9. Golang爬虫+正则表达式

    最近学习go,爬取网站数据用到正则表达式,做个总结: Go中正则表达式采用RE2语法(具体是啥咱也不清楚): 字符 . --匹配任意字符 e.g: abc. 结果: abcd,abcx,abc9; [ ...

  10. java 图形化小工具Abstract Window Toolit 事件处理

    事件处理设计到了三个对象: EventSource(事件源):事件发生的场所,通常就是各个组件,例如按钮.窗口,菜单等. Event (事件封装了GUI组件上发生的特定事情(通常就是一次用户操作).如 ...