再用pd.read_csv读取大文件时,如果文件太大,会出现memoryerror的问题. 解决办法一:pd.read_csv的参数中有一个chunksize参数,为其赋值后,返回一个可迭代对象TextFileReader,对其遍历即可 reader = pd.read_csv(file_path, chunksize=20) # 每次读取20条数据 import pandas as pd def knn(): # 读取数据 file_path = './facebook/train.csv'…