从某些网站看小说的时候经常出现垃圾广告,一气之下写个爬虫,把小说链接抓取下来保存到txt,用requests_html全部搞定,代码简单,容易上手. 中间遇到最大的问题就是编码问题,第一抓取下来的小说内容保持到txt时出现乱码,第二url编码问题,第三UnicodeEncodeError 先贴源代码,后边再把思路还有遇到的问题详细说明. from requests_html import HTMLSession as hs def get_story(url): global f session
之前有个老朋友,让帮忙将一个mat中的数据重新保存到txt中,由于数据比较多需要用到批处理,之前弄过很多次,但每次一到要用的时候总是忘记怎么写了,现在记录一下,免得后面老是需要上网搜.这里先说一个比较有意思的matlab函数--dlmwrite,用这个函数将数据导入到txt文件中,其实用save也是可以的,但是这个函数的功能更强大,而且可以按不同的要求导入数据.因为将数据导入到txt中时,需要用逗号分隔,其主要函数格式如下: 1.dlmwrite(filename, M) 使用默认的分隔符(')
// write the predicted score into txt files ofstream file("/home/wangxiao/Downloads/caffe-master/wangxiao/bvlc_alexnet/predict_score.txt",ios::app); if(!file) return; static int nu = 0; if(nu < 35){ file << b
procedure TForm1.btn1Click(Sender: TObject); var astr: string; sList: TStrings; path: string; begin sList := TStringList.Create; path := 'C:\a\b.txt'; try if not DirectoryExists(ExtractFilePath(path)) then begin ForceDirectories(ExtractFilePath(path)
import os os.chdir("C:/") path = os.getcwd() print(path) f = open("sql.csv") # print(f.read()) f.seek(0) lst = [] n = 0 for line in f.readlines(): if n > 0: fullname = line.rsplit('/', 1) #从右侧开始以第一个"/"为分隔符将字符串分割为两端,保存为2元素列