今天长清女子学校的主任给我微信上发了一图片,说登录服务器的时候就查看了一个文件,结果服务器的风扇忽然变的特别响,系统慢了好多,让我看看是什么回事!我当时心里想,无缘无故怎么会这样,难不成是进病毒了?查看一个文件服务器不至于这么大的反应呀!难不成这个主任又做了什么神操作? 还在公交车上的我,掏出笔记本,打开手机热点,远程了主任的电脑,哎,在公交车上鼠标都没地方放一下,只能使用触摸板操作,这也太别扭了. 我先用history看了一下主任的操作,发现主任确实只是查看一个文件,文件是一个.log结尾的,…
Atitit 大json文件的结构化查看解决方案,高性能的jsonview  attilax总结.docx 1.1. 实现目标:1 1.2. 实现key与value类型的..一直分析到非 jsonobject jsonarray位置..1 1.3. 现存问题  fastjson使用string格式的内容,导致文件内容大小依然存在上限..1 1.4. 效果2 1.5. 参考资料4 选型了很多jsonviewer,只能对小数据量的文件生效..一旦涉及到9M左右的json文件,就都统统歇菜了.. 只好…
当需要将较大的数据上传到服务器,或从服务器下载较大的日志文件时,往往会因为网络或其它原因而导致传输中断而不得不重新传输.这种情况下,可以先将大文件分割成小文件后分批传输,传完后再合并文件. 1.分割 -- split命令 可以指定按行数分割和按字节大小分割两种模式. (1) 按行数分割 $ split -l 300 large_file.txt new_file_prefix 加上-d,使用数字后缀:加上--verbose,显示分割进度: $ split -l50000 -d large_fil…
cat 由第一行开始显示文件内容 tac 从最后一行开始显示,可以看出 tac 是 cat 的倒著写! nl 显示的时候,顺道输出行号! more 一页一页的显示文件内容 less 与 more 类似,但是比 more 更好的是,他可以往前翻页! head 只看头几行 tail 只看尾巴几行 od 以二进位的方式读取文件内容! cat (concatenate) [root@www ~]# cat [-AbEnTv] 选项与参数: -A :相当於 -vET 的整合选项,可列出一些特殊字符而不是空…
功能说明:读取,转换并输出数据. 语 法:dd [bs=<字节数>][cbs=<字节数>][conv=<关键字>][count=<区块数>][ibs=<字节数>][if=<文件>][obs=<字节数>][of=<文件>][seek=<区块数>][skip=<区块数>][–help][–version] 补充说明:dd可从标准输入或文件读取数据,依指定的格式来转换数据,再输出到文件,设备或…
一些简单的 Linux 命令能让你根据需要分割以及重新组合文件,来适应存储或电子邮件附件大小的限制. Linux 系统提供了一个非常易于使用的命令来分割文件.在将文件上传到限制大小的存储网站或者作为邮件附件之前,你可能需要执行此操作.要将文件分割为多个文件块,只需使用 split 命令. $ split bigfile 默认情况下,split 命令使用非常简单的命名方案.文件块将被命名为 xaa.xab.xac 等,并且,大概地,如果你将足够大的文件分割,你甚至可能会得到名为 xza 和 xzz…
场景 有一个几十m的大日志文件,里边的记录是按时间排序的. 现在需要找到其中,不知道在什么位置的一条错误消息.这时候,想把内容拷出来都费劲,就算拷出来了,一般的编辑器也难以hold住这么大的文件.这时候,用less,就能很简单方便的解决这个问题. 使用 首先是打开文件: less fileName.log ctrl + f,看着时间,往下一页一页的翻. 如果 觉得信息偏下,可以跳到日志文件的最后一行:shift+g 然后,ctrl+b往上一页一页翻页查看 如果知道关键词还可以搜索,按 '/' 之…
解决nohup命令生成的多余的大日志文件 经常使用命令 nohup /usr/bin/php /srv/www/update.php & 可以让它在后台安静的进行,但是有一个烦恼就是,它会生成一个日志文件nohup.out 而且这个文件,不断的增加.太占空间了. 网上找了一下,自己以前也记得好可以输出到一个什么设备里面,就可以了. 这次确实了,原来是输出到/dev/null,它就不会管了. 好了,把上面的命令修改一下了. nohup /usr/bin/php /srv/www/update.ph…
SQL Server 2008 收缩日志 清空删除大日志文件 由于SQL2008对文件和日志管理进行了优化,所以以下语句在SQL2005中可以运行但在SQL2008中已经被取消:(SQL2005)Backup Log DNName with no_loggodump transaction DNName with no_loggoUSE DNNameDBCC SHRINKFILE (2)Go-----------------------------------------------------…
大部分网站虚拟主机为了安全起见,都限制了通过命令或者phpMyAdmin导入大sql文件到mysql数据库,例如godaddy只允许站长通过phpMyAdmin上传不超过2m的sql文件,但实际上我们要导入到虚拟主机的sql文件远远大于2m.幸好我们还是可以使用一些第三方工具来辅助实现导入大sql文件到网站虚拟主机的mysql数据库.这个工具叫bigdump,它会分段执行大sql文件,并会自动重启,重启后从上一次执行停止处重新执行.以下是bigdump工具的使用方法. 1.下载bigdump 从…
摘自:http://www.xunway.com/info/post/499.asp 昨天小编的一个客户在在利用phpmyadmin导入大sql文件的时候,总是提示错误,反应给小编,小编也是第一次遇到这样的问题,咨询了一些同行,总结如下供大家参考下       phpmyadmin导入数据库时提示: You probably tried to upload too large file. Please refer to documentation for ways to workaround t…
1 编写目的 进行性能测试时,测试服务器使用的操作系统是Linux或Unix时,我们一般会使用Nmon工具进行操作系统资源监控数据的收集.Nmon工具是一款非常优秀的性能监控和分析工具,它能够实时地收集系统资源的使用情况,并且能输出结果到文件中,然后通过Nmon_analyzer工具生成.xls格式的数据文件和图形化的监测结果.通过图形化界面分析,得出系统在一段时间内资源占用的变化趋势,有了这个分析结果就可以帮助我们更好定位性能问题. 但是在实际的使用过程中,特别是长时间稳定性测试时,当单个结果…
phpmyadmin-您可能正在上传很大的文件,请参考文档来寻找解决方法   实这个很简单的只要更改php.ini里三个配置即可.(见下面加粗部分,改成你自己的需求即可) ; Maximum allowed size for uploaded files. ; http://php.net/upload-max-filesize ;upload_max_filesize = 2M upload_max_filesize = 300M ; Maximum amount of memory a sc…
SQL Server日志文件过大    大日志文件清理方法 ,网上提供了很多分离数据库——〉删除日志文件-〉附加数据库 的方法,此方法风险太大,过程也比较久,有时候也会出现分离不成功的现象.下面的方式是不需要做数据库分离和附加操作的. SQL 2008收缩清空日志方法: 1.在SQL2008中清除日志就必须在简单模式下进行,等清除动作完毕再调回到完整模式,一定必务要再改回完整模式,不然数据库就不支持时间点备份了.1).选择数据库–属性—选项—恢复模式–选择简单.2).收缩数据库后,再调回完整.2…
查看文件内容 [root@salt-server- .txt ada sada sadas -n 查看文件内容并显示行数 [root@salt-server- .txt ada sada sadas…
最近遇到一个需要导入大SQL文件的问题,最先直接用SQL developer 导入大SQL文件,结果报IO Exception,只好采用sqlplus 导入,操作过程如下: sqlplus 用户名/密码@远程数据库ip:端口/实例名  1 连接成功之后使用命令 SQL>@E:\bigdata.sql 1 有时候中文会出现乱码问题,或者报错.例如: ERROR: ORA-01756: quoted string not properly terminated 1 2 此时,需要排查数据库服务器的字…
sqlcmd导入大数据文件 SQLCMD 允许在Windows命令窗中通过命令行提示符运行脚本. 语法如下: sqlcmd  [  { { -U <login id> [ -P <password> ] } | -E }  ]  [-S <server> [ \<instance > ] ] [ -H <workstation> ] [ -d <database> ]  [ -l <time out> ] [ -t <…
近期有个任务要求处理大XML文件,其中有个存了Base64的大节点(>90M,路径已知). 这种任务只能上XmlReader,即使如此大节点的处理还是头疼了一阵…… 最初查MSDN的时候,找到了ReadChars(),可以拿来对付大节点. 方法说明:https://msdn.microsoft.com/zh-cn/library/system.xml.xmltextreader.readchars(v=vs.110).aspx 示例中提到使用方法是: != reader.ReadChars(bu…
w Parsing Huge XML Files Incrementally http://pclib.github.io/safari/program/python-cookbook/Text/ch06s04.html 如何:执行大型 XML 文档的流式转换https://msdn.microsoft.com/zh-cn/library/bb387013.aspx 大XML文件解析入库的一个方法 - 天下无贼 - 51CTO技术博客http://guojuanjun.blog.51cto.co…
  文件内容操作命令 cat.more.less.head.tail.wc.grep 命令详情 1)        cat命令   用途:显示出文件的全部内容   格式:cat 目标文件   例:            [root@localhost~]# cat  /etc/resolv.conf   search localdomain   文件内容操作命令都需要使用文本文件的名称作为命令参数(或者通过管道操作获取文本内容).   cat命令本来用于连接多个文件的内容,但在实际使用中更多的用…
期间,用phpMyAdmin去导入90M左右的mysql数据库文件时出错: 您可能正在上传很大的文件,请参考文档来寻找解决方法. [解决过程] 1.很明显,是文件太大,无法导入.即上传文件大小有限制. 所以要去解除此限制. 之前其实也遇到类似的问题,之前就解决了. 这次只是再去找到对应的配置的地方,修改配置,应该就可以了. 2.参考: http://localhost/phpmyadmin/Documentation.html#faq1_16 去改对应的上传文件大小的限制: E:\dev_ins…
我们在编辑较大篇幅的文章时,无可避免地要经过多次的修改.有时候修改的版本过多时,我们很可能就会记不清最新版的文章对比上一版的文章,究竟修改了哪些地方.但有了Beyond Compare(Windows系统)文件对比工具的帮助,我们就可以快速地找出不同版本文件的差异点,而且通过运用一些小技巧,还能加快大篇幅文件的对比效率.接下来,就让我们一起来讲解下这些小技巧吧. 图1:文本比较功能 第一.查看差异 首选,我们需要在Beyond Compare文件对比工具的首页开启软件的"文本比较"功能…
node.js 如何处理一个很大的文件 思路 arraybuffer 数据分段 时间分片 多线程 web workers sevice workers node.js 如何处理一个很大的文件 https://cnodejs.org/topic/55a73038f73c01466cf931f2 使用fs.createReadStream()创建一个读文件流,这种方式可不受限于文件的大小: https://juejin.im/post/5d3c27ccf265da1b8d1665ba Buffer对…
在 Node.js 中处理大 JSON 文件 场景描述 问题一: 假设现在有一个场景,有一个大的 JSON 文件,需要读取每一条数据经过处理之后输出到一个文件或生成报表数据,怎么能够流式的每次读取一条记录? [ {"id": 1}, {"id": 2}, ... ] 问题二: 同样一个大的 JSON 文件,我只读取其中的某一块数据,想只取 list 这个对象数组怎么办? { "list": [], "otherList": […
文本处理 cat file1|command(sed,grep,awk,) > result.txt 合并一个文件的详细说明文本,并将简介写入一个新文件中 cat file1|command(sed,grep,awk,) >> result.txt 合并一个文件的详细说明文本,并将简介写入一个已有的文件中 grep Aug file1 在文件中查找关键词 ‘Aug’ grep ^Aug file1 在文件中查找关键词 ‘Aug’开始的词汇 grep [0-9] file1 在文件中查找所…
提要 //添加git跟踪文件,stage操作 $git add readme.txt //提交到本地分支 $git commit -m xxx //查看当前git工作状态,可以看到未跟踪文件,已跟踪未stage文件,已stage可commit文件 $git status //查看某文件的差异,只能查看 $ git diff readme.txt 一.提交一个文件 commit 在刚刚创建好的仓库文件夹里面创建一个文件readme.txt commit操作一共分2步,类似于图形操作里面的stage…
python库文件文档的查看 第一步:cmd窗口输入:python -m pydoc -p 4567,后台运行 第二步:浏览器中打开http://localhost:4567/…
2021-09-01 1. 问题描述 刚才看到一个文件,出于好奇我就直接用 cat 命令查看了一下,结果文件巨大,一直刷屏停不下来 2. 解决方法 克隆一个窗口,抓一下这个 cat 进程,再使用 kill 命令杀死他 # 抓取 cat 进程 ps -ef | grep -w cat # 获取到进程号之后使用 kill 命令杀掉该进程 kill -9 进程号…
这几天实现了个Lucene分布式检索的模块,采用的分布式方案是将数据分块,分别生成N个索引文件,放到N个节点上运行.检索时,对每一个节点发出查询请求,将N个节点返回的结果归并,然后生成一个新的结果.如果没看明白,可以看看我的帖子 http://www.iteye.com/topic/212046 ,这个方案同帖子中的思想是一致的. 用这样的方案,遇到的问题是归并过后的结果,同没有归并结果是有一定区别的.在实现这个方案前我也分析过,Lucene使用TF/IDF算法来计算相关度,所以会产生这样的问题…
问题说明:IDC里的一台服务器的/分区使用率爆满了!已达到100%!经查看发现有个文件过大(80G),于是在跟有关同事确认后rm -f果断删除该文件.但是发现删除该文件后,/分区的磁盘空间压根没有释放出来,使用率还是100%!这是为什么呢?? [root@linux-node1 ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/VolGroup00-LogVol00 58G 7.8G 47G 100% / tmpfs…