工作需要导出几万的数据量.操作比较频繁.之前数据在七八千是数据导出很慢.phpExcel是方便但是性能一般.现在改为使用csv导出数据:可以缓解内存压力,一次导出两三万是没问题的.当然服务器内存给力,加上数据库优化相信这个还是比较方便的. 具体方法如下: 在Think文件下新建Csv.class,php { //导出csv文件 public function put_csv($list,$title){ $file_name="CSV".date("mdHis",t
关于tomcat的一个优化问题: 有时候保存大数据量的数据时.tomcat不优化的话,页面会没反应.tomcat后台并不报错,仅仅是提示以下内容: 警告: More than the maximum number of request parameters (GET plus POST) for a s ingle request ([10,000]) were detected. Any parameters beyond this limit have be en ignored. To c
在做 ajax 滚动加载的时候,越到后面 数据量越大,使用obj.innerHTML+=row添加到页面的时候,出现ie内存不足的情况,此时使用createDocumentFragment,创建一个文档碎片,把所有的新节点附加其上,然后把文档碎片一次性添加到document中,内存节省明显. <script type="text/javascript"> function append(parent, text) { if (typeof text === 'string'