package com.it.excel.excelLearn; import java.io.IOException; import java.util.HashMap; import java.util.LinkedList; import java.util.List; import java.util.Map; import java.util.Map.Entry; import java.util.Set; public class App { public static void m…
大概思路是: 读取文件 根据文件中行内容为GO 作为分割  一条条放到list中 然后在程序中逐条执行sql语句; 值得一提的是 创建数据库的语句是不允许放到程序事务中执行的 所以目前我是分了两个文本文件  先执行创建数据库的语句 把数据库创建完成 再通过事务执行建表 存储过程等的语句; 目前没有找到可以一起执行创建的方法 如果有朋友有解决的方法还望能够指教一下 代码贴上: 首先创建数据库: string con = System.Configuration.ConfigurationManag…
pDC->SetMapMode(MM_ANISOTROPIC ); //首先选择MM_ANISOTROPIC映射模式,其它映射模式都不合适 pDC->SetWindowExt( max(abs(rMH.Xmax),abs( rMH.Xmin)), max(abs(rMH.Ymax),abs(rMH.Ymin))); //都以绝对值中较大的为参考 pDC->SetViewportExt( rClient.right/, -rClient.bottom/); //与客户区的一半对应,方向可选…
今天,在调试一个node项目时,发现了一个很大的坑,在此分享给大家! 大家都知道,Json.parse()方法对格式要求是很严格的,格式不对极其容易报错,但是有时候格式看似是正确的也会报错. 比如这一段在控制台可以正确的用Json.parse()方法解析出来,但是我把它放到记事本中仍然可以正确读取到一模一样的数据 但是如果此时用JSON.parse方法解析这段字符串就会报错. 为什么呢,因为记事本这个编辑工具在手动保存时会自动把数据做一些处理,导致数据看起来是对的,但是却无法解析,因为数据里面搀…
今天,在调试一个node项目时,发现了一个很大的坑,在此分享给大家! 大家都知道,Json.parse()方法对格式要求是很严格的,格式不对极其容易报错,但是有时候格式看似是正确的也会报错. 比如这一段在控制台可以正确的用Json.parse()方法解析出来,但是我把它放到记事本中仍然可以正确读取到一模一样的数据 但是如果此时用JSON.parse方法解析这段字符串就会报错. 为什么呢,因为记事本这个编辑工具在手动保存时会自动把数据做一些处理,导致数据看起来是对的,但是却无法解析,因为数据里面搀…
这里只做一个简单的实例 public ActionResult Index() { string path = Server.MapPath("/test/");//文件输出目录 Encoding code = Encoding.GetEncoding("gb2312"); StreamWriter sw = null; string str = "<html><body>$ShowArticle$</body><…
import os import linecache import time from SSDB import SSDB ssdb = SSDB('127.0.0.1', 8888) print("start") start = time.clock() cache_data = linecache.getlines("/usr/local/access.log") for line in range(len(cache_data)): ssdb.request('…
//Get and Parse Response def response = context.expand(‘${TestStepName#Response}’) def xmlParser = new XmlParser().parseText(response) HashMap map = new HashMap() xmlParser.r.each{ String name = it.attribute("name") it.c.each{ String value = it.…
from itertools import islice with open(“1.txt") as f: for a in islice(f,0,2): print(a)…
第一次写博客,哈哈,纯属用来记录一下自己工作中遇到的问题及解决办法. 昨天因为工作的需求,需要做一个后台上传TXT文件,读取其中的内容,然后导入redis库中.要求速度快,并且支持至少10W以上的数据,而内容也就一个字段存类似openid和QQ.我一开始做的时候就老套路,遍历.hset,然后就发现非常的慢,一千条数据就花了30-32秒,当时就觉得不行,于是就请教了一个大佬,然后就得知了方法 我生成了20W的数据用来做测试,文件大小6M多. 话不多说,直接贴代码了 $lines = file_ge…