.Net批量插入数据
1. 一般我们普通数据插入是这样的:
现在我们写一个控制台程序用常规办法添加10000条数据。
//以下是批量插入数据的办法
//连接字符串
string str = "Server=.;Database=doudou;Uid=sa;Pwd=1994min";
string doudou = "doudou";
int age = ; DateTime startTime = DateTime.Now; //创建一个本地的数据集合
DataTable dt = new DataTable();
//创建列
dt.Columns.Add("name");
dt.Columns.Add("age"); for (int i = ; i <= ; i++)
{
DataRow row = dt.NewRow();//创建 DataRow对象
//为每列赋值
row["name"] = doudou;
row["age"] = age; dt.Rows.Add(row);//插入到本地datatable中 }
这种方式执行完大概需要21秒
2.使用SqlBulkCopy 类操作数据的批量插入(同样是添加10000条数据):
//连接字符串
string str = "Server=.;Database=doudou;Uid=sa;Pwd=1994min";
string doudou = "doudou";
int age = ; DateTime startTime = DateTime.Now; //创建一个本地的数据集合
DataTable dt = new DataTable();
//创建列
dt.Columns.Add("name");
dt.Columns.Add("age"); for (int i = ; i <= ; i++)
{
DataRow row = dt.NewRow();//创建 DataRow对象
//为每列赋值
row["name"] = doudou;
row["age"] = age; dt.Rows.Add(row);//插入到本地datatable中 } //批量插入语法
using(SqlBulkCopy sbc = new SqlBulkCopy(str))
{
//设置要插入的表名
sbc.DestinationTableName = "BatchWrite"; //与服务器数据库列名映射,
sbc.ColumnMappings.Add("name","name");
sbc.ColumnMappings.Add("age", "age"); //执行
sbc.WriteToServer(dt);
}; //获取执行的时间段
TimeSpan ts = DateTime.Now - startTime;
Console.WriteLine(ts.Seconds);
Console.ReadKey();
结果输出只用了不到1秒的时间
所以在批量添加的时候使用SqlBulkCopy类来操作效率还是比较高的,如果数据量特别大的时候也要考虑内存的问题,为了方便使用就封装了一下
public static bool ExcuteNonQuery(DataTable dt)
{
using (SqlConnection connection = new SqlConnection(connStr))//创建数据库连接
{
using (SqlBulkCopy sqlbulkcopy = new SqlBulkCopy(connection))
{
connection.Open();
//sqlbulkcopy.BulkCopyTimeout = 100; //超时之前操作完成所允许的秒数
sqlbulkcopy.BatchSize = dt.Rows.Count; //每一批次中的行数
sqlbulkcopy.DestinationTableName = dt.TableName; //服务器上目标表的名称
for (int i = ; i < dt.Columns.Count; i++)
{
sqlbulkcopy.ColumnMappings.Add(dt.Columns[i].ColumnName, dt.Columns[i].ColumnName); //映射定义数据源中的列和目标表中的列之间的关系
}
sqlbulkcopy.WriteToServer(dt); // 将DataTable数据上传到数据表中
}
}
return true;
}
调用方法:
public void AddData(){
//创建一个本地的数据集合
DataTable dt = new DataTable();
//创建列
dt.Columns.Add("name");
dt.Columns.Add("age");
for(int i;i<;i++){
DataRow row = dt.NewRow();//创建 DataRow对象
row["name"] = "张三";
row["age"] = ;
dt.Rows.Add(row);
}
dt.TableName = "UserInfo"; //要添加的表明
SqlHelper.ExcuteNonQuery(dt);//调用批量插入方法
}
特别注意 sqlbulkcopy.ColumnMappings.Add(dt.Columns[i].ColumnName, dt.Columns[i].ColumnName);
插入的时候列的顺序可以不一致,但名称和数据类型最好要保存一致。不一致时候,也能进行正确的转换,除了比如DataTime数据类型,不能插入一个无效的string时间字符串。
在插入数据的时候如果数据类型是Guid类型的时候。一定要创建列的时候一定要指定数据类型: dt.Columns.Add("UserID", typeof(System.Data.SqlTypes.SqlGuid));,
不然会报“来自数据源的 String 类型的给定值不能转换为指定目标列的类型 uniqueidentifier。”这个错。
.Net批量插入数据的更多相关文章
- C#批量插入数据到Sqlserver中的四种方式
我的新书ASP.NET MVC企业级实战预计明年2月份出版,感谢大家关注! 本篇,我将来讲解一下在Sqlserver中批量插入数据. 先创建一个用来测试的数据库和表,为了让插入数据更快,表中主键采用的 ...
- .Net批量插入数据到SQLServer数据库,System.Data.SqlClient.SqlBulkCopy类批量插入大数据到数据库
批量的的数据导入数据库中,尽量少的访问数据库,高性能的对数据库进行存储. 采用SqlBulkCopy来处理存储数据.SqlBulkCopy存储大批量的数据非常的高效,将内存中的数据表直接的一次性的存储 ...
- sql 中的Bulk和C# 中的SqlBulkCopy批量插入数据 ( 回顾 and 粗谈 )
通常,我们会对于一个文本文件数据导入到数据库中,不多说,上代码. 首先,表结构如下. 其次,在我当前D盘中有个文本文件名为2.txt的文件. 在数据库中,可以这样通过一句代码插入. Bulk in ...
- Java 批量插入数据(Oracle)
//批量添加20000条数据用时8秒. try { String url = "jdbc:oracle:thin:@IP:1521:orcl"; // orcl为数据库的SI ...
- 批量插入数据(基于Mybatis的实现-Oracle)
前言:做一个数据同步项目,要求:同步数据不丢失的情况下,提高插入性能. 项目DB框架:Mybatis.DataBase:Oracle. -------------------------------- ...
- C#批量插入数据到Sqlserver中的三种方式
本篇,我将来讲解一下在Sqlserver中批量插入数据. 先创建一个用来测试的数据库和表,为了让插入数据更快,表中主键采用的是GUID,表中没有创建任何索引.GUID必然是比自增长要快的,因为你生 成 ...
- SqlServer——批量插入数据
像Major表里面批量插入数据演示: 代码如下: Declare @I int Set @I= Begin Tran InsertData: Insert into Major values(@I,' ...
- mybatis批量插入数据到oracle
mybatis 批量插入数据到oracle报 ”java.sql.SQLException: ORA-00933: SQL 命令未正确结束“ 错误解决方法 oracle批量插入使用 insert a ...
- SQLServer 批量插入数据的两种方法
SQLServer 批量插入数据的两种方法-发布:dxy 字体:[增加 减小] 类型:转载 在SQL Server 中插入一条数据使用Insert语句,但是如果想要批量插入一堆数据的话,循环使用Ins ...
- C#_批量插入数据到Sqlserver中的四种方式
先创建一个用来测试的数据库和表,为了让插入数据更快,表中主键采用的是GUID,表中没有创建任何索引.GUID必然是比自增长要快的,因为你生成一个GUID算法所花的时间肯定比你从数据表中重新查询上一条记 ...
随机推荐
- B. Yet Another Array Partitioning Task ——cf
B. Yet Another Array Partitioning Task time limit per test 2 seconds memory limit per test 256 megab ...
- 缓存数据库Memcache
为什么用缓存数据库 MySQL:将数据存储在磁盘上,数据写入读取相对较慢 Memcached:将数据存在内存中的数据库,数据读写都快,但是数据容易丢失 数据存储,数据仓库选择MySQL这种磁盘的数据库 ...
- vue组件详解——组件通信
每天学习一点点 编程PDF电子书.视频教程免费下载:http://www.shitanlife.com/code 组件之间通信可以用下图表示: 组件关系可分为父子组件通信.兄弟组件通信.跨级组件通信. ...
- 【css】3d导航效果
<!doctype html> <html lang="en"> <head> <meta charset="UTF-8&quo ...
- mybatis之一对多
今天主要话题围绕这么几个方面? mybatis一对多示例 sql优化策略 一.mybatis之一对多 在说一对多之前,顺便说一下一对一. 一对一,常见的例子,比如以常见的班级例子来说,一个班主任只属于 ...
- if选择语句与switch选择语句的比较、区别及应用场景
if选择语句和switch选择语句的比较: 1.switch语句只支持常量值相等的分支判断,而if语句支持更为灵活,任意布尔表达式均可: 2.switch语句通常比一系列嵌套if语句效率更高:逻辑更加 ...
- Java IO(二)——RandomAccessFile
一.RandomAccessFile RandomAccessFile类可以说是Java语言中功能最为丰富的文件访问类,它提供了众多的文件访问方法.RandomAccessFile类支持"随 ...
- Maven学习第2期---Maven安装配置
一.Maven介绍 1.1 何为Maven Maven这个词可以翻译为"知识的积累",也可以翻译为"专家"或"内行".Maven是一个跨平台 ...
- Spark SQL在100TB上的自适应执行实践(转载)
Spark SQL是Apache Spark最广泛使用的一个组件,它提供了非常友好的接口来分布式处理结构化数据,在很多应用领域都有成功的生产实践,但是在超大规模集群和数据集上,Spark SQL仍然遇 ...
- python--递归(附利用栈和队列模拟递归)
博客地址:http://www.cnblogs.com/yudanqu/ 一.递归 递归调用:一个函数,调用的自身,称为递归调用 递归函数:一个可以调用自身的函数称为递归函数 凡是循环能干的事,递归都 ...