JDBC之 大数据内容的传输
JDBC之 大数据内容的传输
什么是大数据内容?
在数据库中,有一条一条的记录,记录中很多字段都是几个字符就够的,假如现在要把一部小说存入数据库,这本小说当然不是几个字符组成,而是由几万字组成,这本小说的数据我们就可以说是大数据,生活中当然有各种各样的大数据:电影,音乐,图片等等。。。
大字符数据内容操作
大字符内容:通常是指很长的字符类型的文件,例如小说,故事等等,内容有字符组成。
下面说明一下MySQL与Oracle中的大数据类型
数据种类 | 数据大小 | MySQL | Oracle |
字符 | 小 | char,varchar | varchar2 |
大 | text/longtext | clob | |
字节 | 大 | bit,blob,longblob | blob |
1.把大字符数据存进数据库(把一个文本的数据存进MySQL中的text类型字段)
@Test
public void writeInDB() throws Exception {
//获取连接
connection = sqlUtil.getconnection(); //获取对象
PreparedStatement preparedStatement =
connection.prepareStatement("insert into book values(?)"); //准备一个Reader用于读取本地文件
Reader reader = new FileReader(new File("e:/test.txt")); //设置大数据参数
preparedStatement.setClob(1, reader); //执行SQL语句
preparedStatement.executeUpdate(); //关闭资源
reader.close();
sqlUtil.close(preparedStatement, connection);
}
2.从数据库把大字符文件读入到本地
@Test
public void readFromDB() throws Exception
{
//获取连接
connection = sqlUtil.getconnection(); //创建对象
PreparedStatement preparedStatement =
connection.prepareStatement("SELECT content FROM book"); //设置参数
//preparedStatement.setObject(1, "book"); //获得结果
ResultSet res = preparedStatement.executeQuery(); //以String的形式获得大字符内容
while(res.next())
{
String content = res.getString("content");
System.out.println(content);
} //关闭资源
sqlUtil.close(preparedStatement, connection);
}
获得结果后还有第二种方法:
@Test
public void readFromDB() throws Exception
{
//获取连接
connection = sqlUtil.getconnection(); //创建对象
PreparedStatement preparedStatement =
connection.prepareStatement("SELECT content FROM book"); //设置参数
//preparedStatement.setObject(1, "book"); //获得结果
ResultSet res = preparedStatement.executeQuery(); FileWriter fileWriter = new FileWriter(new File("d:/11021.txt"));
//利用Clob对象
if(res.next())
{
Clob clob = res.getClob("content");
Reader reader = clob.getCharacterStream(); //然后把Reader写入到本地文件中
char[] cr = new char[1024];
int len = 0;
while((len = reader.read(cr))!=-1)
{
fileWriter.write(cr, 0, len);
}
reader.close();
} //关闭资源
fileWriter.close();
sqlUtil.close(preparedStatement, connection);
}
以上就是对大字符文件的读入与写出~下面我们示范来对大字节文件的操作~
4.把大字节文件写入数据库
@Test
public void writeInDB() throws Exception {
//获取连接
connection = sqlUtil.getconnection(); //获取对象
PreparedStatement preparedStatement =
connection.prepareStatement("insert into book values(?,?)"); //准备一个InputStream用于读取本地文件
InputStream in = new FileInputStream(new File("f:/computer.jpg")); //设置大数据参数
preparedStatement.setObject(1, 1);
preparedStatement.setBlob(2, in);
//也可以使用这个
//preparedStatement.setBinaryStream(2, in); //执行SQL语句
preparedStatement.executeUpdate(); //关闭资源
in.close();
sqlUtil.close(preparedStatement, connection);
}
5.从数据库把大字节文件读取到本地
@Test
public void readFromDB() throws Exception
{
//获取连接
connection = sqlUtil.getconnection(); //创建对象
PreparedStatement preparedStatement =
connection.prepareStatement("SELECT content FROM book where id=?"); //设置参数
preparedStatement.setInt(1, 1); //获得结果
ResultSet res = preparedStatement.executeQuery(); FileOutputStream out = new FileOutputStream(new File("d:/999.jpg"));
//利用Blob对象
if(res.next())
{
//Blob blob = res.getBlob("content");
//InputStream in = blob.getBinaryStream();//这样也行 InputStream in = res.getBinaryStream("content");
//然后把Reader写入到本地文件中
byte[] buf = new byte[1024];
int len = 0;
while((len = in.read(buf))!=-1)
{
out.write(buf, 0, len);
}
in.close();
out.close();
}
//关闭资源
sqlUtil.close(preparedStatement, connection);
}
JDBC之 大数据内容的传输的更多相关文章
- C# 之 提高WebService性能大数据量网络传输处理
1.直接返回DataSet对象 特点:通常组件化的处理机制,不加任何修饰及处理: 优点:代码精减.易于处理,小数据量处理较快: 缺点:大数据量的传递处理慢,消耗网络资源: 建议:当应用系统在内网.专网 ...
- WebService - 怎样提高WebService性能 大数据量网络传输处理
直接返回DataSet对象 返回DataSet对象用Binary序列化后的字节数组 返回DataSetSurrogate对象用Binary序列化后的字节数组 返回DataSetSurrogate对象用 ...
- 使用tar+pigz+ssh实现大数据的高效传输
以前我们跨主机拷贝大数据的时候,比如要拷贝超过100GB的mysql原始数据,我们通常的做法如下: 在源端打包压缩为tar.gz文件 采用scp或者rsync等方式拷贝到目标主机 在目标主机解压文件 ...
- JDBC处理大数据
1.处理大文本 package com.demo; import java.io.File; import java.io.FileNotFoundException; import java.io. ...
- (十六)JDBC 处理大数据
目录 前言: 基本概念 对于Mysql的Text类型 流地址的写法 blob类型数据 备注 前言: 在实际开发中,程序需要把 大文本或二进制 数据保存到数据库中: 实际上,我们并不存储大的数据到数据库 ...
- c# 模拟表单提交,post form 上传文件、大数据内容
表单提交协议规定:要先将 HTTP 要求的 Content-Type 设为 multipart/form-data,而且要设定一个 boundary 参数,这个参数是由应用程序自行产生,它会用来识别每 ...
- WebService下实现大数据量的传输
设置RemotingFormat = SerializationFormat.Binary;再序列化,通过WebService传输,客户端接收,再反序列化,确实效果大大的优于直接传送DataSet,不 ...
- JDBC 学习笔记(二)—— 大数据+存储过程+批处理+事务管理
本文目录: 1.使用JDBC处理大数据 2.使用JDBC处理大文本 3.使用JDBC处理二进制数据 4.Oracle中大数据处理 5 ...
- BLOB:大数据,大对象,在数据库中用来存储超长文本的数据,例如图片等
将一张图片存储在mysql中,并读取出来(BLOB数据:插入BLOB类型的数据必须使用PreparedStatement,因为插入BLOB类型的数据无法使用字符串拼写): -------------- ...
随机推荐
- 修改el-table滚动条样式
<include file="Trade:header" /> <style type="text/css" media="scre ...
- bzoj千题计划228:bzoj2095: [Poi2010]Bridges
http://www.lydsy.com/JudgeOnline/problem.php?id=2095 二分答案,判断是否存在混合图的欧拉回路 如果只有一个方向的风力<=mid,这条边就是单向 ...
- 最好用的xshell替代软件----FinalShell工具
2017年8月份NetSarang公司旗下软件家族的官方版本被爆被植入后门着实让我们常用的Xshell,Xftp等工具火了一把,很长时间都是在用Xshell,不过最近发现了一款同类产品FinalShe ...
- [整理]ASP.NET MVC 5
1.入门 1.1官方资料 http://www.asp.net/mvc/overview/getting-started/introduction/getting-started 疑问: startu ...
- java Concurrent 中的数据结构
一:阻塞数据结构(线程安全) ArrayBlockingQueue:一个由数组结构组成的有界阻塞队列. LinkedBlockingQueue:一个由链表结构组成的有界阻塞队列. PriorityBl ...
- laravel一个页面两个表格分页处理
关键是看懂laravel自带的 paginate() 方法. 在Builder.php文件(项目名称/laravel/vendor/laravel/framework/src/Illuminate/D ...
- MapReduce--shuffle
一.Shuffle简介 Shuffle的正常意思是洗牌或弄乱,shuffle的大致范围就是把map task的输出结果有效的传送到Reduce端.也可以这样理解,shuffle描述着数据从map ta ...
- mongo批量操作存在更新否则插入
def save_data(ok_ps): ns = [] for ok in ok_ps: ok['last_use_time'] = 0 ok['protocol'] = 0 # 协议类型 0:h ...
- SQLServer xp_instance_regread returned error 5,Access is denied(配置最小权限)
公司一套智能巡检系统,客户需要最小的权限去给这套系统使用:配置完后发现很多权限报错,有一条是关于xp_instance_regread读系统注册表error 5的报错.常理error 5.是属于系统权 ...
- 浅谈js设计模式 — 享元模式
享元(flyweight)模式是一种用于性能优化的模式,“fly”在这里是苍蝇的意思,意为蝇量级.享元模式的核心是运用共享技术来有效支持大量细粒度的对象. 假设有个内衣工厂,目前的产品有 50种男式内 ...