JDBC之 大数据内容的传输

什么是大数据内容?

  在数据库中,有一条一条的记录,记录中很多字段都是几个字符就够的,假如现在要把一部小说存入数据库,这本小说当然不是几个字符组成,而是由几万字组成,这本小说的数据我们就可以说是大数据,生活中当然有各种各样的大数据:电影,音乐,图片等等。。。

大字符数据内容操作

  大字符内容:通常是指很长的字符类型的文件,例如小说,故事等等,内容有字符组成。

下面说明一下MySQL与Oracle中的大数据类型

数据种类 数据大小 MySQL Oracle
字符 char,varchar varchar2
  text/longtext clob
字节 bit,blob,longblob blob

1.把大字符数据存进数据库(把一个文本的数据存进MySQL中的text类型字段)

@Test
public void writeInDB() throws Exception {
//获取连接
connection = sqlUtil.getconnection(); //获取对象
PreparedStatement preparedStatement =
connection.prepareStatement("insert into book values(?)"); //准备一个Reader用于读取本地文件
Reader reader = new FileReader(new File("e:/test.txt")); //设置大数据参数
preparedStatement.setClob(1, reader); //执行SQL语句
preparedStatement.executeUpdate(); //关闭资源
reader.close();
sqlUtil.close(preparedStatement, connection);
}

2.从数据库把大字符文件读入到本地

        @Test
public void readFromDB() throws Exception
{
//获取连接
connection = sqlUtil.getconnection(); //创建对象
PreparedStatement preparedStatement =
connection.prepareStatement("SELECT content FROM book"); //设置参数
//preparedStatement.setObject(1, "book"); //获得结果
ResultSet res = preparedStatement.executeQuery(); //以String的形式获得大字符内容
while(res.next())
{
String content = res.getString("content");
System.out.println(content);
} //关闭资源
sqlUtil.close(preparedStatement, connection);
}

获得结果后还有第二种方法:

@Test
public void readFromDB() throws Exception
{
//获取连接
connection = sqlUtil.getconnection(); //创建对象
PreparedStatement preparedStatement =
connection.prepareStatement("SELECT content FROM book"); //设置参数
//preparedStatement.setObject(1, "book"); //获得结果
ResultSet res = preparedStatement.executeQuery(); FileWriter fileWriter = new FileWriter(new File("d:/11021.txt"));
//利用Clob对象
if(res.next())
{
Clob clob = res.getClob("content");
Reader reader = clob.getCharacterStream(); //然后把Reader写入到本地文件中
char[] cr = new char[1024];
int len = 0;
while((len = reader.read(cr))!=-1)
{
fileWriter.write(cr, 0, len);
}
reader.close();
} //关闭资源
fileWriter.close();
sqlUtil.close(preparedStatement, connection);
}

以上就是对大字符文件的读入与写出~下面我们示范来对大字节文件的操作~

4.把大字节文件写入数据库

    @Test
public void writeInDB() throws Exception {
//获取连接
connection = sqlUtil.getconnection(); //获取对象
PreparedStatement preparedStatement =
connection.prepareStatement("insert into book values(?,?)"); //准备一个InputStream用于读取本地文件
InputStream in = new FileInputStream(new File("f:/computer.jpg")); //设置大数据参数
preparedStatement.setObject(1, 1);
preparedStatement.setBlob(2, in);
//也可以使用这个
//preparedStatement.setBinaryStream(2, in); //执行SQL语句
preparedStatement.executeUpdate(); //关闭资源
in.close();
sqlUtil.close(preparedStatement, connection);
}

5.从数据库把大字节文件读取到本地

    @Test
public void readFromDB() throws Exception
{
//获取连接
connection = sqlUtil.getconnection(); //创建对象
PreparedStatement preparedStatement =
connection.prepareStatement("SELECT content FROM book where id=?"); //设置参数
preparedStatement.setInt(1, 1); //获得结果
ResultSet res = preparedStatement.executeQuery(); FileOutputStream out = new FileOutputStream(new File("d:/999.jpg"));
//利用Blob对象
if(res.next())
{
//Blob blob = res.getBlob("content");
//InputStream in = blob.getBinaryStream();//这样也行 InputStream in = res.getBinaryStream("content");
//然后把Reader写入到本地文件中
byte[] buf = new byte[1024];
int len = 0;
while((len = in.read(buf))!=-1)
{
out.write(buf, 0, len);
}
in.close();
out.close();
}
//关闭资源
sqlUtil.close(preparedStatement, connection);
}

JDBC之 大数据内容的传输的更多相关文章

  1. C# 之 提高WebService性能大数据量网络传输处理

    1.直接返回DataSet对象 特点:通常组件化的处理机制,不加任何修饰及处理: 优点:代码精减.易于处理,小数据量处理较快: 缺点:大数据量的传递处理慢,消耗网络资源: 建议:当应用系统在内网.专网 ...

  2. WebService - 怎样提高WebService性能 大数据量网络传输处理

    直接返回DataSet对象 返回DataSet对象用Binary序列化后的字节数组 返回DataSetSurrogate对象用Binary序列化后的字节数组 返回DataSetSurrogate对象用 ...

  3. 使用tar+pigz+ssh实现大数据的高效传输

    以前我们跨主机拷贝大数据的时候,比如要拷贝超过100GB的mysql原始数据,我们通常的做法如下: 在源端打包压缩为tar.gz文件 采用scp或者rsync等方式拷贝到目标主机 在目标主机解压文件 ...

  4. JDBC处理大数据

    1.处理大文本 package com.demo; import java.io.File; import java.io.FileNotFoundException; import java.io. ...

  5. (十六)JDBC 处理大数据

    目录 前言: 基本概念 对于Mysql的Text类型 流地址的写法 blob类型数据 备注 前言: 在实际开发中,程序需要把 大文本或二进制 数据保存到数据库中: 实际上,我们并不存储大的数据到数据库 ...

  6. c# 模拟表单提交,post form 上传文件、大数据内容

    表单提交协议规定:要先将 HTTP 要求的 Content-Type 设为 multipart/form-data,而且要设定一个 boundary 参数,这个参数是由应用程序自行产生,它会用来识别每 ...

  7. WebService下实现大数据量的传输

    设置RemotingFormat = SerializationFormat.Binary;再序列化,通过WebService传输,客户端接收,再反序列化,确实效果大大的优于直接传送DataSet,不 ...

  8. JDBC 学习笔记(二)—— 大数据+存储过程+批处理+事务管理

    本文目录:       1.使用JDBC处理大数据        2.使用JDBC处理大文本        3.使用JDBC处理二进制数据        4.Oracle中大数据处理        5 ...

  9. BLOB:大数据,大对象,在数据库中用来存储超长文本的数据,例如图片等

    将一张图片存储在mysql中,并读取出来(BLOB数据:插入BLOB类型的数据必须使用PreparedStatement,因为插入BLOB类型的数据无法使用字符串拼写): -------------- ...

随机推荐

  1. 修改el-table滚动条样式

    <include file="Trade:header" /> <style type="text/css" media="scre ...

  2. bzoj千题计划228:bzoj2095: [Poi2010]Bridges

    http://www.lydsy.com/JudgeOnline/problem.php?id=2095 二分答案,判断是否存在混合图的欧拉回路 如果只有一个方向的风力<=mid,这条边就是单向 ...

  3. 最好用的xshell替代软件----FinalShell工具

    2017年8月份NetSarang公司旗下软件家族的官方版本被爆被植入后门着实让我们常用的Xshell,Xftp等工具火了一把,很长时间都是在用Xshell,不过最近发现了一款同类产品FinalShe ...

  4. [整理]ASP.NET MVC 5

    1.入门 1.1官方资料 http://www.asp.net/mvc/overview/getting-started/introduction/getting-started 疑问: startu ...

  5. java Concurrent 中的数据结构

    一:阻塞数据结构(线程安全) ArrayBlockingQueue:一个由数组结构组成的有界阻塞队列. LinkedBlockingQueue:一个由链表结构组成的有界阻塞队列. PriorityBl ...

  6. laravel一个页面两个表格分页处理

    关键是看懂laravel自带的 paginate() 方法. 在Builder.php文件(项目名称/laravel/vendor/laravel/framework/src/Illuminate/D ...

  7. MapReduce--shuffle

    一.Shuffle简介 Shuffle的正常意思是洗牌或弄乱,shuffle的大致范围就是把map task的输出结果有效的传送到Reduce端.也可以这样理解,shuffle描述着数据从map ta ...

  8. mongo批量操作存在更新否则插入

    def save_data(ok_ps): ns = [] for ok in ok_ps: ok['last_use_time'] = 0 ok['protocol'] = 0 # 协议类型 0:h ...

  9. SQLServer xp_instance_regread returned error 5,Access is denied(配置最小权限)

    公司一套智能巡检系统,客户需要最小的权限去给这套系统使用:配置完后发现很多权限报错,有一条是关于xp_instance_regread读系统注册表error 5的报错.常理error 5.是属于系统权 ...

  10. 浅谈js设计模式 — 享元模式

    享元(flyweight)模式是一种用于性能优化的模式,“fly”在这里是苍蝇的意思,意为蝇量级.享元模式的核心是运用共享技术来有效支持大量细粒度的对象. 假设有个内衣工厂,目前的产品有 50种男式内 ...