java往数据库存储大文件

java往数据库存储大文件,第1张

你好。请问什么数据库。oracle如下

数据库中提供了两种字段类型 Blob 和 Clob 用于存储大型字符串或二进制数据(如图片)。

Blob 采用单字节存储,适合保存二进制数据,如图片文件

Clob 采用多字节存储,适合保存大型文本数据。

首先创建一个空 Blob/Clob 字段,再从这个空 Blob/Clob字段获取游标,例如下面的代码:

PreparedStatement ps = conn.prepareStatement( " insert into PICTURE(image,resume) values(?,?) " )

// 通过oralce.sql.BLOB/CLOB.empty_lob()构造空Blob/Clob对象

ps.setBlob( 1 ,oracle.sql.BLOB.empty_lob())

ps.setClob( 2 ,oracle.sql.CLOB.empty_lob())

ps.excuteUpdate()

ps.close()

// 再次对读出Blob/Clob句柄

ps = conn.prepareStatement( " select image,resume from PICTURE where id=? for update " )

ps.setInt( 1 , 100 )

ResultSet rs = ps.executeQuery()

rs.next()

oracle.sql.BLOB imgBlob = (oracle.sql.BLOB)rs.getBlob( 1 )

oracle.sql.CLOB resClob = (oracle.sql.CLOB)rs.getClob( 2 )

// 将二进制数据写入Blob

FileInputStream inStream = new FileInputStream( " c://image.jpg " )

OutputStream outStream = imgBlob.getBinaryOutputStream()

byte [] buf = new byte [ 10240 ]

int len

while (len = inStream.read(buf) >0 ) {

outStream.write(buf, 0 ,len)

}

inStream.close()

outStream.cloese()

// 将字符串写入Clob

resClob.putString( 1 , " this is a clob " )

// 再将Blob/Clob字段更新到数据库

ps = conn.prepareStatement( " update PICTURE set image=? and resume=? where id=? " )

ps.setBlob( 1 ,imgBlob)

ps.setClob( 2 ,resClob)

ps.setInt( 3 , 100 )

ps.executeUpdate()

ps.close()

以下将从常规方法谈起,通过对比来说明应该如何使用java读取大文件。

1、常规:在内存中读取

读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法:

Files.readLines(new File(path), Charsets.UTF_8)

FileUtils.readLines(new File(path))

这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致程序抛出OutOfMemoryError 异常。

例如:读取一个大约1G的文件:

@Test

public void givenUsingGuava_whenIteratingAFile_thenWorks() throws IOException {

String path = ...

Files.readLines(new File(path), Charsets.UTF_8)

}

这种方式开始时只占用很少的内存:(大约消耗了0Mb内存)

然而,当文件全部读到内存中后,我们最后可以看到(大约消耗了2GB内存):

这意味这一过程大约耗费了2.1GB的内存——原因很简单:现在文件的所有行都被存储在内存中。

把文件所有的内容都放在内存中很快会耗尽可用内存——不论实际可用内存有多大,这点是显而易见的。

此外,我们通常不需要把文件的所有行一次性地放入内存中——相反,我们只需要遍历文件的每一行,然后做相应的处理,处理完之后把它扔掉。所以,这正是我们将要做的——通过行迭代,而不是把所有行都放在内存中。

2、文件流

FileInputStream inputStream = null

Scanner sc = null

try {

inputStream = new FileInputStream(path)

sc = new Scanner(inputStream, "UTF-8")

while (sc.hasNextLine()) {

String line = sc.nextLine()

// System.out.println(line)

}

// note that Scanner suppresses exceptions

if (sc.ioException() != null) {

throw sc.ioException()

}

} finally {

if (inputStream != null) {

inputStream.close()

}

if (sc != null) {

sc.close()

}

}

这种方案将会遍历文件中的所有行——允许对每一行进行处理,而不保持对它的引用。总之没有把它们存放在内存中:(大约消耗了150MB内存)

3、Apache Commons IO流

同样也可以使用Commons IO库实现,利用该库提供的自定义LineIterator:

LineIterator it = FileUtils.lineIterator(theFile, "UTF-8")

try {

while (it.hasNext()) {

String line = it.nextLine()

// do something with line

}

} finally {

LineIterator.closeQuietly(it)

}

由于整个文件不是全部存放在内存中,这也就导致相当保守的内存消耗:(大约消耗了150MB内存)

BLOB (binary large object),二进制大对象,是一个可以存储二进制文件的容器,用于存储图片,视频等。

CLOB(Character Large Object),字符大对象,存储小说、论文等字符串组成的大对象。

java中对应的包为java.sql

mysql数据库中有blob和clob两种类型,直接存就可以。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/12080608.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-20
下一篇 2023-05-20

发表评论

登录后才能评论

评论列表(0条)

保存