public static void insert() {
// 开时时间
Long begin = new Date().getTime()
// sql前缀
String prefix = "INSERT INTO tb_big_data (count, create_time, random) VALUES "
try {
// 保存sql后缀
StringBuffer suffix = new StringBuffer()
// 设置事务为非自动提交
conn.setAutoCommit(false)
// Statement st = conn.createStatement()
// 比起st,pst会更好些
PreparedStatement pst = conn.prepareStatement("")
// 外层循环,总提交事务次数
for (int i = 1 i <= 100 i++) {
// 第次提交步长
for (int j = 1 j <= 10000 j++) {
// 构建sql后缀
suffix.append("(" + j * i + ", SYSDATE(), " + i * j
* Math.random() + "),")
}
// 构建完整sql
String sql = prefix + suffix.substring(0, suffix.length() - 1)
// 添加执行sql
pst.addBatch(sql)
// 执行 *** 作
pst.executeBatch()
// 提交事务
conn.commit()
// 清空上一次添加的数据
suffix = new StringBuffer()
}
// 头等连接
pst.close()
conn.close()
} catch (SQLException e) {
e.printStackTrace()
}
// 结束时间
Long end = new Date().getTime()
// 耗时
System.out.println("cast : " + (end - begin) / 1000 + " ms")
}
批量写入,提高效率,最简单直接的办法就是:将
txt文本
作为一个数据源处理,而不是文件读取,这样,通过数据源,就可以直接批量读取为一个recordset,然后,直接写入数据库了。
ps:这要求
文本文件格式
非常规律,如果不行,自己尝试在内存里面构建recordset吧。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)