三种方式:
一是接通国家工商总局的网站,让他们给你开个端口;目前有两家企业已经获得了这个权限;
二是弄个爬虫,24小时不间断爬取;
三是向已经取得权限的公司或有数据库的公司合作,交易索取。
补充:随着国家的科技发展,互联网的迅速升级,商标局数据库会越来越开放。
@Test
public void testBatchUpdate() {
NamedParameterJdbcTemplate namedParameterJdbcTemplate = new NamedParameterJdbcTemplate(jdbcTemplate);
String insertSql = "insert into bddstable_test(name) values(:myName)";
UserModel model = new UserModel();
modelsetMyName("name5");
SqlParameterSource[] params = SqlParameterSourceUtilscreateBatch(new Object[] {
model, model});
namedParameterJdbcTemplatebatchUpdate(insertSql, params);
AssertassertEquals(2, jdbcTemplatequeryForInt("select count() from test"));
}
spring
JdbcTemplate批量例子:
@Override
public
void
saveBatch(final
List<Employee>
employeeList)
{
final
int
batchSize
=
500;
for
(int
j
=
0;
j
<
employeeListsize();
j
+=
batchSize)
{
final
List<Employee>
batchList
=
employeeListsubList(j,
j
+
batchSize
>
employeeListsize()
employeeListsize()
:
j
+
batchSize);
getJdbcTemplate()batchUpdate(QUERY_SAVE,
new
BatchPreparedStatementSetter()
{
@Override
public
void
setValues(PreparedStatement
ps,
int
i)
throws
SQLException
{
Employee
employee
=
batchListget(i);
pssetString(1,
employeegetFirstname());
pssetString(2,
employeegetLastname());
pssetString(3,
employeegetEmployeeIdOnSourceSystem());
}
@Override
public
int
getBatchSize()
{
return
batchListsize();
}
});
}
}
主键自动增加可以在db层面建立sequence来实现,在插入的时候这么写:
Long
newPersonId
=
holdergetKey()longValue();
Spring对数据库的 *** 作在jdbc上面做了深层次的封装,使用spring的注入功能,可以把DataSource注册到JdbcTemplate之中。
Spring提供的JdbcTemplate对jdbc做了封装,大大简化了数据库的 *** 作。找到Spring JdbcTemplate源码,可以看到如下方法:
Connection con = DataSourceUtilsgetConnection(getDataSource());如果直接使用JDBC的话,需要我们加载数据库驱动、创建连接、释放连接、异常处理等一系列的动作;繁琐且代码看起来不直观。
此外,Spring提供的JdbcTempate能直接数据对象映射成实体类,不再需要获取ResultSet去获取值/赋值等 *** 作,提高开发效率;
如下:
return (User) jdbcTemplatequeryForObject("select from tb_test1 where id = 100", Userclass)一、 通过SqlRowSetMetaData类
使用到的类或接口有如下几个:
orgspringframeworkjdbcsupportrowsetSqlRowSet接口:该对象和javaxsqlRowSet类相对应,它和RowSet的区别是SqlRowSet中的方法从来不会抛出SQLException异常,通过jdbcTemplate可以获得该对象的实例;
orgspringframeworkjdbcsupportrowsetSqlRowSetMetaData接口:是对应于SqlRowSet的元数据接口,和javasqlResultSetMetaData相一致,也只是从来不会抛出SQLException异常,通过SqlRowSet可以获得该类的实例;
具体使用实例如下:
SqlRowSet rowSet = jdbcTemplatequeryForRowSet("select from user limit 0");SqlRowSetMetaData metaData = rowSetgetMetaData();
int columnCount = metaDatagetColumnCount();
for (int i = 1; i <= columnCount; i++) {
Map<String,String> fieldMap = new HashMap<String,String>();
fieldMapput("ColumnName", metaDatagetColumnName(i));
fieldMapput("ColumnType", StringvalueOf(metaDatagetColumnType(i)));
fieldMapput("ColumnTypeName", metaDatagetColumnTypeName(i));
fieldMapput("CatalogName", metaDatagetCatalogName(i));
fieldMapput("ColumnClassName", metaDatagetColumnClassName(i));
fieldMapput("ColumnLabel", metaDatagetColumnLabel(i));
fieldMapput("Precision", StringvalueOf(metaDatagetPrecision(i)));
fieldMapput("Scale", StringvalueOf(metaDatagetScale(i)));
fieldMapput("SchemaName", metaDatagetSchemaName(i));
fieldMapput("TableName", metaDatagetTableName(i));
fieldMapput("SchemaName", metaDatagetSchemaName(i));
Systemoutprintln(fieldMap);
}
上述所用的信息都应列出来了,发现只有一些简单的信息,并没有涉及索引和其他约束等的信息。
二、通过RowCountCallbackHandler类
使用到的类或接口有如下几个:
orgspringframeworkjdbccoreRowCallbackHandler接口:用于处理结果集中的每一行数据;
orgspringframeworkjdbccoreRowCountCallbackHandler类:实现了RowCallbackHandler接口,其中简单的实现了对结果集元数据的获取,包括行数、列数、列名、列的类型等信息,顺便说一下这个类的实例只可以用一次;
在源代码中给出了简单的使用方式,如下:
JdbcTemplate jdbcTemplate = new JdbcTemplate(dataSource); // reusable object
RowCountCallbackHandler countCallback = new RowCountCallbackHandler(); // not reusable
jdbcTemplatequery("select from user", countCallback);
int rowCount = countCallbackgetRowCount();
所有能获得的信息如下:
String sql = "select from user";RowCountCallbackHandler rcch = new RowCountCallbackHandler();
jdbcTemplatequery(sql, rcch);
Systemoutprintln("column count :" + rcchgetColumnCount());
Systemoutprintln("column count :" + rcchgetRowCount());
for(int i=0; i<rcchgetColumnCount(); i++){
Systemoutprintln("column name :" + rcchgetColumnNames()[i]);
Systemoutprintln("column type :" + rcchgetColumnTypes()[i]);
}
输出如下:
从输出可以看出有一个问题,列的类型只能用数字来标识,这与javasqlTypes相对应,我们可以通过一下的程序来获得字符串的形式:
String getTypeName(int type) throws SQLException {
switch (type) {
case TypesARRAY:
break;
case TypesBIGINT:
return "BIGINT";
case TypesBINARY:
return "BINARY";
case TypesBIT:
return "BIT";
case TypesBLOB:
return "BLOB";
case TypesBOOLEAN:
return "BOOLEAN";
//
}
由以上可知,该类的方法有限,也只能获得列名和列的类型的信息,关于索引和约束等也没有涉及
根据你用的框架和数据库的不同,提取方法也有区别。
如果是ibatis+oracle的话可以用此方法
<xml version="10" encoding="UTF-8">
<!DOCTYPE sqlMap PUBLIC "-//ibatisapacheorg//DTD SQL Map 20//EN"
">
在mysql中设计表的时候,mysql官方推荐不要使用uuid或者不连续不重复的雪花id(long形且唯一,单机递增),而是推荐连续自增的主键id,官方的推荐是auto_increment,那么为什么不建议采用uuid,使用uuid究竟有什么坏处?
一、mysql和程序实例 11要说明这个问题,我们首先来建立三张表分别是user_auto_key,user_uuid,user_random_key,分别表示自动增长的主键,uuid作为主键,随机key作为主键,其它我们完全保持不变
根据控制变量法,我们只把每个表的主键使用不同的策略生成,而其他的字段完全一样,然后测试一下表的插入速度和查询速度:
注:这里的随机key其实是指用雪花算法算出来的前后不连续不重复无规律的id:一串18位长度的long值
id自动生成表:
用户uuid表
随机主键表:
12光有理论不行,直接上程序,使用spring的jdbcTemplate来实现增查测试:技术框架:springboot+jdbcTemplate+junit+hutool,程序的原理就是连接自己的测试数据库,然后在相同的环境下写入同等数量的数据,来分析一下insert插入的时间来进行综合其效率,为了做到最真实的效果,所有的数据采用随机生成,比如名字、邮箱、地址都是随机生成。
package comwyqmysqldemo;
import cnhutoolcorecollectionCollectionUtil;
import comwyqmysqldemodatabaseobjectUserKeyAuto;
import comwyqmysqldemodatabaseobjectUserKeyRandom;
import comwyqmysqldemodatabaseobjectUserKeyUUID;
import comwyqmysqldemodiffkeytestAutoKeyTableService;
import comwyqmysqldemodiffkeytestRandomKeyTableService;
import comwyqmysqldemodiffkeytestUUIDKeyTableService;
import comwyqmysqldemoutilJdbcTemplateService;
import orgjunitjupiterapiTest;
import orgspringframeworkbeansfactoryannotationAutowired;
import orgspringframeworkboottestcontextSpringBootTest;
import orgspringframeworkutilStopWatch;
import javautilList;
@SpringBootTest
class MysqlDemoApplicationTests {
@Autowired
private JdbcTemplateService jdbcTemplateService;
@Autowired
private AutoKeyTableService autoKeyTableService;
@Autowired
private UUIDKeyTableService uuidKeyTableService;
@Autowired
private RandomKeyTableService randomKeyTableService;
@Test
void testDBTime() {
StopWatch stopwatch = new StopWatch("执行sql时间消耗");
/
auto_increment key任务
/
final String insertSql = "INSERT INTO user_key_auto(user_id,user_name,sex,address,city,email,state) VALUES( , , , , , , )";
List<UserKeyAuto> insertData = autoKeyTableServicegetInsertData();
stopwatchstart("自动生成key表任务开始");
long start1 = SystemcurrentTimeMillis();
if (CollectionUtilisNotEmpty(insertData)) {
boolean insertResult = jdbcTemplateServiceinsert(insertSql, insertData, false);
Systemoutprintln(insertResult);
}
long end1 = SystemcurrentTimeMillis();
Systemoutprintln("auto key消耗的时间:" + (end1 - start1));
stopwatchstop();
/
uudID的key
/
final String insertSql2 = "INSERT INTO user_uuid(id,user_id,user_name,sex,address,city,email,state) VALUES( , , , , , , , )";
List<UserKeyUUID> insertData2 = uuidKeyTableServicegetInsertData();
stopwatchstart("UUID的key表任务开始");
long begin = SystemcurrentTimeMillis();
if (CollectionUtilisNotEmpty(insertData)) {
boolean insertResult = jdbcTemplateServiceinsert(insertSql2, insertData2, true);
Systemoutprintln(insertResult);
}
long over = SystemcurrentTimeMillis();
Systemoutprintln("UUID key消耗的时间:" + (over - begin));
stopwatchstop();
/
随机的long值key
/
final String insertSql3 = "INSERT INTO user_random_key(id,user_id,user_name,sex,address,city,email,state) VALUES( , , , , , , , )";
List<UserKeyRandom> insertData3 = randomKeyTableServicegetInsertData();
stopwatchstart("随机的long值key表任务开始");
Long start = SystemcurrentTimeMillis();
if (CollectionUtilisNotEmpty(insertData)) {
boolean insertResult = jdbcTemplateServiceinsert(insertSql3, insertData3, true);
Systemoutprintln(insertResult);
}
Long end = SystemcurrentTimeMillis();
Systemoutprintln("随机key任务消耗时间:" + (end - start));
stopwatchstop();
String result = stopwatchprettyPrint();
Systemoutprintln(result);
}
13程序写入结果user_key_auto写入结果:
user_random_key写入结果:
user_uuid表写入结果
14效率测试结果在已有数据量为130W的时候:我们再来测试一下插入10w数据,看看会有什么结果:
可以看出在数据量100W左右的时候,uuid的插入效率垫底,并且在后序增加了130W的数据,uudi的时间又直线下降。
时间占用量总体可以打出的效率排名为:auto_key>random_key>uuid,uuid的效率最低,在数据量较大的情况下,效率直线下滑。那么为什么会出现这样的现象呢?带着疑问,我们来探讨一下这个问题:
二、使用uuid和自增id的索引结构对比 21使用自增id的内部结构自增的主键的值是顺序的,所以Innodb把每一条记录都存储在一条记录的后面。当达到页面的最大填充因子时候(innodb默认的最大填充因子是页大小的15/16,会留出1/16的空间留作以后的 修改):
①下一条记录就会写入新的页中,一旦数据按照这种顺序的方式加载,主键页就会近乎于顺序的记录填满,提升了页面的最大填充率,不会有页的浪费
②新插入的行一定会在原有的最大数据行下一行,mysql定位和寻址很快,不会为计算新行的位置而做出额外的消耗
③减少了页分裂和碎片的产生
22使用uuid的索引内部结构因为uuid相对顺序的自增id来说是毫无规律可言的,新行的值不一定要比之前的主键的值要大,所以innodb无法做到总是把新行插入到索引的最后,而是需要为新行寻找新的合适的位置从而来分配新的空间。
这个过程需要做很多额外的 *** 作,数据的毫无顺序会导致数据分布散乱,将会导致以下的问题:
①写入的目标页很可能已经刷新到磁盘上并且从缓存上移除,或者还没有被加载到缓存中,innodb在插入之前不得不先找到并从磁盘读取目标页到内存中,这将导致大量的随机IO
②因为写入是乱序的,innodb不得不频繁的做页分裂 *** 作,以便为新的行分配空间,页分裂导致移动大量的数据,一次插入最少需要修改三个页以上
③由于频繁的页分裂,页会变得稀疏并被不规则的填充,最终会导致数据会有碎片
在把随机值(uuid和雪花id)载入到聚簇索引(innodb默认的索引类型)以后,有时候会需要做一次OPTIMEIZE TABLE来重建表并优化页的填充,这将又需要一定的时间消耗。
结论:使用innodb应该尽可能的按主键的自增顺序插入,并且尽可能使用单调的增加的聚簇键的值来插入新行
23使用自增id的缺点那么使用自增的id就完全没有坏处了吗?并不是,自增id也会存在以下几点问题:
①别人一旦爬取你的数据库,就可以根据数据库的自增id获取到你的业务增长信息,很容易分析出你的经营情况
②对于高并发的负载,innodb在按主键进行插入的时候会造成明显的锁争用,主键的上界会成为争抢的热点,因为所有的插入都发生在这里,并发插入会导致间隙锁竞争
③Auto_Increment锁机制会造成自增锁的抢夺,有一定的性能损失
附:Auto_increment的锁争抢问题,如果要改善需要调优innodb_autoinc_lock_mode的配置
以上就是关于民间是如何获得商标局数据库全部的内容,包括:民间是如何获得商标局数据库、spring NamedParameterJdbcTemplate批量 *** 作sql怎么实现、spring JdbcTemplate批量插入 怎么获得数据库自动增长的id等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)