其实把hive做到shell里面最大的优势是可以定时执行,比如之前做一个论坛用户日志分析的时候,需要定时对hive导入数据,并在hive里面对数据做预处理,最后把hive处理的数据导入到hbase中 这样的实现起来用java显然就没有用shell有优势,因为shell写好了丢那 执行linux定时任务就好了,但是shell有个明显的缺陷就是不灵活,不能根据需求和功能做灵活调用,这时候做到java里面就比用shell写死的好很多,比如做即时需求,点某个功能按键的时候就需要跑hive,明显就是java更好嘛
jdbc和连接池对于你这个场景来说,都足够,既然用spring管理了,建议还是使用连接池,另外,spring自身没有实现连接池,一般都是对第三方连接池的包装,常见的有C3P0,dbcp以及最近比较流行的boneCP等,这几个配置都差不多太多,以boneCP为例:
<bean id="dataSource" class="comjolboxbonecpBoneCPDataSource"
destroy-method="close">
<property name="driverClass" value="${jdbcdriverClass}" />
<property name="jdbcUrl" value="${jdbcurl}" />
<property name="username" value="${jdbcuser}" />
<property name="password" value="${jdbcpassword}" />
<property name="idleConnectionTestPeriod" value="60" />
<property name="idleMaxAge" value="240" />
<property name="maxConnectionsPerPartition" value="30" />
<property name="minConnectionsPerPartition" value="10" />
<property name="partitionCount" value="2" />
<property name="acquireIncrement" value="5" />
<property name="statementsCacheSize" value="100" />
<property name="releaseHelperThreads" value="3" />
</bean>
<bean id="jdbcTemplate" class="orgspringframeworkjdbccoreJdbcTemplate">
<property name="dataSource" ref="dataSource" />
</bean>
以上就是关于hadoop hive *** 作 是封装在shell脚本好还是java中好全部的内容,包括:hadoop hive *** 作 是封装在shell脚本好还是java中好、hive jdbc连接不成功。。报错org.apache.thrift.transport.TTransportException: Invalid status -128、等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)