spark sql 列怎么转换数据类型

spark sql 列怎么转换数据类型,第1张

spark sql 列怎么转换数据类型

Java获取数据库的表中各字段的字段名,代码如下:

import java.sql.Connection

import java.sql.DriverManager

import java.sql.ResultSet

import java.sql.PreparedStatement

import java.sql.ResultSetMetaData

import java.sql.SQLException

public class TestDemo {

public static Connection getConnection() {

Connection conn = null

try {

Class.forName("com.mysql.jdbc.Driver")

String url = "jdbc:mysql://数据库IP地址:3306/数据库名称"

String user = "数据库用户名"

String pass = "数据库用户密码"

conn = DriverManager.getConnection(url, user, pass)

} catch (ClassNotFoundException e) {

e.printStackTrace()

} catch (SQLException e) {

e.printStackTrace()

}

return conn

}

public static void main(String[] args) {

Connection conn = getConnection()

String sql = "select * from AccessType"

PreparedStatement stmt

try {

stmt = conn.prepareStatement(sql)

ResultSet rs = stmt.executeQuery(sql)

ResultSetMetaData data = rs.getMetaData()

for (int i = 1i <= data.getColumnCount()i++) {

// 获得所有列的数目及实际列数

int columnCount = data.getColumnCount()

// 获得指定列的列名

String columnName = data.getColumnName(i)

// 获得指定列的列值

int columnType = data.getColumnType(i)

// 获得指定列的数据类型

String columnTypeName = data.getColumnTypeName(i)

// 所在的Catalog名字

String catalogName = data.getCatalogName(i)

// 对应数据类型的类

String columnClassName = data.getColumnClassName(i)

// 在数据库中类型的最大字符个数

int columnDisplaySize = data.getColumnDisplaySize(i)

// 默认的列的标题

String columnLabel = data.getColumnLabel(i)

// 获得列的模式

String schemaName = data.getSchemaName(i)

// 某列类型的精确度(类型的长度)

int precision = data.getPrecision(i)

// 小数点后的位数

int scale = data.getScale(i)

// 获取某列对应的表名

String tableName = data.getTableName(i)

// 是否自动递增

boolean isAutoInctement = data.isAutoIncrement(i)

// 在数据库中是否为货币型

boolean isCurrency = data.isCurrency(i)

// 是否为空

int isNullable = data.isNullable(i)

// 是否为只读

boolean isReadOnly = data.isReadOnly(i)

// 能否出现在where中

boolean isSearchable = data.isSearchable(i)

System.out.println(columnCount)

System.out.println("获得列" + i + "的字段名称:" + columnName)

System.out.println("获得列" + i + "的类型,返回SqlType中的编号:"+ columnType)

System.out.println("获得列" + i + "的数据类型名:" + columnTypeName)

System.out.println("获得列" + i + "所在的Catalog名字:"+ catalogName)

System.out.println("获得列" + i + "对应数据类型的类:"+ columnClassName)

System.out.println("获得列" + i + "在数据库中类型的最大字符个数:"+ columnDisplaySize)

System.out.println("获得列" + i + "的默认的列的标题:" + columnLabel)

System.out.println("获得列" + i + "的模式:" + schemaName)

System.out.println("获得列" + i + "类型的精确度(类型的长度):" + precision)

System.out.println("获得列" + i + "小数点后的位数:" + scale)

System.out.println("获得列" + i + "对应的表名:" + tableName)

System.out.println("获得列" + i + "是否自动递增:" + isAutoInctement)

System.out.println("获得列" + i + "在数据库中是否为货币型:" + isCurrency)

System.out.println("获得列" + i + "是否为空:" + isNullable)

System.out.println("获得列" + i + "是否为只读:" + isReadOnly)

System.out.println("获得列" + i + "能否出现在where中:"+ isSearchable)

}

} catch (SQLException e) {

e.printStackTrace()

}

}

}

历史上存在的原理,以前都是使用hive来构建数据仓库,所以存在大量对hive所管理的数据查询的需求。而hive、shark、sparlsql都可以进行hive的数据查询。shark是使用了hive的sql语法解析器和优化器,修改了执行器,使之物理执行过程是跑在spark上;而sparksql是使用了自身的语法解析器、优化器和执行器,同时sparksql还扩展了接口,不单单支持hive数据的查询,可以进行多种数据源的数据查询。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/sjk/6801145.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-03-28
下一篇 2023-03-28

发表评论

登录后才能评论

评论列表(0条)

保存