kudu拥有毫秒级延迟
与其他大数据数据库不同,Kudu不仅仅是一个文件格式。行访问达到毫秒级延迟,支持C++ JAVA, API PyThon API 拥有简单好用的API。
kudu能陆纤与Hadoop生态系统无缝对接
你可以使用Java Client实时导入数据,同时也支持Spark(运算) impala(分析工具,比Hive快) MapReduce HDFS HBase 很容吵散易从HDFS中获取数据,占用内存小于1G。
分布式和容错机制Kudu通过把tables切分成tablets,每个表都可以配置切分的哈希,分区和组合。Kudu使用了Raft来复制给定的 *** 作,保证了数据同时存储在两个节点上,因此不村子单点故障。
Kudu是为我们下一代设计的好软件,大家可以了解一下!
你好,python有一个kudu的包,你如正需要安装相关的东西如下yum install kudu-client-devel kudu-client0
yum install gcc
yum install gcc-c++
pip2.7 install Cython
pip2.7 install kudu-python
然后下面是例子代码:
import kudu
from kudu.client import Partitioning
from datetime import datetime
# Connect to Kudu master server
client = kudu.connect(host='kudu.master'辩告, port=7051)
# Define a schema for a new table
builder = kudu.schema_builder()
builder.add_column('渣灶悔key').type(kudu.int64).nullable(False).primary_key()
builder.add_column('ts_val', type_=kudu.unixtime_micros, nullable=False, compression='lz4')
schema = builder.build()
# Define partitioning schema
partitioning = Partitioning().add_hash_partitions(column_names=['key'], num_buckets=3)
# Create new table
client.create_table('python-example', schema, partitioning)
# Open a table
table = client.table('python-example')
# Create a new session so that we can apply write operations
session = client.new_session()
# Insert a row
op = table.new_insert({'key': 1, 'ts_val': datetime.utcnow()})
session.apply(op)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)